El Gobierno ha pedido a la Fiscalía que investigue a las grandes compañías tecnológicas por difundir pornografía infantil a través de sus herramientas de inteligencia artificial. La decisión de la Fiscalía de abrir diligencias contra Elon Musk (X), Meta y Tiktok ha reavivado el debate sobre los límites de la libertad de expresión en internet, la responsabilidad de las plataformas digitales y el papel de los gigantes tecnológicos en la moderación de contenidos. Aunque la investigación se encuentra en una fase preliminar, el caso ya ha generado un intenso escrutinio público debido a la notoriedad de los implicados y a las implicaciones legales y éticas que plantea.
Según fuentes jurídicas consultadas por distintos medios, la Fiscalía habría recibido varias denuncias relacionadas con la presencia de contenido sexual explícito en plataformas gestionadas por empresas tecnológicas de gran alcance. Entre ellas se encuentra X (la red social anteriormente conocida como Twitter) propiedad de Elon Musk desde 2022. Las denuncias apuntan a que la plataforma habría permitido la circulación de material pornográfico sin los controles adecuados para verificar la edad de los participantes o impedir la difusión de contenido ilegal. Cabe recordar que Musk y Pedro Sánchez habían mantenido un intenso rifirrafe en X a cuenta de la libertad de expresión. Esta guerra se ha trasladado a los tribunales.
Aunque el foco mediático se ha centrado en Musk, la investigación no se limita a X. Otras compañías tecnológicas también estarían bajo la lupa por prácticas similares, lo que sugiere un problema estructural en la gestión de contenidos sensibles en redes sociales y servicios digitales. La Fiscalía pretende determinar si estas empresas han incumplido sus obligaciones legales en materia de protección de menores, privacidad y control de contenidos ilícitos.
En los últimos años, varias organizaciones han alertado sobre la facilidad con la que circula material pornográfico en plataformas abiertas, a menudo sin mecanismos eficaces para verificar la edad de los usuarios o para impedir que se compartan vídeos no consentidos. La expansión de la inteligencia artificial generativa ha añadido una capa adicional de complejidad: la creación de imágenes y vídeos falsos que pueden incluir contenido sexual sin el consentimiento de las personas representadas.
Desde que Musk adquirió X, la plataforma ha experimentado cambios significativos en sus políticas de moderación. El empresario ha defendido una visión más amplia de la libertad de expresión, reduciendo el número de moderadores y flexibilizando las normas sobre contenido permitido. Sus críticos sostienen que esta estrategia ha provocado un aumento de publicaciones problemáticas, incluidas las de carácter sexual explícito.
La investigación de la Fiscalía podría examinar si la reducción de controles ha facilitado la difusión de contenido pornográfico ilegal o si la plataforma ha incumplido normativas nacionales e internacionales sobre protección de menores. Aunque X permite contenido para adultos bajo ciertas condiciones, la legislación exige mecanismos estrictos para evitar que dicho material llegue a menores o incluya a personas cuya identidad o edad no ha sido verificada.
Musk ha defendido en repetidas ocasiones que X actúa dentro de la legalidad y que la plataforma cuenta con herramientas para denunciar y retirar contenido inapropiado. Sin embargo, organizaciones de protección de la infancia y expertos en ciberseguridad han señalado que estos mecanismos son insuficientes o demasiado lentos para frenar la difusión de material ilícito.
La legislación española y europea establece que las plataformas digitales deben actuar con diligencia para impedir la difusión de contenido ilegal, especialmente cuando afecta a menores. El Reglamento de Servicios Digitales (DSA, por sus siglas en inglés), en vigor en la Unión Europea, obliga a las grandes plataformas a implementar sistemas de moderación más robustos, auditorías externas y mecanismos de transparencia.
Si la Fiscalía concluye que las empresas investigadas no han cumplido con estas obligaciones, podrían enfrentarse a sanciones económicas significativas e incluso a restricciones operativas. El caso también podría sentar un precedente sobre la responsabilidad penal de los directivos de estas compañías, un terreno que hasta ahora ha sido poco explorado en Europa.
La investigación pone de manifiesto un dilema central en la gestión de plataformas digitales: cómo equilibrar la libertad de expresión con la necesidad de proteger a los usuarios, especialmente a los más vulnerables. La moderación de contenidos es un proceso complejo que requiere recursos humanos, tecnología avanzada y una estrategia clara. Sin embargo, muchas empresas han optado por modelos de moderación automatizada que, aunque eficientes en volumen, pueden fallar en la detección de contenido sensible.
Además, la velocidad a la que se comparte información en redes sociales dificulta la intervención temprana. Un vídeo o una imagen pueden viralizarse en cuestión de minutos, lo que hace casi imposible evitar su difusión una vez que ha comenzado. Este fenómeno ha llevado a expertos a reclamar una mayor inversión en prevención y en herramientas de verificación de identidad.
La apertura de diligencias ha generado reacciones diversas. Organizaciones de defensa de los derechos digitales han pedido prudencia, recordando que la investigación aún no ha determinado responsabilidades. Por su parte, asociaciones de protección de menores han celebrado la iniciativa, argumentando que las plataformas deben asumir un papel más activo en la lucha contra la explotación sexual en línea.
Si la Fiscalía encuentra indicios de delito, el caso podría escalar a los tribunales y desencadenar un debate más amplio sobre la regulación de las redes sociales. También podría impulsar reformas legislativas para reforzar los mecanismos de control y aumentar la responsabilidad de las empresas tecnológicas.
