Los directores de las principales redes sociales, Mark Zuckerberg, de Meta; Linda Yaccarino, de X; Shou Zi Chew, de TikTok; Jason Citron, de Discord, y Evan Spiegel, de Snap, fueron interrogados ayer por el Congreso de Estados Unidos sobre los riesgos que sus productos representan para los jóvenes, una vez más, y fueron acusados de tener “sangre en sus manos”.
El senador republicano de Carolina del Sur, Lindsey Graham, dijo a los directores ejecutivos de tecnología en sus comentarios de apertura: “Tienen sangre en las manos. Tienen un producto que está matando gente… ¡Si no los pueden demandar, deberían hacerlo! Ha llegado el momento de derogar la Sección 230”.
La Sección 230 es la ley federal que inmuniza a los sitios web y plataformas de redes sociales por sus decisiones de moderación de contenido y por demandas que surjan del contenido generado por los usuarios. Además, se pidió que ya se aborde una regulación en forma contra las redes sociales que han generado mucho daño a la sociedad en general.
La audiencia llamada Las grandes tecnologías y la crisis de explotación sexual infantil en línea se debe a los diversos casos de suicidio derivados de bullying o explotación sexual a través de redes sociales, así como investigaciones que han demostrado que, por ejemplo, los niños en Instagram y Facebook eran objetivos frecuentes de acoso sexual, y de robarles sus datos sin su consentimiento desde 2019.
The Wall Street Journal publicó el año pasado que los algoritmos de recomendación de Instagram permitieron una red de pedófilos que buscaban contenido y actividad sexual ilegal de menores de edad.
El senador republicano Lindsey Graham recordó el caso Brandon Guffey, legislador de Carolina del Sur que está demandando a Meta luego de que su hijo Gavin, de 17 años de edad, se suicidara por ser víctima de un grupo de extorsión que operaba a través de Instagram.
Señor Zuckerberg, usted y las empresas que nos precedieron tiene sangre en sus manos. Tienes un producto que está matando gente”, le reclamó en la comparecencia.
Recordó que el Congreso ha tomado medidas para regular el tabaco y las armas, mientras que las redes sociales están protegidas de ser consideradas responsables debido a la Sección 230 del Título 47 del Código de los Estados Unidos.
Durante una audiencia en el Senado de Estados Unidos, el director ejecutivo de Meta, Mark Zuckerberg, pidió perdón a familiares de víctimas de abuso sexual infantil en internet. Aunque negó que el uso de redes sociales afecte la salud mental de los menores, la afirmación generó controversia entre el público.
La comparecencia incluyó testimonios de los directores ejecutivos de Snap, X, Discord y TikTok, quienes analizaron las acciones de las grandes tecnológicas para combatir el abuso sexual infantil en sus plataformas.
Mantener a los jóvenes seguros en la red ha sido un reto desde los inicios de internet y, a medida que los delincuentes hacen evolucionar sus tácticas, nosotros también tenemos que hacer evolucionar nuestras defensas”, dijo el creador de Facebook.
Zuckerberg defendió a Meta de acusaciones de abuso, destacando la falta de evidencia científica que vincule el uso de redes sociales con problemas de salud mental.
Un reciente informe de las Academias Nacionales de Ciencias, que evaluó más de 300 estudios, no apoya la conclusión de que las redes sociales causan cambios en la salud mental de los adolescentes”, sentenció el directivo de Meta.
Esta declaración provocó revuelo entre familiares de víctimas de acoso en redes sociales, llevando a Zuckerberg a pedir perdón públicamente, según la solicitud de congresistas.
Siento por todo lo que han pasado”, dijo el líder de Meta, quien añadió que nadie tendría que haber sufrido esta “terrible” situación.
Los cinco testigos admitieron su responsabilidad en la seguridad de sus comunidades en línea y expresaron disposición para colaborar con legisladores en este tema. Sin embargo, su falta de respuesta clara sobre el apoyo a proyectos de ley relacionados llevó a los congresistas a criticar su “silencio sepulcral”.
Si esperamos que estos tipos resuelvan el problema, vamos a morir esperando”, reprochó Graham.
Meta afirmó que bloqueará los mensajes directos enviados a jóvenes adolescentes por desconocidos.
Por defecto, ahora los menores de 16 años solo pueden recibir mensajes o ser añadidos a chats de grupo por personas a las que ya siguen o con las que están conectadas.
Abuso infantil en redes
En el marco de la audiencia, Linda Yaccarino, directora ejecutiva de X, destacó que menos del 1 por coento de los usuarios de X tienen entre 13 y 17 años, intentando desvincularse del problema.
Por su parte, el director ejecutivo de TikTok, Shou Chew, anunció una inversión de más de 2 mil millones de dólares este año en seguridad, con 40 mil profesionales, mientras que Discord y Snap detallaron medidas de inteligencia artificial y borrado de contenido.
El Congreso analiza proyectos de ley como el ‘Stop CSAM Act’, orientado a combatir la proliferación de material de abuso sexual infantil en línea y fortalecer la responsabilidad de las plataformas.