Los abusadores utilizan la IA generativa para producir reiteradamente daños a niños mediante la creación de nuevas imágenes, cada vez más "fotorrealistas", que coincidan con la imagen de un menor.
Por Canal26
Jueves 1 de Febrero de 2024 - 15:40
El Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados dijo que había recibido 4.700 informes durante 2023 sobre contenido generado por inteligencia artificial que representaba episodios de explotación sexual infantil.
Según la organización de protección infantil más grande e influyente del país norteamericano, la cifra refleja un problema incipiente que se espera que crezca a medida que avanza la tecnología.
Ante esta situación, expertos en seguridad infantil encendieron sus alarmas sobre el riesgo de que la tecnología de inteligencia artificial generativa, que puede crear texto e imágenes en respuesta a indicaciones, pueda exacerbar la explotación de los niños en línea.
Los directores ejecutivos de Meta, X, TikTok, Snap Inc y Discord testificaron en una audiencia en el Senado sobre la seguridad infantil en línea, donde los legisladores cuestionaron a las redes sociales y a las empresas de mensajería sobre sus esfuerzos para proteger a los niños de los depredadores online.
OpenAI, creador del popular ChatGPT, estableció un proceso para enviar informes al centro orientado al cuidado de los niños que, a su vez, está en conversaciones con otras empresas de IA generativa.
Te puede interesar:
El ChatGPT se expande: así es SearchGPT, el buscador que pretende destronar a Google
La tecnológica estadounidense Meta dijo que sus redes sociales, Instagram y Facebook, aplicarán por defecto su configuración de contenidos más restrictiva a los usuarios menores de edad, tanto los nuevos como los ya existentes.
A finales de 2023, más de 40 fiscales de Estados Unidos habían acusado a Meta de ofrecer características adictivas para los menores, por lo que la empresa aplicará "protecciones adicionales enfocadas en el tipo de contenido" que los niños y adolescentes ven en esas dos redes para que tengan una "experiencia apropiada a su edad".
Los contenidos con temas como la autolesión, los trastornos alimentarios y las enfermedades mentales, que ya no aparecían recomendados a los menores en los apartados "reels" y "explorar", ahora tampoco aparecerán en la página principal ni en las "stories", ni siquiera cuando sean compartidos por los usuarios que siguen.
1
Colossus: cómo es la "supercomputadora" que presentó Elon Musk con 100.000 chips Nvidia
2
El ChatGPT se expande: así es SearchGPT, el buscador que pretende destronar a Google
3
Modo Franco Colapinto en WhatsApp: este es el paso a paso para activarlo
4
WhatsApp incorporó una "lupa escondida" para proteger a los usuarios: cómo utilizarla
5
Cómo instalar Copilot, la inteligencia artificial de Microsoft, en WhatsApp: el paso a paso
Mantenete siempre informado