Los abusadores utilizan la IA generativa para producir reiteradamente daños a niños mediante la creación de nuevas imágenes, cada vez más "fotorrealistas", que coincidan con la imagen de un menor.
Por Canal26
Jueves 1 de Febrero de 2024 - 15:40
El Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados dijo que había recibido 4.700 informes durante 2023 sobre contenido generado por inteligencia artificial que representaba episodios de explotación sexual infantil.
Según la organización de protección infantil más grande e influyente del país norteamericano, la cifra refleja un problema incipiente que se espera que crezca a medida que avanza la tecnología.
Ante esta situación, expertos en seguridad infantil encendieron sus alarmas sobre el riesgo de que la tecnología de inteligencia artificial generativa, que puede crear texto e imágenes en respuesta a indicaciones, pueda exacerbar la explotación de los niños en línea.
Los directores ejecutivos de Meta, X, TikTok, Snap Inc y Discord testificaron en una audiencia en el Senado sobre la seguridad infantil en línea, donde los legisladores cuestionaron a las redes sociales y a las empresas de mensajería sobre sus esfuerzos para proteger a los niños de los depredadores online.
OpenAI, creador del popular ChatGPT, estableció un proceso para enviar informes al centro orientado al cuidado de los niños que, a su vez, está en conversaciones con otras empresas de IA generativa.
Te puede interesar:
Los increíbles anteojos tecnológicos de Samsung que cuentan con inteligencia artificial
La tecnológica estadounidense Meta dijo que sus redes sociales, Instagram y Facebook, aplicarán por defecto su configuración de contenidos más restrictiva a los usuarios menores de edad, tanto los nuevos como los ya existentes.
A finales de 2023, más de 40 fiscales de Estados Unidos habían acusado a Meta de ofrecer características adictivas para los menores, por lo que la empresa aplicará "protecciones adicionales enfocadas en el tipo de contenido" que los niños y adolescentes ven en esas dos redes para que tengan una "experiencia apropiada a su edad".
Los contenidos con temas como la autolesión, los trastornos alimentarios y las enfermedades mentales, que ya no aparecían recomendados a los menores en los apartados "reels" y "explorar", ahora tampoco aparecerán en la página principal ni en las "stories", ni siquiera cuando sean compartidos por los usuarios que siguen.
1
WhatsApp: qué significa sacar la foto de perfil, según la psicología
2
WhatsApp dejará de funcionar en algunos celulares a partir de diciembre 2024: los modelos afectados
3
Adiós a la PlayStation 4: a partir de qué fecha Sony dejará de dar soporte a la consola
4
Los increíbles anteojos tecnológicos de Samsung que cuentan con inteligencia artificial
5
En simples pasos: cómo pasar una canción de Instagram a una playlist en Spotify