Comienzan las primeras regulaciones: el Gobierno italiano penará con cárcel a quienes causen daños con inteligencia artificial

La tecnología deepfake puede producir un video o audio falso de una persona, que se percibe como verdadero, expresando algo que en realidad nunca dijo. Estas falsificaciones generan, sistemáticamente, amenazas de fraudes en línea.

Por Canal26

Martes 23 de Abril de 2024 - 17:59

Contenido multimedia sintético generado por inteligencia artificial. Foto: NA Los problemas de la inteligencia artificial. Foto: NA

Diversos organismos y autoridades del mundo advirtieron sobre el uso de inteligencia artificial para generar deepfakes y ciberestafas, cuyas víctimas suelen ser las corporaciones empresariales.

La tecnología deepfake puede producir un video o audio falso de una persona, que se percibe como verdadero, expresando algo que en realidad nunca dijo. Estas falsificaciones generan, sistemáticamente, amenazas de fraudes en línea.

El poder de la inteligencia artificial. Foto: EFE La inteligencia artificial en la cotidianeidad humana. Foto: EFE

Un caso conocido fue el de un gerente de una empresa que transfirió 25 millones de dólares a varias cuentas, creyendo que la voz de su interlocutor, era de su jefe.

El uso de chatbots de IA, como ChatGPT, también puede fomentar las actividades fraudulentas, pudiendo ayudar a los posibles estafadores a superar errores de lenguaje que se suelen encontrar en mensajes que persiguen el engaño a una víctima (ejemplo de ello es una petición y respuesta de ChatGPT en cualquier idioma).

Encontrá más vídeos

Es decir que estos modelos de lenguaje de gran tamaño pueden crear mensajes de todo tipo, con una excelente gramática, haciéndolos pasar como verdaderos y disminuyendo la posibilidad de identificar a los sospechosos.

Inteligencia artificial. Foto: Reuters.

Te puede interesar:

De qué se trata el curso gratuito de Google sobre Inteligencia Artificial y Aprendizaje Automático

Italia busca evitar las estafas con IA

Ante esta situación cada vez más problemática, el Gobierno italiano aprobó un decreto en el que se prevén penas de cárcel de uno a cinco años para quien cause "daños injustos" con el uso de sistemas de inteligencia artificial y que incluye una dotación de mil millones de euros para apoyar el desarrollo de start-ups en el sector.

El proyecto, que ahora debe ser aprobado por el Parlamento, donde la coalición de derechas que preside Giorgia Meloni cuenta con mayoría absoluta, trata de poner orden en un sector con múltiples campos de aplicación cuyo potencial e implicaciones están aún por explorar.

Georgia Meloni. Foto: Reuters Georgia Meloni, primera ministra de Italia. Foto: Reuters

El texto, que también obliga al consentimiento paterno para la inscripción de los menores de 14 años en sistemas como los chatbots, estipula que la inteligencia artificial debe desarrollarse y aplicarse respetando la autonomía humana y el poder de decisión, y no deben socavar la conducción democrática de la vida institucional y política.

La condición esencial es que se garantice la ciberseguridad, mientras que en el caso de la información, la intención es que los sistemas de IA se utilicen "sin perjuicio de la libertad y el pluralismo de los medios de comunicación, la libertad de expresión, la objetividad, la exhaustividad, la imparcialidad y la lealtad de la información", según los medios locales.

Notas relacionadas