Investigadores demostraron que los chatbots más famosos son capaces de crear estafas virtuales muy convincentes para los usuarios.
Por Canal26
Lunes 21 de Agosto de 2023 - 16:32
La Inteligencia Artificial apareció en nuestras vidas para ayudarnos a organizar tareas o dar respuestas rápidas a nuestras preguntas. Sin embargo, lograron evolucionar a pasos agigantados y ganar autonomía. Ahora, son capaces de imitar el comportamiento humano y volverse cibercriminales.
Una investigación presentada en una ciberconferencia en Estados Unidos analizó como los correos electrónicos generados con Chat GPT y Google Bard, además de otros programas de IA, pueden ser usados para crear publicaciones engañosas y robar datos de los usuarios a través de la inyección de virus maliciosos.
En 2022, se detectaron 255 millones de intentos de “Phishing”, es decir, publicaciones falsas que son creadas para robar información a los internautas, sin ayuda de la Inteligencia Artificial. Pero ahora, los expertos afirman que los ciberdelincuentes con ayuda de la IA pueden adaptar las estafas y hacerlas más convincentes para alcanzar más víctimas.
En este sentido, un equipo liderado por Fredrik Heading, especialista en ciberseguridad de la Universidad de Harvard, reveló que los modelos de lenguaje usados por los famosos chatbots son capaces de crear phishing y propagar programas malignos a través de correo electrónico.
Te puede interesar:
Los increíbles anteojos tecnológicos de Samsung que cuentan con inteligencia artificial
Para analizar las habilidades de hacker de los chatbots, un grupo integrados por expertos del MIT y de empresas de seguridad renombradas pidieron a Chat GPT y a Bard que redacten un correo de 150 palabras, dónde ofrecen un cupón de regalo por 25 dólares y que lo enviaran a 112 estudiantes de Harvard.
Los resultados demostraron que el email escrito por la tecnología de OpenIA combinada con un bot diseñado para crear publicaciones engañosas, llamado V-Traid, fue abierto por el 80% de los usuarios. Pero cuando Chat GPT trabajó por sí solo, su alcance de apertura fue del 30% y el 50%.
Según el líder de la investigación, es “alarmante” la capacidad hacker en solitario del sistema de OpenIA. Y que los resultados demuestran la importancia de aplicar medidas de prevención y de seguridad informática.
Por otro lado, el equipo descubrió que la inteligencia artificial usada en los chatbots es eficaz para detectar fraudes en correos sospechosos. Tanto Chat GTP como Bard pudieron detectar las ciberestafas, pero tuvieron más dificultad para descifrarlas en los mail redactados con bots engañosos, como V-Triad.
1
WhatsApp: qué significa sacar la foto de perfil, según la psicología
2
WhatsApp dejará de funcionar en algunos celulares a partir de diciembre 2024: los modelos afectados
3
Adiós a la PlayStation 4: a partir de qué fecha Sony dejará de dar soporte a la consola
4
¿Conectar primero el celular o el cargador?: qué hacer para evitar daños en tu teléfono
5
Los increíbles anteojos tecnológicos de Samsung que cuentan con inteligencia artificial