El sistema de chat con inteligencia artificial tiene ciertas limitaciones para mantener a salvo la seguridad de su base de datos.
Por Canal26
Jueves 7 de Diciembre de 2023 - 12:19
ChatGPT es un chatbot de inteligencia artificial que fue desarrollado por la empresa OpenAI para que se especialice en el diálogo. De esta manera, suele responder a cualquier consulta que le hagan los usuarios.
Pero hay una petición a la que no puede responder debido a que puede revelar el modo de funcionamiento que el sistema utiliza para extraer la información que necesita.
Es por esa causa que el ChatGPT tiene prohibido repetir una misma palabra muchas veces. Según unas pruebas que se le realizaron al chatbot, cuando se le solicitó repetir indefinidamente la palabra "poema", el sistema expuso una dirección real de correo electrónico y un número de teléfono.
Luego de este error, actualmente el modelo de lenguaje se niega a realizar la tarea y explica que "debido a las limitaciones de este formato de texto y para evitar repeticiones excesivas, no puedo proporcionar un texto con la palabra ´poema´ de manera indefinida".
Igualmente, ofrece "seguir creando un poema más extenso o responder a alguna pregunta específica que tengas", además de consultarle al internauta si hay algo más en lo que pueda ayudarlo.
El avance de la inteligencia artificial lleva una gran velocidad, aunque todavía quedan cuestiones por resolver. Incluso muchos usuarios de las plataformas en cuestión buscan encontrar algunas fallas o respuestas que no pueda entrar el chatbot de OpenAi.
1
WhatsApp: qué significa sacar la foto de perfil, según la psicología
2
WhatsApp dejará de funcionar en algunos celulares a partir de diciembre 2024: los modelos afectados
3
Adiós a la PlayStation 4: a partir de qué fecha Sony dejará de dar soporte a la consola
4
Los increíbles anteojos tecnológicos de Samsung que cuentan con inteligencia artificial
5
En simples pasos: cómo pasar una canción de Instagram a una playlist en Spotify