El sistema de chat con inteligencia artificial tiene ciertas limitaciones para mantener a salvo la seguridad de su base de datos.
Por Canal26
Jueves 7 de Diciembre de 2023 - 12:19
ChatGPT es un chatbot de inteligencia artificial que fue desarrollado por la empresa OpenAI para que se especialice en el diálogo. De esta manera, suele responder a cualquier consulta que le hagan los usuarios.
Pero hay una petición a la que no puede responder debido a que puede revelar el modo de funcionamiento que el sistema utiliza para extraer la información que necesita.
Es por esa causa que el ChatGPT tiene prohibido repetir una misma palabra muchas veces. Según unas pruebas que se le realizaron al chatbot, cuando se le solicitó repetir indefinidamente la palabra "poema", el sistema expuso una dirección real de correo electrónico y un número de teléfono.
Luego de este error, actualmente el modelo de lenguaje se niega a realizar la tarea y explica que "debido a las limitaciones de este formato de texto y para evitar repeticiones excesivas, no puedo proporcionar un texto con la palabra ´poema´ de manera indefinida".
Igualmente, ofrece "seguir creando un poema más extenso o responder a alguna pregunta específica que tengas", además de consultarle al internauta si hay algo más en lo que pueda ayudarlo.
El avance de la inteligencia artificial lleva una gran velocidad, aunque todavía quedan cuestiones por resolver. Incluso muchos usuarios de las plataformas en cuestión buscan encontrar algunas fallas o respuestas que no pueda entrar el chatbot de OpenAi.
1
WhatsApp: cómo saber quién te bloqueó de su lista de contactos con un sencillo truco
2
Para evitar estafas: la palabra que nunca hay que decir cuando nos llama un número desconocido
3
WhatsApp hará el mayor cambio de su historia: cuándo llega y cómo será la nueva app
4
De forma definitiva y en cuatro simples pasos: cómo eliminar la cuenta de Gmail
5
La nueva función de Threads que la entrecruza con Instagram: de qué se trata
Mantenete siempre informado