Las alucinaciones de las IA: si fallan tanto como aciertan, ¿merece la pena usarlas?
Estamos en un momento en el que semana sí semana no sale una nueva noticia sobre algo nuevo con inteligencia artificial. ¿Google? Ya ha lanzado varias cositas, aunque se lo está tomando con relativa calma. ¿Apple? Se dice que iOS 18 será el lanzamiento más grande de su historia por su IA, probablemente Apple GPT. ¿Microsoft? Sólo le falta que su próximo sistema operativo sea wIAndows 12. Pero en la actualidad todas parecen tener un problema común.
En los últimos días he leído sobre un nuevo buscador que lo que hace es, dependiendo de lo que introduzcamos, examinar la web, crear un artículo con los datos más relevantes y presentárnoslo listo para leer. El problema es que a veces falla y tenemos que comprobar que lo que nos muestra es cierto. Por lo tanto, y no son mis palabras, aunque estoy de acuerdo, es «inútil».
La inteligencia artificial tiende a inventarse cosas
Hay mucho que sí hacen bien, pero no tenemos que pensar que algo generado por inteligencia artificial es tal y como afirma. Lo de las alucinaciones es un problema que parece relacionado a responder, sin importar si es correcto o no. Las IA dan más importancia a ofrecer una respuesta que a que ésta sea precisa. Es imposible que ante una cuestión nos respondan «no lo sé».
Esto no es nuevo, pero es importante que se tenga en cuenta cada vez que usamos algo que dependa de la IA. La más popular ahora mismo es ChatGPT, y es una herramienta que falla igual que acierta. Hace poco, a finales de 2023, vi un vídeo de dos deportistas le preguntaban al chatbot sobre ellos mismos, y llegó a asegurar que uno de ellos era aficionado al triatlón. Se preguntaba, «¿que yo que?» y también que de dónde se habrá sacado eso.
El problema de las alucinaciones no es un bug, pero actúa como tal. Es como si un software para PC le pidiéramos que calculara 9823798279827×825928377, no pudiera hacerlo y en vez de darnos un resultado nos diera otro, el que sea, incluso nos abriera un vídeo al azar, porque tiene que decirnos algo. Como nosotros no podemos hacer el cálculo (sí podemos, es un ejemplo), podemos creérnoslo y darlo como bueno o buscar una segunda opinión.
Si tenemos que buscar más, el cálculo es inútil.
Nosotros tenemos que analizar y demostrar que tenemos inteligencia… real
Yo recuerdo la primera vez que chateé con una de estas IA. Lo hice en You.com, para más tarde dar el salto a la fuente (ChatGPT). Recuerdo terminar la trilogía de Mass Effect, preguntarle sobre los posibles finales, ya que no me apetecía pasarme otras 80 horas jugando, y que el mismo chatbot me dijera una cosa y la contraria. Terminé como siempre, buscando algo en Google y viendo los finales en YouTube. El tiempo que pasé intentando averiguar las cosas con ChatGPT fue tiempo perdido. Ya no me pasa.
Yo he escrito varios artículos sobre el uso de la inteligencia artificial, y al final siempre se llega a la misma conclusión: tenemos que ser conscientes de lo que ya avisa OpenAI, que sus respuestas puede no ser precisas, y si eso es así, tienen poca utilidad. Sí la tienen, claro, pero en casos contados. Por ejemplo, en el desarrollo. Cuando ChatGPT te responde rápidamente a las mismas cuestiones que puedes encontrar en Reddit o Stack Overflow sí es interesante. Pero cuidado con el prompt, con el texto con el que le pedimos las cosas, o puede hacernos perder mucho tiempo.
Nosotros tenemos que demostrar que tenemos inteligencia… real. Como cuando buscamos en Google sobre una enfermedad y no nos creemos lo primero que encontramos, que probablemente sea que tenemos una enfermedad grave. Lo bueno de la IA en estos casos es que sí termina diciéndonos que merece la pena que consultemos con un médico para confirmar las cosas.
Pero cuidado con las alucinaciones. Si se pudieron inventar que un piloto de MotoGP era aficionado al triatlón o de qué va la letra de una canción por declaraciones en alguna entrevista, ¿qué no serán capaces de afirmar?