Riesgos reales e imaginarios de la Inteligencia Artificial (Opinión)
Hace un rato, mi compañero Pablinux nos contó sobre la carta que el insufrible Elon Musk y otras personalidades escribieron pidiendo una pausa sobre las investigaciones en Inteligencia Artificial hasta que puedan tomarse medidas para prevenir sus posibles efectos adversos. Eso me da la excusa para hablar de los riesgos reales e imaginarios de la Inteligencia Artificial.
A riesgo de hacer el ridículo con predicciones fallidas al estilo de Bill Gates, comienzo diciendo que en mi opinión el mayor riesgo en este momento es una explosión de la burbuja que va a dejar a las de las punto com a la altura de una leve perturbación.
Los riesgos reales e imaginarios de la Inteligencia Artificial
Coincido con Pablinux en que la carta tiene más de oscurantismo medieval que de razonamiento científico. Eso sin dejar de compartir la idea de que debería establecerse una legislación que regulara el uso de su contenido. Sin embargo, no podemos negar que toda tecnología confundió y asustó a la gente hasta que fue lo suficientemente conocida.
La proyección de la llegada de un tren en los comienzos de la cinematografía hacía que la gente huyera de la sala y, aunque tenga mucho de leyenda urbana, la versión radiofónica de La guerra de los mundos de Orson Welles causó bastante pánico entre personas que creyeron que era algo real.
De hecho este tipo de regulaciones al software no tiene nada de nuevo. Las autoridades de regulación financiera de muchos países prohíben que programas como Photoshop puedan editar imágenes de billetes o cheques.
En 1994 Tom Clancy publicó Deuda de honor. Considerado un experto en temas de defensa, Clancy imaginaba un ataque al sistema financiero de los Estados Unidos manipulando a los sistemas expertos de las empresas bursátiles para que creyeran que se estaba produciendo una crisis desatando una ola vendedora que finalmente produjo la crisis.
Antes de descartarlo como ficción recuerden que en esa misma novela, 7 años antes de las Torres Gemelas, Clancy anticipó que Estados Unidos podía sufrir atentados usando aviones comerciales.
En realidad la idea no es nueva. La película de 1983 Juegos de guerra contaba como un adolescente confundía al ordenador encargado del lanzamiento de misiles haciéndole creer que los rusos estaban atacando.
Imaginemos que escuchamos un galope que se acerca. Nuestra primera conclusión es que se trata de un caballo y 9 de cada 10 veces tendremos razón. Pero, siempre está la posibilidad de que se trate de una cebra que se escapó del zoológico. Los médicos, astronautas y pilotos de avión reciben un entrenamiento estricto pensando en las cebras, en saber que hacer si se presenta una anomalía. Los modelos de inteligencia artificial son entrenados pensando en los caballos.
Un modelo como el que utiliza ChatGPT se basa en la información existente en su base de conocimientos. Cuanto más veces esa información se repite mayor es la credibilidad que le asigna.
Dado que guardar toda la información disponible requeriría mucho espacio de almacenamiento, solo guarda lo relevante y luego la reconstruye a medida que lo solicitan utilizando la estructura que estadísticamente parece la más relevante. De ahí que muchas veces cite referencias que no existen solo porque estadísticamente es probable que exista un documento con ese título que contenga ese contenido.
Sobre cebras y perros que no ladran
¿Hay algún otro punto sobre el que desee llamar mi atención?
-El curioso incidente del perro por la noche.
-El perro no hizo nada por la noche.
Ese fue el curioso incidente.
Sir Arthur Conan Doyle
Otro de los riesgos que tienen los sistemas de Inteligencia Artificial es lo que no hacen. Y también es un punto importante a tener en cuenta.
En los años noventa un médico australiano conjeturó que la causa más común de las úlceras eran las bacterias. Como no tenía un gran curriculum se le rieron en la cara hasta que se demostró que tenía razón. Como muchos otros descubrimientos científicos (La rotación de los planetas, el hecho de que cuanto más descansos se hagan más productivo se es) son contrarios a la sabiduría del momento.
Pero, los modelos de Inteligencia se basan en la sabiduría del momento. En aquellos conocimientos en los que existe consenso. Así como la tecnología de congelación, los automóviles y el delivery aumentaron la cantidad de obesos, la disponibilidad de las herramientas de Tecnología Artificial pueden convertirnos en perezosos intelectuales y ahogar la innovación.
Como ven, hay bastantes cosas de que preocuparse para encima tener miedo de ser esclavizados por las máquinas. Y eso que todavía no hablamos del acceso al código fuente y la privacidad de los usuarios.