El concepto de inteligencia artificial (IA) nació en 1956 como «la ciencia e ingenio de hacer máquinas inteligentes», pero fue en los años 90 cuando comenzó realmente su desarrollo. En 1997, IBM construyó la computadora Deep Blue, capaz de ganar a Gari Kasparov, campeón mundial de ajedrez. Deep Blue simulaba las capacidades de un ser humano en cuanto a razonamiento, aprendizaje o creatividad.
La IA está muy presente en nuestra vida diaria. Pensamos que es cosa de potentes ordenadores, pero no es así. Está presente en asistentes virtuales como Siri, Cortana o traductores como Google Translate. Actualmente, el aprendizaje de la IA ha madurado para permitir que los sistemas aprendan de la experiencia con escasa o nula intervención humana, lo que ha disparado las alarmas de parte del mundo científico que afirma que esta tecnología presenta «riesgos terroríficos», abandonando este campo de trabajo, alertando de los peligros que piensan que nos amenazan por su avance; básicamente el temor de que la IA permita difundir afirmación falsa casi imposible de diferenciar de la verdadera (en Internet ya hay imágenes y textos falsos que parecen verdaderos lo que puede acabar generando el escepticismo y no creer nada de lo que se ve), que pueda destruir miles de empleos (podrá reemplazar a los humanos en los oficios de tareas rutinarias; se dice que «si puedes explicar con facilidad lo que haces en tu trabajo, un robot lo hará en breve») y el desconocimiento actual de cómo detenerla en el caso de una hipotética rebelión futura (ni sus creadores pueden predecir qué comportamiento va a tener un programa en unas horas porque sigue aprendiendo por su cuenta).
Esta tecnología también ofrece muchas oportunidades. En medicina está facilitando el análisis de imágenes, priorizar listas de espera, descargar al médico de aspectos burocráticos (la Seguridad Social la utiliza, desde 2018, para gestionar las bajas laborales). La IA puede desarrollar, de forma autónoma, sistemas capaces de realizar tareas complejas como traducción de idiomas, escribir un borrador de un libro, un artículo o un guion sólo aportando la idea que se te ocurra. Muchos jueces opinan que la IA es una herramienta muy útil para analizar o buscar pruebas, pero no para dictar sentencias. También es una gran ayuda en el mundo educativo facilitando el aprendizaje y la búsqueda de información.
Todas las tecnologías tienen peligros y su lado oscuro y siempre alguien explotará este lado. La IA conlleva aspectos muy beneficiosos pero otros pueden tener un impacto negativo sobre la sociedad. ¿Está equilibrado el riesgo y el beneficio? Habitualmente pensamos que la tecnología que usamos es la que necesitamos, pero muchas veces es la que nos han vendido como idónea. Creo que a corto plazo los beneficios superan a los riesgos, pero no estoy tan seguro a largo plazo. ¿Estamos seguros de poder controlar máquinas que aprenden por su cuenta más allá de su programación? ¿Un futuro supeditado a las máquinas nos llevará a Terminator (un programa de IA intenta eliminar a los humanos) o a HAL 9000 (el ordenador que en 2001: Una odisea espacial, genera sus propias intenciones) o la amenaza de los replicantes de Blade Runner?
Yo no soy tan pesimista, pero estoy convencido de la necesidad de una buena regulación para tener clara nuestra capacidad de control o, de lo contrario, decretar un frenazo total.
Este artículo no ha sido escrito por ChatGPT.