Inteligencia… y además Artificial
Por León Bendesky*. LQSomos.
Se trata de la inteligencia y, además, una de carácter artificial (IA). Enzensberger advierte que es probable que toda sociedad humana desarrolle su propio catálogo de virtudes, lo que consiste en aquellas que se consideran dignas de esfuerzo. Propone que en el caso de la modernidad, ser considerado moderno significa, entre otras cosas, ser inteligente. (El laberinto de la inteligencia).
Añade que con la palabra latina intelligentia, los doctores de la Iglesia no sólo aludían a un atributo de Dios, sino que Dios mismo es la intelligentia suprema. Un reflejo de esto sería la teoría que apela a un “diseño inteligente” en la creación del mundo y del ser humano, y que se contrapone a la Teoría de la Evolución darwiniana.
Sirva esto, simplemente para situar de algún modo el tema candente acerca de la inteligencia artificial y sus posibles repercusiones. En cierta manera esta discusión, en pleno curso ya, se remonta al mito de Prometeo, que robó el fuego a Zeus, abrió las puertas al conocimiento y de ahí se extiende al desarrollo de la tecnología, que es una pieza clave del desenvolvimiento humano.
Una consideración de lo que es la IA indica que se trata de la simulación de los procesos de la inteligencia humana por medio de máquinas; en particular, de los sistemas computacionales. Entre sus aplicaciones están los llamados sistemas expertos, los procesadores del lenguaje, el reconocimiento de la voz y las tecnologías de la visión.
Una de las aportaciones originales a este campo la hizo el británico Alan Turing, experto en lógica y precursor de la computación, que propuso en 1950 la relación entre la inteligencia y las máquinas de computo, junto con una prueba llamada “El juego de la imitación”. (Sobre eso se filmó hace unos años una muy interesante película con ese título).
Esta tecnología asociada con la inteligencia ha provocado un debate relevante acerca de su significado social. Un reciente episodio destacable al respecto es el que protagonizó Geoffrey Hinton, psicólogo cognitivo y experto en computación y conocimiento profundo, considerado como uno de los padrinos de la IA que renunció a su alto puesto en Google. Declaró abiertamente que “hemos descubierto el secreto de la inmortalidad; la mala noticia es que no es para nosotros”.
Formuló el asunto de la siguiente manera: “Al tratar de pensar cómo es que el cerebro podría implementar el algoritmo que está detrás de los modelos de IA, decidí que tal vez no pudiera hacerlo y, entonces, esos grandes modelos serían mucho mejores que el cerebro mismo”. Se refería, precisamente, a los riesgos intrínsecos de la IA y a que esa tecnología podría llegar a destruir a la humanidad.
Ciertamente, es una fuerte declaración de la que se han derivado muchos puntos de vista. El historiador Niall Ferguson cita un artículo publicado en la revista Time (29/03/2003) en el que Eliezer Yudkowsky, director del Machine Intelligence Research Institute en California, argumenta que en las condiciones actuales: “El más probable resultado de construir una IA sobrehumana es que literalmente toda forma de vida sobre la tierra perecerá”. (https://bloom.bg/3B4s7WR).
Acerca de este asunto ya hubo una propuesta firmada por diversas personalidades de establecer una moratoria temporal a la investigación de la IA, cosa que se advierte como una muy remota posibilidad y con muy pobres resultados.
Un tipo de argumento al respecto se plantea que existe una amplia gama de problemas que se espera se podrán confrontar mediante la IA (por ejemplo el cambio climático, las muertes a causa del trafico u otras, como la soledad en la que viven millones de personas). Pero, se cuestiona: ¿Qué ocurriría si la IA se enfrentara con una crisis repentina y no fuera la herramienta apta para hacerlo y convirtiera una situación adversa en una que fuese drásticamente peor? Esto sería en cierta manera que la IA se convirtiera en un “riesgo sistémico”.
El caso es que la investigación en el campo de la IA está avanzando rápidamente. Una gran parte se hace en el sector privado y Hinton sitúa correctamente el problema como una “consecuencia inevitable de la tecnología en el capitalismo”. Los avances tecnológicos ocurren en buena medida en Google, comentó, y se ha decidido no hacerlos públicos debido a sus posibles implicaciones. Pero advirtió que en el caso de este sistema si un competidor lo hace se estará obligado a hacer lo mismo. Sí, el dilema lo entiende bien el doctor Hinton. Las perspectivas al respecto son hoy a todas luces inciertas y mucho riesgo.
Así que uno de los planteamientos que se han hecho es el de la necesidad de establecer un sistema internacional de regulación del sector de la IA, cuestión peliaguda, aunque habrá de tratarse en algún momento.
Hay, sin duda, factores benéficos derivados de la aplicación de la tecnología de IA. Al respecto suele citarse, entre otros, el caso de DeepMind con AlphaFold que ha determinado la estructura de alrededor de 200 millones de proteínas, lo que se considera como un enorme salto en el conocimiento científico y su aplicación médica.
La cuestión genérica en torno a la IA deriva obligadamente en la capacidad de alinear los resultados que se obtienen con las necesidades y los valores éticos de la sociedad, compleja y desigual. He ahí uno de los dilemas cruciales y no puede dejarse sólo en manos de aquellos que están involucrados técnica, científica y financieramente en este proceso.
* En La Jornada de México
⇒¿Hacia una Inteligencia Artificial de Prensa Alternativa?⇐
Síguenos en redes sociales… Mastodon: @LQSomos@nobigtech.es Diaspora*: lqsomos@wk3.org Telegram: LoQueSomosWeb Twitter: @LQSomos Facebook: LoQueSomos Instagram: LoQueSomos