Secretos sucios de la inteligencia artificial
Por Silvia Ribeiro*. LQSomos.
Los sistemas de inteligencia artificial se expanden y abarcan cada vez más aspectos de nuestra vida cotidiana y de los procesos de producción industrial y otros, como educación y gestión de la salud. Todo ello controlado por unas pocas empresas tecnológicas gigantes, sector de las que provienen los hombres más ricos del mundo. Fortuna que en gran porcentaje se debe a la extracción gratuita y no regulada de datos de las personas y de sus interacciones…
Estamos en contacto diario con la inteligencia artificial, aunque no pensemos en ello, por ejemplo a través de los teléfonos móviles que responden a nuestras preguntas, con el uso de motores de búsqueda electrónica y las muchas otras formas de entregar nuestros datos y preferencias en formularios y tarjetas electrónicas de todo tipo (exigidos por ley por instituciones públicas y privadas, por tarjetas bancarias o de asiduidad de comercios, clubes, etcétera). Datos que no quedan aislados por actividad o empresa, sino que se integran en sistemas informáticos que se pueden conectar entre sí. La mayoría de los datos van a parar a muy pocas nubes informáticas gigantes. Casi la totalidad de los datos electrónicos comerciales, personales y gubernamentales están almacenados en las nubes informáticas de Microsoft, Amazon, Google y pocas más.
La recolección de nuestros datos no es un efecto secundario, sino un propósito de estas empresas, ya que su interpretación por sectores de población (etarios, de género, geográficos y de poder adquisitivo, entre otros), por intereses, posiciones políticas y un largo etcétera, es lo que las tecnológicas venden a otras compañías para mercadeo o manipulación de nuestras decisiones. El almacenamiento de esta cantidad inmensa de datos es imposible sin las gigantescas nubes de computación de las empresas, y a su vez, solamente sistemas automatizados de inteligencia artificial pueden interpretarlos.
Pero cada uno de esos sistemas de [supuesta] inteligencia son a su vez entrenados y alimentados manualmente por seres humanos y a través de aprendizaje entre máquinas que han sido entrenadas previamente. Esto significa por un lado, una vastísima cantidad de mano de obra humana para introducir datos y corregir errores de interpretación, que las grandes tecnológicas en gran parte pagan a precios miserables en países del tercer mundo, a menudo a destajo y en competencia feroz (el que primero encuentra un error y lo corrige lo cobra), con un efecto devastador sobre los derechos laborales y humanos.
Por otro lado, los sistemas de inteligencia artificial sólo pueden alimentarse de los datos estadísticos de la realidad, que es racista, sexista, ecocida, económica y políticamente injusta, por lo que repiten estos mismos valores ad infinitum. La llamada “inteligencia” artificial, como chatGPT y similares, no son más que sistemas de razonamiento basados en estadísticas pasadas, que carecen de la posibilidad de imaginar realidades diferentes y, por tanto, afirman y promueven el statu quo.
A esto hay que agregar que la digitalización presente en casi todos los rubros de producción industrial y muchos aspectos de la vida social, de la cual los sistemas de inteligencia artificial son parte, al contrario de lo que se puede pensar, tiene un fuerte impacto material. Demanda enormes cantidades de energía, de materiales, de agua y genera grandes volúmenes de nueva basura contaminante y difícil de gestionar. Por ejemplo, los centros de datos de las grandes tecnológicas, lejos de virtuales, son grandes instalaciones físicas con miles de computadoras que interactúan entre sí, que demandan energía en forma continua y grandes cantidades de agua para refrigerar esos sistemas. Las grandes tecnológicas están entre los cinco principales consumidores de energía en Estados Unidos.
Según un estudio de investigadores de Google y la Universidad de Berkeley reseñado por Josh Saul y Dina Bass, el entrenamiento de un solo sistema de inteligencia artificial –ChatGPT-3 de la empresa OpenAI– consumió energía equivalente al gasto anual de 120 hogares en Estados Unidos. Estiman que emitió 502 toneladas de carbono, equivalente a las emisiones de 110 autos por año.
Este entrenamiento inicial representa sólo 40 por ciento de la demanda energética del uso de ChatGPT. Además, el entrenamiento se debe renovar y aumentar todo el tiempo para no perder actualidad. El sistema GPT-3 usaba 175 mil millones de parámetros o variables. Su predecesor usaba “sólo” mil 500 millones de parámetros. El nuevo sistema GPT-4 de OpenAI tendrá muchos más que el anterior (https://tinyurl.com/2p82mwzx).
En este contexto, resulta hipócrita el llamado de Elon Musk (fundador de Tesla), Steve Wozniak (cofundador de Apple) y otros grandes empresarios tecnológicos quienes alertan en carta pública sobre los riesgos de la inteligencia artificial y plantean una moratoria de seis meses en su desarrollo para ver ciertos aspectos y regularlos. Un periodo y temas tan limitados que más bien son una medida pseudo comercial para detener el avance meteórico de ChatGPT, producto de la empresa AI, de la que Elon Musk se retiró.
No obstante, los riesgos del uso de esos chats y de otros sistemas de inteligencia artificial, son reales y mucho más vastos que lo allí planteado, principalmente para controlarnos y para conservar y exacerbar las injusticias y discriminación existentes.
* Investigadora del Grupo ETC.
“La Jornada”
Síguenos en redes sociales… Mastodon: @LQSomos@nobigtech.es Diaspora*: lqsomos@wk3.org Telegram: LoQueSomosWeb Twitter: @LQSomos Facebook: LoQueSomos Instagram: LoQueSomos