Datos, algoritmos y políticas

Datos, algoritmos y políticas

Alfredo Moreno*. LQSomos.

Es fundamental que abordar desde el gobierno temas como: la “caja negra” o apertura del procesamiento de la información, los sesgos de los algoritmos, la ética de la selección de los datos, y el manejo de la información, con especial énfasis en la protección de los derechos de privacidad y de datos personales

Una encrucijada de presente y futuro

El Gobierno de España acordó la creación de una Agencia de Supervisión de la Inteligencia Artificial, que tendrá el objetivo de controlar los algoritmos de las redes sociales y aplicaciones. Los alcances y el contexto de una medida tan urgente como inédita.

Las corporaciones digitales y el poder info-comunicacional concentrado cuentan con recursos en biotecnología, bioinformática, el Big Data y la infraestructura de Telecomunicaciones a escala global.

Cuando logren hackear el sistema operativo humano no solo podrán predecir nuestras decisiones, sino también manipular nuestros sentimientos e impactar en nuestras emociones.

La Inteligencia Artificial es la nave insignia de la redefinición digital en la vida orgánica, el software es el gran tablero de herramientas donde habitan los algoritmos.

Cuando Hitler pronunciaba un discurso en la radio, apuntaba al mínimo común denominador porque no podía construir un mensaje a medida de cada oyente, no podía personalizarlo. Ahora sí es posible hacerlo, no solamente se personaliza el mensaje, sino que se conoce los sentimientos y los gustos de los destinatarios.

Un algoritmo puede predecir si alguien ya está predispuesto contra los inmigrantes, contra la estética popular o si está en contra de la IVE (Interrupción Voluntaria del Embarazo). Algunas de las mentes más brillantes del mundo llevan años investigando cómo piratear el cerebro humano de modo de que la persona se motive para cliquear en determinados anuncios, opiniones, o me gusta en las aplicaciones de redes sociales o en webs, y de esta forma les es posible ir desarrollando la trazabilidad de nuestras preferencias en el territorio digital.

El mejor método es activar los dispositivos bioquímicos del miedo, del odio o la codicia que llevamos en nuestra interfaz los humanos. Ese método ha empezado a utilizarse para despertar nuestro odio social y comunicarnos/vendernos hechos políticos, ideologías y candidatos electorales mientras nosotros creemos que decidimos libremente. La mala noticia es que con la manipulación de los datos en el territorio digital se terminó el libre albedrío.

Este trayecto, nos pone ante la encrucijada sobre la realidad humana frente a la realidad digital una integración que reclama un arbitraje crítico sobre el uso de los datos que hacen “los gigantes de internet” y sus plataformas de software.

En los sistemas de información se “piratean” datos a través de líneas de código (software) defectuosas preexistentes. El sistema de información de los seres humanos, contiene miedos, odios, prejuicios y deseos preexistentes, “cableados” en nuestra cultura. Los bio piratas no pueden crear miedo ni odio sin esta condición preexistente. Pero, cuando los descubren, activan acciones que se expresan en las redes sociales o en la calle con expresiones que atentan contra la vida armónica y la libertad.

Los científicos de Bayer/Monsanto confían en el poder del super cómputo y la inteligencia artificial para rastrear qué genes están activos durante el desarrollo de una semilla de soja con el fin de diseñar nuevas variedades

El arbitraje crítico y la mediación del Estado – Pueblo, exige una voluntad política para considerar los datos como una de las riquezas de mayor potencialidad en el presente y futuro de la humanidad y por supuesto también un conocimiento público del papel que ejercen los algoritmos y las computadoras que procesan los métodos de la Inteligencia Artificial.

Conocidos como “Los gigantes de internet” las Big Tech estadunidenses Google (Alphabet), Apple, Amazon, Facebook, Microsoft y los chinos Baidu, Alibaba, Tencent y Xiaomi se integran en “negocios estratégicos” basados en datos y algoritmos, con las corporaciones Bioquímicas, Bioinformáticas y/o Bioingeniería.

El modelo Silicon Valley ha instalado desde 1970 la idea de que la tecnología tiene que ser inmediatamente escalable. Es una forma de “innovar” orientada a ganar dinero muy pronto y muy rápido que ha convertido la red internet en una plataforma de negocios consolidada en los gigantes y a la investigación científica y tecnológica en tecno ciencia de mercado.

Los nuevos descubrimientos científicos y desarrollos tecnológicos en el contexto de la tecno ciencia, representan un reto mucho más profundo para el ideal básico de la democracia liberal: libertad humana o consumo acrítico.

Las TIC en el centro del poder

El mundo según el imperio del algoritmo es un juego de múltiples posibilidades en relación al sentido de los datos que nutren los procesos computacionales. Una de estas posibilidades, es la libre elección humana como fundamento de una manipulación tecno informática que convierte a las personas en un ser social acrítico.

Aunque la aspiración de recrear las características de la mente humana es antigua, el desarrollo de una auténtica inteligencia artificial capaz de aprender de la experiencia humana es un hito reciente; posible por la altísima capacidad de procesamiento paralelo de las computadoras, el desarrollo de software paralelizado y el creciente ancho de banda donde fluyen los datos en internet.

En su reciente libro “Programados para crear: la revolución digital está ahí” de Marcus du Sautoy, matemático británico puntualiza que Ada (Ada Lovelace 1815-1852 matemática programadora de la maquina analítica) fue cautelosa a la hora de evaluar hasta dónde puede llegar la máquina analítica, “Convendría ser cauto ante la eventualidad de que surjan ideas descabelladas sobre los poderes de la maquina analítica. Esta no abriga pretensiones que apunten a la posibilidad de asumir iniciativa alguna. Puede hacer exactamente lo que le ordenemos hacer”.

Esta idea ha sido una fuerte definición de las ciencias de la computación durante muchos años. Como afrontar el temor de haber puesto en marcha algo que no podemos controlar. Mucho de lo que ocurre en nuestros cerebros sigue siendo un misterio, pero en los últimos años ha surgido un modo nuevo de entender la programación: se ha producido un cambio de actitud, y la programación concebida como un proceso top-down, que va de arriba abajo, ha pasado a ser planteada como un esfuerzo que hay que asumir para enseñar al computador un proceso bottom-up, de abajo arriba.

Resulta que ahora, no hay que resolver antes el enigma de la inteligencia humana. Podemos dejar que los algoritmos recorran el territorio digital consumiendo datos que permitan su entrenamiento y produzcan conocimiento. Son el motor de la sociedad del conocimiento, una sociedad donde se pone en riesgo el buen vivir de las comunidades, ahora organizadas por algoritmos y corporaciones.

Los programas elaborados mediante aprendizaje automático unos de los métodos de la inteligencia artificial, están dando pasos sorprendentes, detectando características nunca antes descubiertas en imágenes médicas, en el sector agroquímico y alimentación, realizando operaciones inteligentes en el mercado financiero.

Es fundamental que abordar desde el gobierno temas como: la “caja negra” o apertura del procesamiento de la información, los sesgos de los algoritmos, la ética de la selección de los datos, y el manejo de la información, con especial énfasis en la protección de los derechos de privacidad y de datos personales

Los científicos de Bayer/Monsanto confían en el poder del super cómputo y la inteligencia artificial para rastrear qué genes están activos durante el desarrollo de una semilla de soja con el fin de diseñar nuevas variedades. Modelan formulaciones agroquímicas con una toxicidad adecuada que permita combatir las “super malezas” las malas hierbas resistentes a la acción de herbicidas.

El control corporativo y tecno científico sobre la reproducción de la “naturaleza”, la deforestación y la agricultura industrial e intensiva altera profundamente la relación entre lo humano y lo no humano. La alteración de los ecosistemas está ciertamente en la raíz de los ciclos ya establecidos de los nuevos virus.

En el mes de agosto de 2021 la filial rusa de Xsolla, una empresa de software y servicios interactivos con sede en Los Ángeles, realizó una reestructuración de su plantel de empleados basado en software y datos. Sin previo aviso, decidió́ prescindir de 150 de los 450 empleados de sus oficinas de Perm y Moscú siguiendo el dictamen de un algoritmo de rendimiento laboral que los consideraba “improductivos” y “poco comprometidos” con los objetivos de la empresai.

El de Xsolla es uno de tantos ejemplos de empresa moderna y de vocación disruptiva que está incorporando la inteligencia artificial a su proceso de toma de decisiones en las de la dirección general de operaciones y las divisiones de recursos humanos y gestión del talento.

Se conoce que Facebook tenía informes internos (informes producido en base a los datos de sus productos Instagram, WhatsApp y Facebook) que el uso de sus redes sociales perjudicaba la salud mental de los más jóvenes y producía o estimulaba los trastornos alimenticios entre los más jóvenes. En particular, en Instagram. ¿Como viviremos metaverso?

En su libro “Armas de destrucción Matemática” Cathy O’ Neil matemática de Harvard y postdoctorado en el departamento de Matemáticas del MIT, denuncia que los desarrollos de estos modelos embebidos en el software no cuentan con regulación de los Estados. Así, van creando una sociedad dual en la que los ricos cuentan con el privilegio de una atención personalizada, humana y regulada mientras que a los grupos vulnerables se les condena a los resultados de “maquinas inteligentes”, en el que no existe transparencia, derechos ni procedimientos claros para apelar las decisiones algorítmicas.

Los algoritmos conforman un sistema de puntuación. Si tú puntuación es suficientemente elevada se te da una opción, pero si no la consigues se te deniega. La puntuación algorítmica, puede ser para ser candidato a un puesto de trabajo o la admisión a una institución educativa, una tarjeta de crédito, una póliza de seguros o tú evaluación laboral. El algoritmo te asigna una puntuación de manera secreta, no se puede entenderla, no se puede plantear un recurso. No conocemos su funcionamiento. Utiliza un método de decisión que no se conoce públicamente.

Sin embargo, no solo es algo injusto para él ciudadano, sino que normalmente este sistema de decisión es algo destructivo también para la sociedad. Con los algoritmos estamos tratando de trascender el prejuicio humano. Si fracasan, provocan que la sociedad entre un ciclo “bucle” destructivo, porque aumentan la desigualdad progresivamente. Pero también puede ser algo más preciso. Un algoritmo para decidir quién accede a la libertad condicional, uno que determina qué barrios sufren una mayor presión policial en función de la presencia de estereotipos configurados en datos de entrenamiento del algoritmo.

Muchas de estas cuestiones merecen una reflexión y cuidado social profundo, mediante la articulación de consensos políticos, sociales y tecnológicos sobre qué es y qué no es aceptable y deseable. Para empezar a articular estos consensos hacen falta herramientas que nos ayuden a entender qué es lo que está ocurriendo. ¿Contar con información pública sobre el comportamiento de los algoritmos y los datos de entrenamiento puede ser esa herramienta?

Una Política Pública justo a tiempo

Una Agencia Estatal de Algoritmos para regular su aplicación al trabajo, conocer si discriminan o saber cómo afectan las redes sociales a la salud mental.

El Gobierno de España acordó con Más País la creación de una Agencia Española de Supervisión de la Inteligencia Artificial que tendrá el objetivo de controlar los algoritmos de las redes sociales y aplicaciones. Se tratará de un organismo estatal con personalidad jurídica pública, patrimonio propio y autonomía en su gestión.

La tarea principal de la Agencia será minimizar los riesgos que estén relacionados con la seguridad y salud de las personas que puedan derivarse del uso de sistemas de Inteligencia Artificial, para esto, creará una auditoría de los algoritmos para vigilar el cumplimiento de la nueva regulación que se introdujo con la ‘Ley Rider’.

Dicha ley incluyó que las plataformas digitales debían informar el algoritmo aplicado a la organización, es decir, el artículo 64 del Estatuto de los Trabajadores Españoles indica que los empleados tienen el derecho a conocer los algoritmos que repercuten en las condiciones de trabajo.

El desarrollo, supervisión y seguimiento de los proyectos de la Agencia estará a cargo del organismo estatal Estrategia Nacional de Inteligencia Artificial, adscrito a la Secretaría de Estado de Digitalización e Inteligencia Artificial y se regirá por el estatuto orgánico y por lo dispuesto en la Ley de Régimen Jurídico del Sector Público.

Saludamos con muy buenas expectativas la iniciativa política de Más País, ya que consideramos que la Gobernanza de los datos en el contexto de la Inteligencia Artificial no es solamente una cuestión de informáticos o empresas. Los datos de un país son recursos por los cuales se conoce a la población, se definen políticas públicas y nutren la evaluación y evolución de las mismas. Son temas centrales para el desarrollo del Estado en la redefinición digital de la vida.

Es fundamental que abordar desde el gobierno temas como: la “caja negra” o apertura del procesamiento de la información, los sesgos de los algoritmos, la ética de la selección de los datos, y el manejo de la información, con especial énfasis en la protección de los derechos de privacidad y de datos personales.

Temas claves, que no pueden quedar afuera de un marco regulatorio, ya que son transversales a las distintas áreas específicas donde el Estado utiliza esta tecnología.

El Estado y sus ´políticas públicas deben garantizar la soberanía de los Datos como se garantiza la soberanía de las riquezas en el territorio nacional.

* https://www.alainet.org/es

Síguenos en redes sociales… Diaspora: lqsomos@wk3.org Facebook: LoQueSomos Twitter: @LQSomos Telegram: LoQueSomosWeb Instagram: LoQueSomos

LQSomos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Nos obligan a molestarte con las "galletitas informáticas". Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar