ChatGPT es una pesadilla de privacidad de datos

ChatGPT es una pesadilla de privacidad de datos

Por Uri Gal*. LQSomos.

Cualquier persona que haya publicado en línea debería estar preocupada

ChatGPT ha arrasado en todo el mundo. A los dos meses de su lanzamiento alcanzó los 100 millones de usuarios activos, lo que la convierte en la aplicación de consumo de más rápido crecimiento jamás lanzada. Los usuarios se sienten atraídos por las avanzadas capacidades de la herramienta, y preocupados por su potencial para causar trastornos en diversos sectores.

Una implicación mucho menos discutida son los riesgos para la privacidad que ChatGPT supone para todos y cada uno de nosotros. El martes 7 de febrero, Google presentó su propia inteligencia artificial (IA) conversacional, llamada Bard, y seguramente le seguirán otras. Las empresas tecnológicas que trabajan en IA han entrado de lleno en una carrera armamentística.

El problema es que se alimenta de nuestros datos personales.

300.000 Millones de palabras ¿Cuántas son las tuyas?

ChatGPT se basa en un gran modelo lingüístico que necesita cantidades ingentes de datos para funcionar y mejorar. Cuantos más datos se utilicen para entrenar el modelo, más capaz será de detectar patrones, anticipar lo que vendrá a continuación y generar textos plausibles.

OpenAI, la empresa responsable de ChatGPT, alimentó la herramienta con 300.000 millones de palabras extraídas sistemáticamente de Internet: Libros, artículos, sitios web y mensajes, incluida información personal obtenida sin consentimiento.

Si alguna vez has escrito una entrada de blog o una reseña de producto, o has comentado un artículo en línea, es muy probable que ChatGPT haya consumido esa información.

La recogida de datos utilizada para entrenar CHATGPT es problemática

En primer lugar, a ninguno de nosotros se nos preguntó si OpenAI podía utilizar nuestros datos. Esto es una clara violación de la privacidad, especialmente cuando los datos son sensibles y pueden utilizarse para identificarnos a nosotros, a nuestros familiares o nuestra ubicación.

Incluso cuando los datos están a disposición del público, su uso puede vulnerar lo que llamamos integridad textual. Se trata de un principio fundamental en los debates jurídicos sobre la privacidad. Exige que la información de los individuos no se revele fuera del contexto en el que se produjo originalmente.

Además, OpenAI no ofrece ningún procedimiento para que las personas comprueben si la empresa almacena su información personal, o para solicitar su eliminación. Se trata de un derecho garantizado por el Reglamento General de Protección de Datos (RGPD), aunque aún se debate si ChatGPT cumple los requisitos del RGPD.

Este “derecho al olvido” es especialmente importante en los casos en que la información es inexacta o engañosa, lo que parece ser habitual en ChatGPT.

Además, los datos raspados con los que se ha entrenado ChatGPT pueden estar protegidos por derechos de propiedad o de autor. Por ejemplo, cuando se lo pedí, la herramienta mostró los primeros párrafos de la novela de Peter Carey True History Of The Kelly Gang, un texto protegido por derechos de autor.

Por último, OpenAI no pagó por los datos que extrajo de Internet. Los individuos, propietarios de sitios web y empresas que los produjeron no fueron compensados. Esto es especialmente llamativo si tenemos en cuenta que OpenAI se valoró recientemente en 29.000 millones de dólares, más del doble que en 2021.

OpenAI también acaba de anunciar ChatGPT Plus, un plan de suscripción de pago que ofrecerá a los clientes acceso continuo a la herramienta, tiempos de respuesta más rápidos y acceso prioritario a nuevas funciones. Este plan contribuirá a unos ingresos previstos de 1.000 millones de dólares en 2024.

Nada de esto habría sido posible sin datos -nuestros datos- recopilados y utilizados sin nuestro permiso.

Política de privacidad endeble

Otro riesgo para la privacidad tiene que ver con los datos proporcionados a ChatGPT en forma de preguntas a los usuarios. Cuando pedimos a la herramienta que responda a preguntas o realice tareas, podemos entregar inadvertidamente información sensible y ponerla en el dominio público.

Por ejemplo, un abogado puede pedir a la herramienta que revise un borrador de acuerdo de divorcio, o un programador puede pedirle que compruebe un fragmento de código. El acuerdo y el código, además de los ensayos emitidos, pasan a formar parte de la base de datos de ChatGPT. Esto significa que pueden utilizarse para seguir formando a la herramienta e incluirse en las respuestas a las preguntas de otras personas.

Además, OpenAI recopila una amplia gama de información sobre los usuarios. Según la política de privacidad de la empresa, recoge la dirección IP de los usuarios, el tipo de navegador y su configuración, así como datos sobre las interacciones de los usuarios con el sitio, incluido el tipo de contenido que consultan, las funciones que utilizan y las acciones que llevan a cabo.

También recopila información sobre las actividades de navegación de los usuarios a lo largo del tiempo y en distintos sitios web. De forma alarmante, OpenAI afirma que puede compartir información personal de los usuarios con terceros no especificados, sin informarles, para cumplir sus objetivos comerciales.

Extremo cuidado con la información que compartimos

Algunos expertos creen que ChatGPT es un punto de inflexión para la IA, una materialización del desarrollo tecnológico que puede revolucionar nuestra forma de trabajar, aprender, escribir e incluso pensar. A pesar de sus beneficios potenciales, debemos recordar que OpenAI es una empresa privada con ánimo de lucro cuyos intereses e imperativos comerciales no coinciden necesariamente con las grandes necesidades de la sociedad.

Los riesgos para la privacidad que conlleva ChatGPT deberían servirnos de advertencia. Y como consumidores de un número creciente de tecnologías de IA, deberíamos ser extremadamente cuidadosos con la información que compartimos con dichas herramientas.

* Nota original: Commentary: ChatGPT is a data privacy nightmare – anyone who has ever posted online ought to be concerned. En castellano por OBELA.

Síguenos en redes sociales… Mastodon: @LQSomos@nobigtech.es Diaspora*: lqsomos@wk3.org Telegram: LoQueSomosWeb Twitter: @LQSomos Facebook: LoQueSomos Instagram: LoQueSomos

LQSomos

2 thoughts on “ChatGPT es una pesadilla de privacidad de datos

  1. ¡Hola! Me encanta tu artículo sobre ChatGPT y la importancia de la privacidad de datos. Estoy de acuerdo en que es algo que debemos vigilar y proteger en todo momento. Gracias por compartir esta información tan relevante. Saludos, GPTOnline.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Nos obligan a molestarte con las "galletitas informáticas". Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar