Publicidad

Publicidad

Publicidad

Publicidad

Reciba notificaciones de Blu Radio para tener las principales noticias de Colombia y el mundo.
No activar
Activar

Publicidad

España investiga a OpenAI, propietaria de ChatGPT, por posible vulneración a la protección de datos

España se suma así a las acciones que han ido tomando países como Italia debido a la creciente preocupación porque esta herramienta pueda vulnerar la privacidad y la protección de datos de los usuarios.

ChatGPT
Blu Radio
Foto: AFP

España, a través de la Agencia Española de Protección de Datos (AEPD), ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio de inteligencia artificial generativa ChatGPT, por un posible incumplimiento de normativa española y europea.

España se suma así a las acciones que -con distinto grado- han ido tomando países como Italia y a las peticiones de organizaciones de consumidores ante la creciente preocupación porque esta herramienta pueda vulnerar la privacidad y la protección de datos de los usuarios.

La autoridad pública española, cuya misión es velar por el cumplimiento de estos derechos entre la ciudadanía, defendió en un comunicado el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde "el pleno respeto" a la legislación vigente (Reglamento General de Protección de Datos).

Consideró que "sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas".

Publicidad

En este sentido, apostó por adoptar acciones armonizadas y coordinadas a nivel europeo. La semana pasada solicitó al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria.

En la reunión de este jueves, este comité decidió lanzar un grupo de trabajo para fomentar la cooperación e intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos.

Publicidad

Bloqueo en Italia

El pasado 31 de marzo Italia anunció el bloqueo del uso de la herramienta ChatGPT, acusándola de no respetar la ley de protección de datos de los consumidores.

El garante italiano para la Protección de Datos Personales aseguró que había abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT "no respete la disciplina de la privacidad".

Informó de que este chat, capaz de simular conversaciones humanas o crear textos, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados.

Publicidad

Ayer, Italia dio de plazo hasta el 30 de abril a OpenAI para que adapte la gestión de datos de ChatGPT a la normativa italiana.

Solicitó además un sistema de verificación de edad que sea capaz de evitar el acceso a los menores de 13 años y que la compañía inicie antes del 15 de mayo una campaña en medios de comunicación para informar sobre el uso que hace de los datos personales de los usuarios.

Publicidad

La Organización Europea de Consumidores (BEUC) instó el mes pasado a las autoridades de la Unión Europea y de los Veintisiete que abrieran una investigación sobre ChatGPT y chatbots similares, ante el "riesgo" que corren los usuarios de "sufrir daños" por una tecnología sin regular.

La asociación que representa a los consumidores de la UE hizo esta petición tras la denuncia presentada por el grupo de la sociedad civil estadounidense Centro de IA y Política Digital ante la Comisión Federal de Comercio de Estados Unidos, planteando, entre otras, cuestiones críticas sobre el impacto de GPT-4 en la protección de los consumidores y sus datos.

Una carta abierta con más de 24.700 firmas

Una de las acciones que más eco han tenido es una carta abierta hecha pública el pasado 22 de marzo y firmada a día de hoy por más de 24.700 expertos de distintos campos.

Publicidad

Encabezada por Yoshua Bengio, premio Turing y profesor de la Universidad de Montreal, en Canadá, y Stuart Russell, de la Universidad de California en Berkeley, EEUU, los firmantes solicitan a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de IA más potentes que GPT-4 (el último modelo de IA generativa de la empresa OpenAI).

El ritmo al que avanza esta tecnología preocupa y es necesario repensarla.

Publicidad

En este sentido, el documento, firmado entre otros por el cofundador de Apple Steve Wozniak, propone que durante esta pausa se "desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes".

Piden que la investigación y el desarrollo de esta tecnología se reenfoque en hacer que "los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales".

Entre los firmantes hay varios españoles, como Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC), y Pablo Jarillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT).

Según indicaron en su día a EFE no se han tomado "las precauciones necesarias" antes de trasladar masivamente esta IA a la ciudadanía.

Publicidad

Ambos expertos coincidieron en que la IA, también la generativa, puede proporcionar beneficios, pero estos sistemas buscan que el resultado sea verosímil, no necesariamente cierto, y que parezca que lo ha dicho un humano; ahí está el riesgo.

Basados en el aprendizaje automático, aprenden de los millones de textos, imágenes o vídeos publicados en internet, y los desarrolladores se quedan con los datos de las miles de "conversaciones" de los usuarios para mejorar los siguientes modelos, por eso, entre otros, preocupa la privacidad y el uso de datos personales.

Publicidad

Peticiones en la revista Science

Hoy en la revista Science un grupo internacional de expertos también mostró en un artículo su preocupación por los elevados riesgos de la IA y de las consecuencias catastróficas que los fallos de esta tecnología pueden causar.

Incidieron en la necesidad de que todas las publicaciones sobre esta materia incluyan de forma pormenorizada todos los datos que son vitales para comprender y abordar los errores intermedios que pueden conducir a posibles fallos, y que estén a disposición de la comunidad científica que evitar que se reproduzcan los mismos errores.

Le puede interesar:

Publicidad

  • Publicidad