ChatGPT se adueño de la atención del mundo entero, como una herramienta poderosa. Pero su uso estaría generando problemas de seguridad.
El Político
Italia le puso un freno al uso del chat generativo ChatGPT, desarrollado a partir de Inteligencia Artificial – IA, debido a problemas de seguridad en el manejo de datos confidenciales.
En esa misma línea España también va a frenar el uso de esta herramienta digital. Esto también es debido al impacto negativo que esta aplicación genera a nivel de la privacidad de los datos de los usuarios.
En efecto, la Agencia Española de Protección de Datos – AEPD, presentó una solicitud ante el Comité de Protección de Datos de la Unión Europea.
En esa petición se destacó la necesidad de evaluar el impacto que ChatGPT puede tener en la protección de los datos.
España ya se plantea prohibir ChatGPT por su impacto en la privacidad: Europa sigue el camino de Italia https://t.co/ltUNaOGJ5t pic.twitter.com/exi7PMYand
— xataka (@xataka) April 12, 2023
Qué dice la AEPD
En declaraciones a los medios, un portavoz de AEPD indicó que: "la AEPD entiende que los tratamientos globales que puedan tener un impacto significativo en los derechos de las personas, requieren decisiones coordinadas a nivel europeo".
Añadió —además— que en el próximo pleno del Comité se debata sobre ese tema, "para que se puedan poner en marcha acciones armonizadas, en el marco de la aplicación del Reglamento General de Protección de Datos".
Adicionalmente, Francia, Irlanda y Alemania también han manifestado preocupación sobre la seguridad de los datos de los usuarios de ChatGPT.
En el caso de Francia, la Comisión Nacional de Informática y Libertades – CNIL, anunció que está investigando varias quejas sobre ChatGPT. Aunque no ofreció detalles específicos.
Alemania e Irlanda también estaban considerando seguir los pasos de Italia. Pues se han ido acumulando.
Francia, Irlanda y Alemania están también preocupadas por #ChatGPT y en EEUU y China las cosas se ponen delicadashttps://t.co/BAgKIv4nWp
— SantaCruz Social Media (@StaCruzSM) April 12, 2023
EEUU y China
Entre tanto, la administración Biden ha comenzado a evaluar si es necesario poner barreras al uso de ChatGPT.
Algunos analistas han indicado que podría estarse preparando un primer paso hacia una potencial regulación.
Por su parte, Pekín vetó la entrada de ChatGPT en China desde su lanzamiento. No obstante, sus gigantes tecnológicos aceleraron sus desarrollos, para lanzar sistemas alternativos.
Además, la entidad reguladora de Internet en China también propuso controles estrictos al tipo de contenido que se puede generar, por parte de plataformas como ChatGPT.
#Tecnología | Pese a que suele acertar en sus respuestas, muchos expertos han advertido de que fiarse completamente de la información o datos que aporta ChatGPT tiene sus riesgos. Le contamos más ⬇ https://t.co/iOz9LXBpXM
— El Colombiano (@elcolombiano) April 10, 2023
Riesgos
La capacidad de ChatGPT es asombrosa. Pero desde su aparición se ha comprobado cómo esta plataforma de inteligencia artificial no sabe guardar un secreto.
Tanto usuarios profesionales como particulares pueden acabar introduciendo información sensible o personal para resolver sus dudas, y puede que el tratamiento de datos de OpenAI no cumpla con el Reglamento General de Protección de Datos – RGPD.
La herramienta de chat de OpenAI basada en #IA: ChatGPT, ya está en el centro de la controversia, sobre todo por los riesgos en los que está colocando el futuro y las ganancias de las grandes tecnológicas. https://t.co/mxvFzLMvcM
— RaúlGONZÁLEZROMERO^ (@rgprofesional) December 15, 2022
Habla el fabricante
De momento OpenAI ha dicho muy poco. Su política de privacidad no menciona razones legales para usar la información personal de los usuarios para entrenar sus sistemas.
Pero se apoya en el "interés legítimo" cuando habla del desarrollo de servicios. En el informe técnico de GPT-4 se indica que sus datos de entrenamiento podrían incluir "información personal públicamente disponible". Y se añade que OpenAI toma medidas para proteger la privacidad, incluyendo modelos afinados, que evitan que se puedan realizar preguntas personales sobre la gente.