La Inteligencia Artificial y sus productos generativos están poniendo a prueba los límites del escudo de responsabilidad tecnológica.
El Político
Las herramientas de Inteligencia Artificial – IA generativa están probando una disposición que protegió a la industria tecnológica durante décadas, de demandas por contenido de terceros.
Esto a medida que las aplicaciones de IA generativas como ChatGPT y los productos rivales aumentan en popularidad.
Los expertos y las partes interesadas están divididos sobre la Sección 230 de la Ley de Decencia en las Comunicaciones.
En este sentido, Ashley Johnson, analista principal de políticas de la Fundación de Innovación y Tecnología de la Información, dijo que: "el escenario más probable es que si la IA generativa es impugnada en los tribunales, probablemente no se considerará cubierta por la Sección 230".
Y agregó que: "sería muy difícil argumentar sobre los contenido que la plataforma, o el servicio, o quienquiera que esté siendo demandado en este caso, no participó en la creación. O si fue su plataforma de IA la que generó el contenido".
Video cortesía Deutsche Welle
La hora de las preguntas sobre la protección frente a la IA
Los expertos se preguntan si un escudo de responsabilidad para las empresas de Internet, debería aplicarse a estas nuevas herramientas generativas.
Es decir, un escudo que controle los contenido de terceros, que son producidos con el uso de herramientas desarrolladas a partir de IA.
Estas herramientas pueden crear textos, traducir idiomas, escribir distintos tipos de contenidos creativos y responder preguntas de forma informativa.
Responsabilidad tecnológica sobre los chatbots
El escudo de responsabilidad tecnológica frente al uso de la IA supone también un riesgo. Las leyes sobre protección de los desarrolladores o los usuarios con están del todo claras todavía.
Ya que los chatbots pueden utilizarse para generar contenidos nocivos, como incitación al odio o desinformación.
También pueden caer en manos de delincuentes informáticos, quienes se aprovechan de la IA para desarrollar actividades ilícitas y perjudiciales para la sociedad.
Como resultado, existe un creciente debate sobre si las empresas tecnológicas deben ser consideradas responsables de los contenidos generados por estas herramientas.
Algunos argumentan que las empresas tecnológicas deben ser responsables. Porque tienen la capacidad de controlar el contenido que se genera.
Otros sostienen que las empresas tecnológicas no deben ser consideradas responsables. Pues no son responsables de las acciones de sus usuarios.
Es probable que el debate sobre la responsabilidad de las empresas tecnológicas continúe. Esto a medida que las herramientas de IA generativa se vuelvan más sofisticadas.
Es importante considerar los riesgos y beneficios potenciales de estas herramientas antes de utilizarlas.
¿Qué son los Chatbots?
Se trata de herramientas desarrolladas como un gran modelo lingüístico. Están entrenados en un conjunto masivo de datos de texto y códigos, y pueden generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a tus preguntas de forma informativa.
Por ejemplo, ChatGPT utiliza un proceso llamado aprendizaje profundo para generar texto. El aprendizaje profundo es un tipo de aprendizaje automático que permite a los ordenadores aprender de los datos sin ser programados explícitamente.
ChatGPT se entrena con un enorme conjunto de datos de texto y código, lo que le permite aprender los patrones del lenguaje humano.
Video cortesía TALENTKINGHD
¿Cuáles son los riesgos de utilizar un chatbot?
Los chatbots puede utilizarse para generar contenidos nocivos, como incitación al odio o desinformación. Además, pueden utilizarse para crear deepfakes, que son vídeos o grabaciones de audio que se han manipulado para que parezca que alguien está diciendo o haciendo algo que nunca dijo o hizo.
¿Qué puedes hacer para protegerte
de los riesgos de utilizar los chatbots?
Hay varias cosas que puede hacer para protegerse de los riesgos de utilizar un chatbot, entre ellas:
- Estar consciente de los riesgos que plantea los chatbots antes de utilizarlo.
- Utilice los chatbots sólo con fines legítimos.
- Tenga cuidado con la información personal o privada que comparte con los chatbots.
En conclusión
El tema de la responsabilidad tecnológica sobre el uso, para bien o para mal, como los chatbots es complejo.
Las responsabilidades apuntan, tanto a los creadores como a los usuarios. Pero sin definirse con claridad, desde el punto de vista regulatorio.
Sobre todo, los alcances del escudo de responsabilidad. Como el caso de la Sección 230 de la Ley de Decencia en las Comunicaciones.
Las herramientas de IA generativa como ChatGPT son una nueva y potente tecnología. Pero también plantean una serie de riesgos.
Es importante estar consciente de los riesgos antes de utilizar estas herramientas y tomar medidas para protegerse.