La polémica sobre el peligroso avance de la Inteligencia Artificial sigue ocupando la atención pública. Pues es tema habitual en los medios.
El Político
Una carta abierta que pide una "pausa" de seis meses en el trabajo sobre Inteligencia Artificial – IA avanzada está dividiendo a la industria de la tecnología. No solo entre partidarios y escépticos de la IA, sino también entre diferentes facciones de críticos de la IA.
La carta, inicialmente fue firmada por Elon Musk, así como el cofundador de Apple, Steve Wozniak y otras luminarias de la industria. En ella se insta a "dar un paso atrás en la carrera peligrosa hacia modelos de caja negra impredecibles, cada vez más grandes con capacidades emergentes".
Específicamente, se dice que los laboratorios de IA deberían "detener inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA. Sobre todo los más potentes que GPT-4", la última versión del modelo de lenguaje grande de OpenAI, que se lanzó hace dos semanas.
La carta que está circulando firmada por todos los popes de la tecnología, donde piden 6 meses para regular la IA, me da la sensación que están por conectar SKYNET por favor no lo hagan. Supongo ya vieron las pelis y no termina bien.https://t.co/b9rYBDnVQH pic.twitter.com/FDJf5xe8l8
— Carlos Libisch (@CarlosLibisch) March 30, 2023
Lo que dicen
El mundo de la tecnología estaba entusiasmado con la carta del miércoles. Sin embargo, no muchos esperaban ver una desaceleración voluntaria de la industria o una "pausa" ordenada por el gobierno en el corto plazo.
"No hay propuestas literales en la moratoria real", dijo el director ejecutivo de Box, Aaron Levie, en el escenario de la cumbre What’s Next de Axios el miércoles. "Fue simplemente, ‘pasemos ahora el tiempo para reunirnos y trabajar en este tema’. Pero fue firmado por personas que han estado trabajando en este tema durante la última década".
"Hay mucha conversación sobre ‘vamos a desconectarnos’. Pero no estoy seguro de que haya un solo enchufe", dijo Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca. El otoño pasado, esa Oficina dio a conocer su "Plan para una Declaración de Derechos de la IA".
Interesante enfoque de los británicos para afrontar y regular la IA . https://t.co/P5aBMD1vc8
— Marcos Avalos (@Marcos5501) March 30, 2023
Entre líneas
La carta fue organizada por el Future of Life Institute, una organización sin fines de lucro dedicada a "dirigir la tecnología transformadora. Pero eso sí, lejos de los riesgos extremos a gran escala".
En este sentido, el argumento de la carta representa la posición de los críticos de la IA "largoplacistas". Como Elon Musk, quien ha estado haciendo sonar las alarmas durante más de una década.
Este punto de vista, presentado inicialmente por el filósofo Nick Bostrom y luego adoptado por muchos expertos en tecnología, advierte que una IA podría terminar. Esto ya sea por malicia humana o por un error de ingeniería, tanto con el objetivo de destruir a la humanidad como con el poder de lograr su objetivo.
Otro grupo de críticos de la IA sostiene que la carta y sus defensores están inflando el poder de los grandes modelos de lenguaje como el de OpenAI.
ChatGPT no está ni cerca de ser el tipo de "Inteligencia General Artificial – AGI", que podría amenazar a la humanidad, dicen.
Preocuparnos por algún apocalipsis distante desvía nuestra atención de los daños más inmediatos. Incluidas las recomendaciones sesgadas y la información errónea, que ya están ocurriendo en los sistemas de IA que ahora usan el gobierno y las empresas privadas.
Por su parte Emily Bender, profesora de lingüística en la Universidad de Washington, ha estado a la vanguardia de las críticas a la IA en los últimos años. Ella tuiteó que la carta abierta estaba "llena de #AIHype".
Cabe destacar que el propio OpenAI ha advertido sobre la necesidad de protegerse contra los peligros de la IA.
En una publicación de blog de febrero, el CEO de OpenAI, Sam Altman, también escribió. "Algunas personas en el campo de la IA piensan que los riesgos de AGI —y los sistemas sucesores— son ficticios; nos encantaría que tuvieran razón. Pero vamos a operar como si estos riesgos fueran existenciales".
La Inteligencia Artificial es ya un gran avance, gran desafío y gran riesgo para la humanidad!! Economías quedarán expuestas y Gobiernos quedarán vulnerables. Regular y Normar el desarrollo y aplicabilidad de la IA es el debate. https://t.co/Jdr758d6Fz pic.twitter.com/NZT7UhzbOZ
— Beto Zapata (@hzapatapolito) March 29, 2023
Sin embargo…
Otro contingente vocal en tecnología ve todo el caso de una pausa de IA como fundamentalmente en desacuerdo con el espíritu emprendedor de la industria tecnológica y el impulso para innovar.
En efecto, Daniel Castro, director del Centro de Innovación de Datos de la Fundación de Innovación y Tecnología de la Información, financiada por la industria, opinó. Ha dicho que: "el cielo no se está cayendo y Skynet no está en el horizonte".
"Sin embargo, los avances de la IA tienen el potencial de crear enormes beneficios sociales y económicos en la economía y la sociedad", argumenta Castro. "En lugar de hacer una pausa en la tecnología y permitir que China obtenga una ventaja, Estados Unidos y sus aliados deberían continuar buscando avances en todas las ramas de la investigación de la IA".
Por su parte, el científico informático, Andrew Ng, un veterano de la IA, tuiteó: "no hay una forma realista de implementar una moratoria y evitar que todos los equipos amplíen los LLM. A menos que los gobiernos intervengan. Hacer que los gobiernos detengan las tecnologías emergentes —que no entienden— es anticompetitivo, además de sentar un precedente terrible y es una política de innovación horrible".
¿Crees que es justificado la alerta de los expertos?, ¿o que la sociedad mundial necesita regular o suspender el desarrollo tecnológico de la IA?
Responde el tuit con tu opinión, miedos y esperanzas. Y si te gustó, puedes darle RT. 4/4 pic.twitter.com/YiEhpOdibH— César Cárdenas Javier (@cesarcardenasj) March 30, 2023
Una reflexión
La dinámica del capitalismo de las empresas emergentes y la inversión en tecnología hacen que el tipo de coordinación y moderación que una "pausa" de IA requeriría sea extremadamente improbable. El estancamiento político de Washington.
Mientras la lenta curva de aprendizaje hacen que la acción del gobierno sea igualmente improbable, y la geopolítica global está empujando a EEUU a acelerar la IA.