Un intenso debate sobre la IA entre un historiador y un experto informático arrojó la siguiente interrogante: ¿Extinción o Nueva Ilustración?
El Político
La discusión se realizó entre Yann LeCun y Yuval Noah Harari. Uno es investigador, el otro historiador.
El primero no ve motivos para alarmarse por la aparición de la inteligencia artificial mientras que el segundo teme que conduzca al colapso de nuestra civilización.
Harari firmó la carta abierta lanzada por el think tank The Future of Life, junto a cerca de 30.000 pensadores, pidiendo una pausa de seis meses en el desarrollo de herramientas más potentes que GPT-4, el modelo de lenguaje que aceleró la adopción de ChatGPT en un tiempo récord, mientras que LeCun calificó de ridículo tanto alarmismo, reportó Infobae.
La revista francesa Le Point les propuso un debate por videoconferencia. Uno desde Nueva York y el otro desde Jerusalén, argumentaron sus puntos de vista sobre las promesas, los peligros y el futuro de la IA.
Panorama general
Le Point rompió el hielo con una pregunta básica: ¿cuál es su definición de inteligencia?
Para Yann LeCun, la inteligencia significa ser capaz de percibir una situación, planificar una respuesta y actuar para alcanzar un objetivo, es decir, ser capaz de perseguir una situación y planificar una secuencia de acciones.
Y para Yuval Noah Harari, la inteligencia es la capacidad de resolver problemas. Desde los organismos unicelulares que buscan alimento hasta los humanos que descubren cómo volar a la Luna, eso es inteligencia.
“No es lo mismo que la conciencia. En los humanos, se mezclan. La conciencia es la capacidad de sentir cosas, dolor, placer, amor, odio. Nosotros, los humanos, a veces utilizamos la conciencia para resolver problemas, pero no es un ingrediente esencial. Muchos organismos resuelven problemas sin tener conciencia, como las plantas y los microorganismos. Las máquinas también pueden ser inteligentes y resolver problemas sin tener sentimientos”, detalló.
“Todavía no, pero ocurrirá”, interrumpió LeCun y comenzó el verdadero debate.
El jefe de IA de Meta detalló que es muy difícil predecir cuánto tardará. “Pero no me cabe duda de que tendremos máquinas al menos tan inteligentes como los humanos. Y si tienen la capacidad de planificar y fijar objetivos, también tendrán el equivalente de los sentimientos, porque muy a menudo las emociones no son más que una anticipación de los resultados”, adelantó.
Y detalló: “Como humanos, si anticipamos que una situación puede ser peligrosa, sentimos miedo, lo que nos motiva a explorar distintas opciones para escapar de la situación de peligro. Si las máquinas pueden hacer esto, tendrán emociones. Pero aún estamos muy lejos de la posibilidad de que una máquina adquiera consciencia…”
Harari reaccionó rápidamente: “Es posible, pero no inevitable”.
Explicó que en la evolución de los humanos, así como de los mamíferos y las aves, la conciencia y la inteligencia han ido de la mano, resolvemos problemas teniendo sentimientos.
Pero podría haber otras rutas para la evolución de la inteligencia, en las que se tuviera un tipo diferente de inteligencia, que podría ser superior a la inteligencia humana y aún así no implicar ningún sentimiento en absoluto.
Ya es el caso en áreas limitadas como el ajedrez o el Go.” No creo que nadie piense realmente que AlphaGo se alegra cuando gana la partida, y sin embargo es más inteligente que los humanos en este campo tan limitado.
Podría darse el caso, incluso con la inteligencia artificial general, de que nos superara con creces en inteligencia y aun así no sintiera ningún tipo de emoción”.
“Pero si queremos que los sistemas tengan cierto nivel de autonomía y funcionen intentando satisfacer un objetivo, entonces esos sistemas probablemente tendrán el equivalente de las emociones, porque entonces tendrán que ser capaces de predecir con antelación cuál va a ser el resultado de una determinada secuencia de acciones”, se diferenció Le Cun.
ChatGPT, democracia y creencias
¿El ChatGPT es peligroso para nuestra democracia y nuestras creencias?”, interpeló a ambos Le Poit.
“No creo que sea peligroso por el momento, pero la razón por la que podría serlo es que está cerrado, por lo que la gente no puede entenderlo y los investigadores no pueden investigarlo", aseguró el investigador de Meta.
Agregó que "en mi opinión, la manera de avanzar con los grandes modelos lingüísticos es hacerlos abiertos. Y hoy en día se ven varios esfuerzos en todo el mundo para producir pruebas que sean de código abierto”.
Optimista, invitó a Hariri a unirse a su club: “La gente no debería sentirse amenazada. De la misma manera que tu coche es más potente que tú, imagina un futuro en el que todo el mundo tenga a su disposición un equipo de máquinas inteligentes que les haga más eficientes, productivos o creativos. Por eso creo que traerá un nuevo Renacimiento, básicamente una nueva Ilustración”.
Seguridad de la IA
El jefe de inteligencia artificial de Meta remarcó que la seguridad de la IA radicará en que la tecnología no sea propiedad de una sola empresa.
El moderador recordó que los sistemas actuales tienen un alto porcentaje de alucinación…
“En efecto -aceptó Le Cun- los sistemas actuales son muy poco fiables. Son muy buenos como asistentes de escritura, pero no como fuentes fiables de información”. Pero afirmó que lo que va a ocurrir en los próximos años es que el diseño básico del sistema va a cambiar para crear sistemas que sean más directamente dirigibles, controlables y factuales, si es necesario".
Añadió que "así que, con el tiempo, agregó, esos sistemas serán más fiables que cualquier otro método de búsqueda de información. “Y va a ser un poco como la conducción autónoma y la asistencia a la conducción. Actualmente, puedes tener sistemas de asistencia a la conducción para tu coche. Son algo fiables en la autopista, pero no en todas partes, y se supone que tienes que mantener las manos en el volante en todo momento”.
IA y la toma de decisiones
Harari advirtió que la IA es la primera herramienta que potencialmente puede sustituirnos en la toma de decisiones. “Y aquí el peligro es sustancial porque es probable que cometamos errores. Y podría tratarse de un error a un nivel tal que no tengamos tiempo de aprender de él”.
El historiador recordó que en el siglo XX, los humanos cometimos algunos errores terribles, terribles experimentos fallidos sobre cómo construir sociedades industriales.
“El nazismo y el comunismo fueron experimentos fallidos. Las dos guerras mundiales fueron errores terribles. Después de destruir las vidas de cientos de millones de personas, aprendimos de estos errores y, finalmente, aprendimos a construir mejores sociedades industriales", advirtió.
También señaló que "con la nueva tecnología del siglo XXI, si volvemos a cometer esos errores, por ejemplo construyendo un régimen totalitario basado en la IA, o iniciando la Tercera Guerra Mundial, quizá no haya vuelta atrás”.
El israelí remarcó que la tecnología del siglo XXI es mucho más poderosa: “Si cometemos el mismo tipo de errores con la tecnología actual, hay muchas posibilidades de que no sobrevivamos para aprender de esos errores”.
Consejos para las nuevas generaciones
“Creo que es mejor que nuestros hijos aprendan profesiones creativas que sean artísticas o científicas y que requieran habilidades profundas. Y todo lo que tenga que ver con la experiencia humana intrínseca y la comunicación, porque no es sustituible por máquinas”, recomendó LeCun.
“Se puede hacer arte bonito, pero ¿qué se comunica? Estas herramientas van a amplificar la creatividad humana, pero no la van a dejar obsoleta. Sólo facilitarán que un mayor número de personas sean creativas y ejerciten su creatividad”.
Siempre más pesimista, Harari advirtió del peligroso apostar por una habilidad específica: “Es mejor centrarse en aprender a aprender y también en las herramientas psicológicas necesarias para seguir cambiando a lo largo de la vida.
El mayor problema será psicológico: cómo seguir cambiando, seguir reinventándose, a medida que el mercado laboral se vuelve cada vez más volátil”.
En conclusión
Para el historiador es claro que el peligro radica en que la IA destruya los cimientos de la democracia y lleve a la creación de nuevas dictaduras digitales que podrían ser aún más extremas que la Unión Soviética.
El investigador en jefe de Meta cree todo lo contrario. Para él, la nueva tecnología amplificará la inteligencia humana y permitirá un nuevo renacimiento impulsada por una aceleración del progreso científico, técnico, médico y social gracias a la IA.
“No creo que una ralentización o una pausa en la investigación sea útil porque no creo que eso ponga en pausa ningún peligro”, insistió y sentenció: “La idea de que en el momento en que enciendas el sistema de superinteligencia se va a apoderar del mundo es ridículo”.
Harari, en cambio, asegura que es primordial ralentizarla para que la sociedad pueda identificar los peligros y decidir qué hacer al respecto.
El historiador israelí fue lapidario: “¿La cuestión es en manos de quién está? Podría ser potencialmente maravilloso, pero en las manos equivocadas podría destruir la democracia”.
Harari explicó que la democracia es una conversación entre personas, y si la conversación entre personas es pirateada o secuestrada, algo que la IA es ahora plenamente capaz de hacer, eso destruiría los cimientos del sistema democrático.
“Imagina que estás hablando con alguien online y no sabes si es un ser humano o un bot de IA. Y al igual que con las redes sociales hace diez años vimos una carrera armamentista por la atención, ahora podemos ver una carrera armamentista por la intimidad, y la intimidad es mucho más poderosa que la atención”, alertó.
“Tenemos que protegernos de estos peligros, porque lo que hemos visto antes con los algoritmos de recomendación no es nada comparado con el poder de estas IA para cambiar la opinión de la gente sobre cualquier cosa, desde qué productos comprar hasta a qué político votar”, finalizó.