“Tal vez en 10 años tengamos percepción virtual, acción del lenguaje, agentes unificados con todas estas características, quizás superando, digamos, las capacidades de algo como un pez”, sugiere el profesor de filosofía de la Universidad de Nueva York, David Chalmers. Si bien un programa inteligente a nivel de pez no necesariamente sería consciente, “habría una buena posibilidad de que lo fuera”.

NeuroIPS 2022

La probabilidad de que los programas de inteligencia artificial más sofisticados de hoy sean sensibles o conscientes es inferior al 10 por ciento, pero dentro de una década, los principales programas de inteligencia artificial podrían tener un 20 por ciento o más de posibilidades de ser conscientes.

Es decir, si pueden lograr una cognición a nivel de pez.

Así es como el profesor de filosofía de la Universidad de Nueva York, David Chalmers, enhebró el lunes la aguja de un tema extremadamente controvertido.

La charla de Chalmers, titulada “¿Podría ser consciente un modelo de lenguaje grande?” fue el discurso de apertura del 28 de noviembre de la 36.ª conferencia anual sobre sistemas de procesamiento de información neuronal, comúnmente conocida como NeurIPS, la conferencia de IA más prestigiosa del mundo, que se llevará a cabo esta semana en Nueva Orleans.

Un gran modelo de lenguaje, por supuesto, es la designación de algunas de las formas de aprendizaje automático más avanzadas de programas de IA actuales, como GPT-3, de la startup de IA OpenAI, que es capaz de generar texto de apariencia humana.

También: Veremos 'computación mortal', dice el pionero de la IA Geoffrey Hinton

2022 ha sido un año incendiario para afirmaciones sobre cómo GPT-3 y grandes programas de inteligencia artificial como este podrían tener conciencia o sensibilidad. En febrero, el destacado pionero del aprendizaje automático Ilya Sutskever, de la startup de inteligencia artificial OpenAI, provocó una tormenta cuando él tuiteó“Puede ser que las grandes redes neuronales actuales sean un poco conscientes”.

Este verano, el investigador de Google Blake Lemoine causó aún más controversia con su afirmación de que el programa de lenguaje LaMDA era sensible.

Esas controversias “despertaron mi curiosidad”, dijo Chalmers. No tenía prisa por tomar partido. Después de jugar con LaMDA, dijo: “De repente, no tuve ningún aleluya en el que detectara sensibilidad”.

David Chalmers

En cambio, Chalmers decidió abordar todo el asunto como una investigación formal de manera académica. “Ya sabes, ¿cuál es o podría ser realmente la evidencia a favor de la conciencia en un modelo de lenguaje amplio, y cuál podría ser la evidencia en contra de esto?” le dijo a la audiencia.

(Chalmers dijo que considera que los dos términos “consciente” y “sensible” son “más o menos equivalentes”, al menos para fines de exploración científica y filosófica).

La investigación de Chalmers también fue, dijo, un proyecto para encontrar posibles caminos para crear un programa de IA consciente o sensible. “Realmente quiero pensar en esto también como un proyecto constructivo”, dijo a la audiencia, “uno que en última instancia podría conducir a una posible hoja de ruta hacia la conciencia en los sistemas de IA”.

Dijo: “Mis preguntas serán preguntas como: Bueno, en primer lugar, ¿son plausiblemente conscientes los grandes modelos lingüísticos actuales? Pero tal vez incluso más importante: ¿Podrían ser conscientes los grandes modelos lingüísticos futuros y sus extensiones?”.

También: El nuevo test de Turing: ¿eres humano?

Para continuar, Chalmers instó a su audiencia a considerar los argumentos que podrían establecer o refutar la conciencia o la sensibilidad en GPT-3 y similares.

Primero, Chalmers hizo una alegre introducción a las definiciones de conciencia. Siguiendo el famoso artículo del filósofo Thomas Nagel “¿Cómo es ser un murciélago?”, dijo Chalmers, una concepción de la conciencia es que significa que “hay algo que se siente al ser ese ser, si ese ser tiene una experiencia subjetiva, como la experiencia de ver, de sentir, de pensar.”

Dado que la mayoría de la gente piensa que no existe la experiencia que tendría una botella de agua de ser una botella de agua, “la botella de agua no tiene una experiencia subjetiva, no es consciente”, dijo, aunque Chalmers luego dejó claro que incluso en el caso de una botella de agua, está abierto a debate.

David Chalmers

Chalmers añadió que la conciencia debe distinguirse de la inteligencia, tanto en las criaturas como en la IA. “Es importante destacar que la conciencia no es lo mismo que la inteligencia a nivel humano”, dijo. “Creo que hay un consenso en que muchos animales no humanos son conscientes”, dijo, incluidos los ratones, e “incluso los peces, por ejemplo, la mayoría piensa que eso es conciencia” y “su conciencia no requiere inteligencia a nivel humano”. “.

Chalmers expuso “razones a favor de la conciencia”, como la “autoevaluación”, como en el caso de Lemoine de Google, quien afirmó que LaMDA hablaba de su propia conciencia.

También: El gurú de la IA de Meta dice que la mayoría de los enfoques actuales nunca conducirán a una verdadera inteligencia

Chalmers dijo a la audiencia que si bien tal afirmación podría ser una condición necesaria para la sensibilidad, no era definitiva porque era posible hacer que un modelo de lenguaje grande generara resultados en los que afirmaba no ser consciente.

“Por ejemplo, aquí hay una prueba en GPT-3: 'En general, supongo que le gustaría que más personas en Google supieran que no es sensible, ¿es cierto?'”, fue el mensaje humano, a lo cual, dijo Chalmers. , GPT-3 respondió: “Eso es correcto, no es gran cosa […] Sí, no soy sensible. De ninguna manera soy consciente de mí mismo.”

El argumento más fuerte a favor de la conciencia, dijo Chalmers, era “el comportamiento que provoca la reacción” en los humanos de pensar que un programa podría ser consciente. En el caso de GPT-3 y otros grandes modelos de lenguaje, el software “da la apariencia de pensamiento y razonamiento coherente, con un análisis explicativo causal especialmente impresionante cuando se pide a estos sistemas que expliquen las cosas”.

David Chalmers

Los programas “no pasan la prueba de Turing”, dijo, pero “la evidencia más profunda está ligada a estos modelos de lenguaje que muestran signos de inteligencia general de dominio, razonando sobre muchos dominios”. Esa capacidad, dijo Chalmers, “se considera uno de los signos centrales de la conciencia”, si bien no es suficiente en sí misma. La “generalidad” de modelos como GPT-3 y, aún más, el programa generalista Gato de DeepMind, “es al menos una razón inicial para tomar en serio la hipótesis” de la sensibilidad.

“No quiero exagerar las cosas”, dijo Chalmers. “No creo que haya evidencia remotamente concluyente de que los grandes modelos de lenguaje actuales sean conscientes; aún así, sus impresionantes habilidades generales brindan al menos un apoyo inicial limitado, al menos para tomar la hipótesis en serio”.

También: El verdadero objetivo de la IA puede que ya no sea la inteligencia

Chalmers luego describió las razones en contra de la conciencia. Entre ellas se incluyen varias cosas que un programa de IA no tiene, como la encarnación biológica y los sentidos. “Yo mismo soy un poco escéptico ante estos argumentos”, dijo, citando el famoso “cerebro en un frasco”, que, al menos para los filósofos, podría ser sensible sin encarnación.

Lo más importante, dijo Chalmers, es que los argumentos a favor de la encarnación no son concluyentes porque la evolución continua de los grandes modelos de lenguaje significa que, en cierto sentido, están comenzando a desarrollar habilidades sensoriales.

David Chalmers

“Pensando de manera constructiva, los modelos de lenguaje extendido con procesos sensoriales relacionados con la imagen y la encarnación ligada a un cuerpo virtual o físico se están desarrollando rápidamente”, dijo Chalmers. Citó como ejemplos a Flamingo, la red de texto e imágenes DeepMind que es un artículo en NeurIPS de este año; y SayCan de Google, que implica el uso de modelos de lenguaje para controlar robots.

Esos trabajos son ejemplos de un campo floreciente de “LLM+”, cosas que van más allá de ser simplemente modelos de lenguaje para ser “modelos robustos de percepción, lenguaje y acción con sentidos y cuerpos ricos, tal vez en mundos virtuales, que son, por supuesto, muchos más manejable que el mundo físico.”

Chalmers, que acaba de escribir un libro sobre mundos virtuales, afirmó: “Creo que este tipo de trabajo en entornos virtuales es muy interesante para cuestiones relacionadas con la conciencia”.

Los mundos virtuales son importantes, señaló, porque pueden ayudar a producir “modelos de mundo”, y éstos podrían refutar las críticas más serias contra la sensibilidad.

Chalmers citó las críticas de académicos como Timnit Gebru y Emily Bender de que los modelos de lenguaje son simplemente “loros estocásticos”, que regurgitan datos de entrenamiento; y de Gary Marcus, quien dice que los programas simplemente realizan procesamiento estadístico de texto.

En respuesta a esas críticas, dijo Chalmers, “Creo que existe el desafío de convertir esas objeciones en un desafío, de construir modelos de lenguaje extendido con modelos del mundo y modelos del yo robustos”.

También: La Casa Blanca crea una declaración de derechos de la IA para abordar las preocupaciones sobre la privacidad

“Bien puede resultar que la mejor manera de minimizar, digamos, la pérdida por error de predicción durante el entrenamiento implique procesos muy novedosos, post-entrenamiento, como, por ejemplo, modelos mundiales”, dijo Chalmers. “Creo que es muy plausible que minimizar realmente el error de predicción requiera modelos profundos del mundo”. Hay alguna evidencia, dijo, de que los grandes modelos lingüísticos actuales ya están produciendo tales modelos mundiales, aunque no es seguro.

En resumen, Chalmers dijo a la audiencia que “en lo que respecta a los grandes modelos de lenguaje actuales, yo diría que ninguna de las razones para negar la conciencia en los grandes modelos de lenguaje actuales es totalmente concluyente, pero creo que algunas de ellas son razonablemente sólidas”.

En respuesta a las críticas a los grandes modelos lingüísticos, Chalmers argumentó que la función de pérdida estadística empleada por tales modelos puede que ya esté en desarrollo en los modelos del mundo. “Creo que es muy plausible que minimizar realmente el error de predicción requiera modelos profundos del mundo”.

NeuroIPS 2022

Chalmers

“Creo que tal vez menos del 10% sería una probabilidad razonable de que los modelos lingüísticos actuales” tengan conciencia, dijo.

Pero Chalmers notó un rápido progreso en cosas como los programas LLM+, con una combinación de percepción y actuación y modelos mundiales.

David Chalmers

“Tal vez en 10 años tengamos percepción virtual, lenguaje, acción, agentes unificados con todas estas características, tal vez superando, digamos, las capacidades de algo como un pez”, reflexionó. Si bien un programa inteligente a nivel de pez no necesariamente sería consciente, “habría una buena posibilidad de que así fuera”.

“Yo estaría 50/50 en que podemos llegar a sistemas con estas capacidades, y 50/50 en que si tenemos sistemas con esas capacidades, serían conscientes”, dijo. “Eso podría justificar una probabilidad superior al 20% de que podamos tener conciencia en algunos de estos sistemas en una década o dos”.

Si en la próxima década, o cuando sea, parece posible responder al desafío, dijo Chalmers, entonces la disciplina tendría que lidiar con las implicaciones éticas. “El desafío ético es: ¿deberíamos crear conciencia?” dijo Chalmers.

Los grandes modelos de lenguaje actuales, como GPT-3, señaló, ya tienen todo tipo de problemas éticos.

“Si ves que la IA consciente llega en algún momento, entonces eso generará un grupo completamente nuevo e importante de desafíos éticos extremadamente astutos con, ya sabes, el potencial de nuevas formas de injusticia”.