Home Mundo 'Humanos digitales' en un mundo virtual

'Humanos digitales' en un mundo virtual

11
0

Robert Yang fue acosado después de su charla. Acababa de presentar resultados de su compañía. Altera's “Proyecto SID“Para una audiencia de neurocientíficos e investigadores de inteligencia artificial en el 2024 Feminidad Reunión en Cold Spring Harbor Laboratory. Entonces, cuando surgió la oportunidad de tener una discusión de seguimiento con él para El transmisorLo salté.

Para un poco de antecedentes, el proyecto que presentó implicaba simular a 1,000 agentes virtuales y liberarlos en un Minecraft Medio ambiente, y luego volver a aparecer de vez en cuando para ver cómo se iban sus creaciones. La charla de Yang estaba salpicada de videos e historias divertidas de los fascinantes comportamientos colectivos que surgieron. (Puede Mira algunos de ellos en YouTube.) Pero lo que realmente hizo que la gente se interesara fue la seria impresión de que esta podría ser una ruta viable hacia la genuina inteligencia general artificial (AGI).

Desde la llegada de ChatGPT y otros modelos de idiomas grandes (LLM), todos hemos escuchado las predicciones de que AGI está a la vuelta de la esquina. Todo lo que necesitamos es la escala (y el contenido de todo Internet, junto con algunas centrales nucleares dedicadas). Sin embargo, el problema con los LLM es que se las arreglan para saber simultáneamente todo y no saber Lo que significa algo. Al ser entrenados en un vasto corpus de escritos humanos, pueden integrar el conocimiento en una escala que supera a cualquier humano individual y genere una respuesta plausible, incluso perspicaz, a todo tipo de preguntas. Esto hace que parezca que tienen un impresionante modelo mundial—Se como ellos tener una comprensión real. Pero la comprensión en realidad depende de la interpretación de los interlocutores humanos. El sistema en sí no sabe qué significan realmente alguna de las palabras que dice, excepto en referencia a otras palabras. Tiene solo un modelo de mundos autónomo: son los humanos que conectan los conceptos referenciados con el mundo real.

Las perspectivas de que los LLM se convierten en AGI real y autónomo, puramente al escalar, parecen remotas. Después de todo, inteligente es tan inteligente, y los LLM no hacer cualquier cosa. En el contexto de la exageración en torno a estos sistemas, muchos han propuesto un ruta alternativa A AGI: Comience por la construcción Agentes simples con sistemas de control que les permiten Comportarse adaptivamente en algún entorno. Y luego compleificar sus sistemas cognitivos para permitirles comportarse de manera más sofisticada y adaptarse de manera más flexible a situaciones novedosas, es decir, hacerlos más inteligentes.

Cualquien cerró su laboratorio en el Instituto de Tecnología de Massachusetts en diciembre de 2023 para centrarse en Altera, y sus colegas han pasado por alto esta larga recapitulación de la evolución al combinar estos enfoques. Primero, se basaron en el trabajo anterior que Agentes diseñados Con una arquitectura de control cognitivo modular, que incorpora principios importantes de la ciencia cognitiva relacionadas con la consolidación de la memoria, la selección de acción jerárquica y el comportamiento flexible dirigido por objetivos, por ejemplo. En segundo lugar, incluyeron un “controlador de nivel superior”, un módulo con acceso a información de todos los módulos de nivel inferior, filtrados para prominencia e importancia, ya que las situaciones cambiantes exigen. Y tercero, han conectado todo esto, para cada agente, a una instancia de ChatGPT.

El resultado son agentes que son (posiblemente) capaces de razonamiento simbólico abstracto a nivel lingüístico, que ahora es conectado a tierra—Ellinó a los pasos “reales” en su mundo virtual en bloque. Los LLM ya no son cerebros aislados en vat. Ahora están conectados a la matriz. No es solo que estos agentes puedan moverse y perseguir objetivos en este mundo virtual. Ahora pueden razonar sobre esos objetivos. Ellos pueden pensar. Y no piensan solo.

Porque tienen un modelo de idioma, y ​​las palabras en ese idioma ahora se basan en el mundo en el que se mueven, pueden hablar entre sí y saber lo que quieren decir. Cuando un agente le pide a otro que “Give Me un Pickaxe”, ambos saben a qué se refiere “Pickaxe” en el mundo. Cuando uno propone que “vamos a explorar juntos”, ambos saben lo que “explorar” implica en el mundo virtual. Esto también significa que los experimentadores pueden hablar con los agentesprovocándolos con varios objetivos o ideas y usar las increíbles habilidades de juego de roles de ChatGPT para alentar todo tipo de dinámicas sociales interesantes.

Estos desarrollos plantean una serie de preguntas, de los detalles de la arquitectura cognitiva utilizada a cuestiones filosóficas de representación, mente, conciencia, agencia y vida misma. Y, por supuesto, la ética de interpretar a Dios con entidades posiblemente conscientes, lo que Yang llama “humanos digitales”, incluso si solo en un mundo virtual. La conversación que él y yo tuvimos en enero respondimos algunas de mis preguntas técnicas, pero, en todo caso, solo profundizó las filosóficas.

Mira nuestra conversación o leer la transcripción.

Fuente