Qué es y por qué es importante
Qué es y por qué es importante
Conclusiones clave
- La cognición encarnada muestra cómo la presencia física influye en la toma de decisiones.
- Dotar de sentidos al software de IA es vital para crear una máquina pensante.
- Las simulaciones virtuales aceleran el aprendizaje de la IA antes de que los robots físicos sean comunes.
Cuando piensas en “IA” hoy en día, probablemente estés pensando en una aplicación en tu teléfono con la que puedas chatear o crear imágenes basadas en un mensaje de texto. Sin embargo, la IA es un campo amplio y variado, y con los avances en la robótica, estamos a punto de darles a nuestros amigos de la IA cuerpos físicos reales, lo que podría cambiar las reglas del juego para su desarrollo.
Un cuerpo da forma a una mente
Imagina por un segundo que tu cerebro fuera trasplantado a un delfín, a un oso o a cualquier animal que te guste. La forma en que ves el mundo, cómo funciona tu cuerpo y la naturaleza de tu presencia física tendrían un efecto psicológico en ti, ¿no es así? Incluso usar la realidad virtual para “intercambiar” tu género durante unos minutos puede tener un efecto en cómo tomas decisiones.
Estos son ejemplos de lo que los psicólogos llaman cognición encarnada. Este enfoque para comprender cómo pensamos nosotros (y otros organismos vivos) tiene sus raíces en la idea de que la naturaleza de nuestro cuerpo físico y nuestros sentidos tiene un efecto en el tipo de mente que desarrollamos. Fundamentalmente determina cómo piensas, cómo tomas decisiones y cómo ves el mundo.
Ahora bien, no quiero establecer paralelos estrictos entre animales biológicos como nosotros y el naciente software de IA, pero hay buenas razones para pensar que una vez que el software de IA esté “incorporado” cambiará la naturaleza de esa IA.
Cerebros en frascos
Si tomas algo como un LLM (Modelo de lenguaje grande), es una enorme red neuronal artificial que ha sido moldeada y entrenada a partir de conceptos abstractos como palabras, gramática, lógica y otras cosas simbólicas. Es como un cerebro en un frasco sin sentidos ni medios para interactuar con el mundo exterior, aparte de las indicaciones que le damos.
Ahora, poco a poco, hemos ido dotando a estas redes neuronales simuladas de “sentidos” que les permiten comprender imágenes y sonidos. Un ejemplo muy rudimentario de esto es cómo Boston Dynamics combinó su robot Spot con ChatGPT, que permite al robot mirar alrededor de su entorno, hablar e interactuar con personas. Esto es sólo un truco de salón, por supuesto, pero tiene mucho éxito a la hora de crear la ilusión de una máquina pensante. Si miras el video a continuación, incluso hay evidencia de un comportamiento “emergente” bastante interesante, donde el robot Spot con GPT exhibe algunas cosas inesperadas, pero lógicas, que sus creadores no previeron.
Vivir en una simulación
Antes de llegar a los robots físicos reales y cómo eso será un gran problema pronto, en realidad hay un paso intermedio para darle a la IA cuerpos físicos reales. Ahora es una práctica común dejar que el software de IA aprenda dentro de una simulación virtual del mundo real.
Al poner cuerpos de robots simulados bajo el control de un software de inteligencia artificial, puede obtener años y años de aprendizaje en horas. Esto no sólo acelera enormemente la rapidez con la que el software de IA puede aprender a mover un cuerpo en un entorno, sino que también es mucho más barato que poner en riesgo un hardware robótico de 100.000 dólares sólo para aprender a no caerse.
Hacerse presente en el mundo
En su mayor parte, los modelos modernos de IA se han entrenado con conjuntos de datos abstractos y masivos. Es como si todo lo que has aprendido en tu vida fuera indirecto, leyendo libros o viendo vídeos. Una vez que incorpora el software de aprendizaje, cambia ese aprendizaje de indirecto a experiencial. Supongamos que tuvieras miles de robots domésticosquienes están recopilando datos del mundo real para mejorar el software que los ejecuta. Estos nuevos datos se basan en “experiencias” de primera mano en conjunto. Por lo tanto, potencialmente cientos o miles de años de datos de aprendizaje incorporados del mundo real remodelan los modelos de IA que impulsan el hardware.
Simplemente no veo que este cambio cualitativo en los datos no tenga ningún efecto sobre la naturaleza del modelo. Pasarlo de lo abstracto a lo concreto y hacer de la IA algo moldeado por su entorno (al igual que nosotros y cualquier otra criatura viviente en la Tierra) alterará la naturaleza de esa IA.
Estamos a sólo unos años de que el hardware robótico capaz sea asequible para los hogares y de que robots autónomos versátiles como el Figura 02 Se están probando en fábricas mientras escribo esto.
Por lo tanto, no se sorprenda si comienza a ver máquinas en la naturaleza haciendo todo tipo de trabajos extraños y aprendiendo de los golpes realmente duros de la vida, tal como usted y yo.