domingo, septiembre 29

De Baby Talk a Baby AI

Nos pedimos mucho a nosotros mismos cuando somos bebés. De alguna manera, debemos pasar de ser masas sensoriales a comunicadores móviles, racionales y atentos en tan sólo unos años. Ahí estás, un bebé sin vocabulario, en una habitación llena de juguetes y peluches. Coges un tronco de Lincoln y tu cuidador dice: “Esto es un ‘registro’. Al final, comprenderá que “tronco” no se refiere estrictamente a este cilindro de plástico marrón en particular ni a los cilindros de plástico marrón en general, sino a los cilindros de plástico marrón que encarnan las características de las partes de árboles talados y despojados, que también son, por supuesto, ” registros”.

Ha habido mucha investigación y un acalorado debate sobre cómo los bebés logran esto. Algunos científicos han argumentado que gran parte de nuestra adquisición del lenguaje puede explicarse mediante el aprendizaje asociativo, en el sentido de que asociamos sonidos con sensibilidades, de forma muy parecida a como los perros asocian el sonido de una campana con la comida. Otros sostienen que existen características inherentes a la mente humana que han dado forma a las formas de todos los idiomas y son cruciales para nuestro aprendizaje. Otros dicen que los niños pequeños desarrollan su comprensión de palabras nuevas además de su comprensión de otras palabras.

Este discurso avanzó hace poco un domingo por la mañana, cuando Tammy Kwan y Brenden Lake entregaban moras de un cuenco a la boca de su hija Luna, de veintiún meses. Luna estaba vestida con calzas rosas y un tutú rosa, con un babero de silicona alrededor del cuello y un sombrero rosa suave en la cabeza. En la parte delantera se colocó una cámara liviana estilo GoPro.

“Babooga”, dijo, señalando las bayas con un dedo redondo. El Dr. Kwan le dio el resto y el Dr. Lake miró divertido el cuenco vacío. “Eso es alrededor de $10”, dijo. Una luz en la cámara brilló.

Durante una hora cada semana durante los últimos 11 meses, el Dr. Lake, psicólogo de la Universidad de Nueva York cuya investigación se centra en la inteligencia humana y artificial, conectó una cámara a Luna y grabó cosas desde su punto de vista mientras jugaba. Su objetivo es utilizar los vídeos para entrenar un modelo de lenguaje utilizando la misma información sensorial a la que está expuesto un niño pequeño: un LunaBot, por así decirlo. Al hacerlo, espera crear mejores herramientas para comprender tanto la IA como a nosotros mismos. “Consideramos que esta investigación finalmente establece esa conexión entre estas dos áreas de estudio”, dijo el Dr. Lake. “Por fin podemos ponerlos en diálogo entre ellos. »