¿Puede la IA “entender” el mundo?
A priori, todos pensamos que solo los humanos somos capaces de entender el mundo, pero creedme, a veces, ni nosotros mismos lo entendemos…
Más allá de esta simple reflexión mañanera, lo que queremos decir es que, si le pedimos a Chat GPT que huela la hierba mojada, muy amablemente nos dirá que no puede hacer eso, pero sí nos describirá ese aroma, y además de una forma muy poética.(Probadlo y veréis que es así).
Nos describirá perfectamente cómo es ese aroma sin tener por supuesto una nariz con la que haber podido olerlo previamente. Pero el hecho de que pueda describirlo con tanto detalle se debe a que imita textos extraídos de sus datos de entrenamiento, y no a una comprensión real del olor.
En base a esto, se podría decir que los modelos de lenguaje nunca podrán llegar a entender que un león es más grande que un gato, por ejemplo. Algo que sí podemos hacer los humanos y que los científicos consideran que es un sello distintivo de la inteligencia humana.
Sin embargo, siempre hay quien va más allá, que no se conforma. En este caso, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT, se preguntaron qué “ingredientes” esenciales nos permitían a los humanos comprender estos hechos.
Estos investigadores realizaron un estudio que sugiere que los grandes modelos de lenguaje (LLM) pueden estar desarrollando su propia comprensión de la realidad. Para ello, entrenaron a un LLM en la resolución de acertijos de navegación de robots.
Hasta aquí, todos pensaríamos que la única forma de que el modelo diese una respuesta correcta sería que antes hubiera habido un proceso de aprendizaje, sin embargo, sorprendentemente, comenzó a averiguar cómo debía moverse el robot sin que se le hubiera enseñado directamente.
Este hecho, ya de por sí insólito, insinúa que la IA podría estar desarrollando su propio sentido de cómo funcionan las cosas en el mundo y no solo repitiendo lo que ha visto con anterioridad.
Este hallazgo desafía la creencia común que teníamos todos de que los LLM son solo loros sofisticados que repiten lo que aprenden. Todo apunta a que podrían estar comenzando a comprender los conceptos de una forma más profunda y similar a cómo lo hacemos los humanos.
¿No os da un poquito de vértigo?
