La prueba de un padre, un hijo, un mono y comida que demuestra cómo "razona" la IA de Google

Actualidad23 de diciembre de 2024
589168

El lanzamiento de la familia de modelos de inteligencia artificial Gemini 2.0 de Google destacó por una versión preliminar de Gemini 2.0 Flash Thinking, un modelo que "razona", como también lo hace o1 de OpenAI.

Este modelo ya se puede probar en AI Studio, donde se lo selecciona en la parte derecha en la que podemos elegir el modelo con el que queremos trabajar en cada momento. Al hacerlo, podremos introducir todo tipo de preguntas, pero las que tiene sentido hacer son preguntas matemáticas o de lógica para ver la capacidad del modelo para resolver un problema a partir de la revisión de sus respuestas.

El medio digital Xataka informó que encontró en los foros de Reddit a un usuario que enunciaba en inglés el siguiente problema: un escenario con un padre, un hijo, un mono y comida. Deben cruzar un río y hay varias condiciones para hacerlo de forma adecuada:

Deben cruzar el río en un pequeño bote.
El bote solo puede llevar dos cosas, pero también puede llevar solo una.
El bote no puede cruzar el río por sí mismo.
Solo el padre o el hijo pueden pilotar el bote, y ambos pueden ir juntos si es necesario.
No podés dejar la comida sola con el hijo porque se la come.
No podés dejar la comida sola con el mono porque se la come.

¿Cómo logra el padre cruzar a todos y todo a la otra orilla?: la respuesta de la IA de Google
 Una vez introducido el problema, Gemini analizó primero las instrucciones para desglosarlas, y luego comenzó a "experimentar". Al cabo de menos de un minuto ofreció la solución, que tiene un paso especialmente llamativo:

El padre lleva la comida al otro lado del río.
El padre vuelve solo.
El padre lleva al hijo al otro lado.
El padre vuelve, pero con la comida para evitar que el hijo se la coma.
El padre deja la comida y se lleva al mono al otro lado.
El padre vuelve solo.
El padre lleva la comida al otro lado.

El problema es muy complejo para modelos de este tipo. El medio informó que lo probó con Claude 3.5 Sonnet y este chatbot, tras pensarlo un par de veces, respondió preguntando si el problema era imposible de resolver.

Pruebas como esta demuestran que este tipo de modelos que "razonan" van un paso más allá y son especialmente útiles en este tipo de situaciones. Jeff Dean, científico jefe en DeepMind, indicó en X que este nuevo modelo "está entrenado para usar el pensamiento para fortalecer su razonamiento".

Este tipo de modelos tardan desde luego más en responder, pero es curioso "verlos trabajar" y comprobar cómo van analizando estos problemas para intentar resolverlos.

Nota:iprofesional.com

Te puede interesar