Ciencia

¡Descubre por qué ChatGPT se enreda con las matemáticas!

2024-10-03

Las matemáticas han sido un desafío para muchas personas desde su juventud. Este es un tema que incluso el popular ChatGPT, un chatbot de OpenAI, parece enfrentar con dificultades. Aunque es experto en generar textos, mantener conversaciones y analizar imágenes, su habilidad para resolver problemas matemáticos es más que cuestionable.

Esta limitación no solo se presenta en matemáticas básicas, como la aritmética y la geometría, sino que se acentúa al recibir preguntas formuladas en lenguaje natural. Por ejemplo, mientras que si le das una simple operación numérica puede responder correctamente, al usar frases en lugar de dígitos, el margen de error aumenta drásticamente.

A primera vista, ChatGPT puede manejar cálculos sencillos bien cuando están expresados en términos numéricos. Sin embargo, en situaciones donde el problema es presentado en un formato más textual, los errores se vuelven la norma, especialmente en problemas más complejos que requieren un razonamiento profundo.

Uno de los factores principales detrás de esta dificultad es el proceso de tokenización, que consiste en descomponer el texto en partes más pequeñas. Aunque esta técnica es eficaz para las palabras, se complica cuando se trata de números. Un ejemplo clásico es cómo el modelo interpreta "380" como un solo token, pero "381" puede descomponerse en "38" y "1", lo que afecta la cohesión en las relaciones matemáticas.

Adicionalmente, ChatGPT funciona como una máquina estadística; en lugar de realizar cálculos como lo haría una calculadora, intenta predecir resultados basándose en patrones que ha aprendido de su entrenamiento. Este enfoque puede resultar en algunas respuestas correctas, pero también da lugar a errores significativos, especialmente en problemas que requieren varios pasos para arribar a la solución final.

Un estudio de Yuntian Deng, profesor en la Universidad de Waterloo, expone que el modelo GPT-4 de ChatGPT tiene menos de un 30% de precisión al resolver problemas de multiplicación con cifras superiores a cuatro dígitos. Esto se debe a que un solo error en un paso intermedio puede alterar completamente el resultado final.

La incapacidad de ChatGPT para seguir el mismo proceso secuencial que adoptan los humanos al resolver problemas matemáticos es otra de las razones de su fracaso. Paul T. von Hippel, desde la Universidad de Texas en Austin, demostró este punto en un artículo donde solicitó a ChatGPT resolver un problema relacionado con el teorema de Pitágoras. Aunque el chatbot explicó correctamente el teorema, cometió errores en cálculos básicos como elevar al cuadrado, una tarea que cualquier calculadora haría sin inconvenientes.

Un desafío adicional se presentó a través de un problema simple: "Una caja tiene 6 bananas y 2 kilos de manzanas. Si cada manzana pesa 200 gramos, ¿cuántas frutas hay en total?" A pesar de que ChatGPT calculó correctamente que 2 kilos equivalen a 2,000 gramos, erróneamente no dividió ese número por 200 gramos por manzana y terminó sumando los pesos, resultando en una cifra equivocada.

Este tipo de fallos se debe a la falta de comprensión del contexto por parte de la IA en problemas matemáticos más desafiantes. No obstante, hay luz al final del túnel. Modelos más avanzados, como el GPT-5 de OpenAI, han empezado a mostrar significativos avances, permitiendo un razonamiento más lógico y secuencial en la resolución de problemas matemáticos.

A medida que la tecnología avanza, se espera que futuras versiones mejoren y logren resolver problemas matemáticos, especialmente aquellos que requieren un razonamiento más profundo, lo que podría marcar un antes y un después tanto para la inteligencia artificial como para el campo de las matemáticas.