Aprendizaje humano: problemas o soluciones

El conflicto es el gatillo que dispara nuestro interés por aprender. Cuando nos topamos con un problema complejo, nuestro cerebro se enciende. Empieza a buscar conexiones, conceptos previos, experiencias pasadas. Esa “lucha productiva” no es un castigo: es el eje de un aprendizaje profundo y duradero. Pero no siempre. No para todos. La comodidad es una droga.

Y hay que tener en cuenta la metacognición. Al resolver un reto, aprendemos a pensar sobre cómo pensamos. Descubrimos vacíos en nuestro conocimiento y desarrollamos estrategias. Memorizamos menos, pero aprendemos más.

Sin embargo, dejar a un aprendiz en la oscuridad total puede ser contraproducente. Especialmente para quien no responde bien a los retos, el apoyo docente es esencial. No hay que entregar la solución en bandeja, pero tampoco hay que exigir que floten en la duda. Proponer ejercicios iniciales, ofrecer pistas y, cuando sea oportuno, mostrar ejemplos trabajados en detalle, es clave.

Como siempre, hay que buscar el equilibrio. Aunque cualquier balance debe ser personalizado. Nunca es para todos igual, ni lo mismo. Tenemos que presentar un problema y dejar que nuestros cerebros aprendan a disecarlo. Ofrecer guías cuando se atoren, pero no antes. Al final, se trata de reforzar nuestras redes neuronales con casos similares para consolidar la comprensión.

La exploración y el descubrimiento fabrican hábitos de pensamiento. Fomentan la creatividad y la capacidad de adaptación. Y, sobre todo, nos entrenan para enfrentar la incertidumbre con solvencia.

Aquí puedes escuchar el podcast de mi artículo «Surgical training and social media: a social perspective«.

How did GPT learn to do simple calculations if it is a large language model?

GPT is a large language model that can generate natural language texts based on a given input. One of the remarkable abilities of GPT is that it can perform simple calculations, such as addition, subtraction, multiplication and division, even though it was not explicitly trained to do so. How did GPT learn to do simple calculations if it is a large language model?

A

One possible explanation is that GPT learned to do simple calculations by exploiting the statistical patterns and regularities in the large corpus of text that it was trained on. For example, GPT may have encountered many examples of texts that contain numerical expressions and their results, such as «two plus two equals four» or «five times six is thirty». By analyzing these texts, GPT may have learned to associate certain words and symbols with mathematical operations and values, and to infer the rules and logic behind them. GPT may have also learned to generalize these rules and logic to new numerical expressions that it has not seen before, such as «three minus one equals two» or «seven divided by two is three point five».

Another possible explanation is that GPT learned to do simple calculations by using its attention mechanism and its large hidden state. The attention mechanism allows GPT to focus on the relevant parts of the input and the hidden state when generating the output. The hidden state is a vector that represents the context and the memory of GPT. By using the attention mechanism and the hidden state, GPT may have learned to encode and manipulate numerical information in a way that resembles arithmetic computation. For example, when GPT encounters an input such as «what is four plus six?», it may use its attention mechanism to identify the numbers and the operation in the input, and use its hidden state to store and update the intermediate and final results of the calculation.