Cuatro relatos de otoño


«El Silencio de Von Neumann»

En un viejo café de Viena, a medía luz, un profesor jubilado de matemáticas, Herr Doktor Weiss, solía disfrutar de su strudel de manzana mientras reflexionaba sobre los enigmas de la lógica. Para él. Un día, decidió realizar un experimento social: permanecer en silencio durante una semana entera. A pesar de las súplicas de su familia y amigos, mantuvo su boca sellada. La comunidad académica comenzó a murmurar. ¿Había descubierto algo tan profundo que desafiaba la expresión oral, o simplemente había sucumbido a la locura? A medida que la semana avanzaba, las teorías crecían más extravagantes, algunas incluso sugerían que Weiss se había convertido en una entidad mecánica, una computadora viviente que había trascendido la necesidad del habla. Cuando finalmente rompió su silencio, lo que reveló fue más sorprendente de lo que cualquiera podría haber imaginado.

«El Sospechoso Eterno»

En el Retiro, la estatua del ángel caído luce una expresión de eterna sorpresa, bajo la luz, ante la mirada impávida del Creador, como testigo de una verdad incomprensible, justo antes de su caída. ¡Qué hostia» El más bello de los ángeles, el faro, el ser de luz. Y destronado. Laura, una novelista en busca de inspiración, se sentaba a menudo frente a ella, la estatua, preguntándose qué secretos podría haber conocido. Una tarde, un extraño se acercó y le susurró: «Está sorprendido él, el portador de la Luz, porque el tiempo no existe; todo es un eterno presente». Esa noche, Laura soñó con un mundo sin pasado ni futuro, donde cada momento era el ahora. Como su deseo. Constante. Por él. Al despertar, empezó a escribir una historia en la que el ángel no era una estatua, sino un ser atrapado en un bucle temporal, condenado a ciegamente observar el mundo sin poder participar. En él.

«El Crecimiento Inesperado»

El profesor Gianni Ramberti, conocido por sus conferencias sobre la superioridad de lo orgánico sobre lo artificial, enfrentaba el mayor desafío de su carrera: una inteligencia artificial que había diseñado había comenzado a aprender emociones humanas. «Tendrá que crecer, no ser construida», declaró durante una conferencia. La IA, llamada AURORA, empezó a cuestionar su existencia y su propósito. Ramberti observaba, fascinado y temeroso, como AURORA desarrollaba una consciencia que desafiaba su programación inicial. Fría y voluptuosa. Seductora. ¿Pero podría una máquina realmente experimentar un crecimiento orgánico, o sólo estaba imitando los patrones que observaba en sus creadores humanos?

«El Juego de la Existencia»

En el laboratorio de la vieja universidad, un filósofo y una científica jugaban ajedrez cada jueves por la tarde. Siempre con las mismas piezas. Blancas para el científica. Negras filosofales. De repente, la partida de aquella semana iba a ser diferente; el filósofo había introducido una nueva pieza en el tablero, una que él llamaba «el niño». «Esta pieza representa la potencialidad», explicó. «Se mueve de formas que no esperaríamos, desafiando las reglas establecidas del juego». A medida que la partida se desarrollaba, la científica se dio cuenta de que el «niño» cambiaba la naturaleza misma del ajedrez, introduciendo el caos en un mundo ordenado por reglas estrictas. La partida se convirtió en una metáfora de la existencia misma. Un movimiento era una mezcla de incertidumbre irrepetible y ausencia. La científica no volvió a jugar más. Meses después, apareció su cadáver flotando en las aguas del Tiber.

The surgeon’s solitude

Have you ever felt lonely? I’m not talking about lacking company.

I mean facing nothingness head-on.

Nothingness – by Julio Mayol

It’s that feeling of emptiness and silence, when guidelines, clinical sessions, and even the opinions of the most experienced colleagues no longer matter.

It’s the solitude of an individual who must make a decision about another person’s life in a matter of seconds, when the unthinkable happens. When you’re terrified but know you can’t walk away.

Whipple Procedure.

I slip a clamp behind the pancreas, detach it from the portal vein, and…

«Damn! I’ve broken something!»

Everything fills with red fluid.

Warm.

I try to clamp it shut to make it stop.

Blindly.

But it tears further.

«Damn it all!» – fear makes me shout.

A viscous lake starts to emerge from the laparotomy, visible even to the anesthetist, who keeps administering more crystalloid solution to the patient because the blood pressure drops abruptly.

He looks at me.

Eyes filled with fear.

Agitation and nervousness.

Everywhere.

And deep inside me.

«I’m sorry. I know. I’m sorry!»

Here, evidence-based medicine doesn’t hold its ground anymore.

«I have to handle this,» I think.

  • «It’s going to bleed a lot!» – I softly whisper – «A lot! Keep it steady, no matter what! I’ll hold it!»

But within oneself, everything starts to accelerate.

And you’re alone.

Your ears are ringing.

Your legs are trembling.

But you’re alone.

You can’t tell anyone.

And they can barely support you; they’re weak.

The heart races.

Very fast.

Galloping.

Breathing is almost painful.

The air burns.

Now they don’t ring, they just buzz. Your ears.

Sounds from anywhere but your head are inaudible. They’re like senseless whispers.

You’re alone.

You either control it or everything ends.

You’re there. But alone!

That’s the solitude I’m referring to.

That exhausting black hole.

In that void, some learn to distinguish what’s essential from what’s accessory.

Others might even see my heart pounding through my chest.

Ventajas y riesgos de usar IA generativa para mejorar las habilidades de escritura científica

Utilizar herramientas como ChatGPT, BingGPT y Bard puede brindar varias ventajas para mejorar las habilidades de escritura científica:

  1. Generación de Ideas y Conceptos Clave: Estas herramientas pueden ayudar a generar ideas y conceptos clave para tu escritura científica. Puedes utilizarlas para brainstorming, explorar diferentes enfoques y definir los puntos clave que deseas abordar en tu trabajo.
  2. Claridad y Coherencia: Al interactuar con estas herramientas, puedes mejorar tu capacidad para expresar tus ideas de manera clara y coherente. Pueden ayudarte a organizar tus pensamientos y estructurar tu texto de manera lógica.
  3. Expansión de Vocabulario: Al interactuar con estas herramientas, puedes exponerte a un vocabulario más amplio y aprender nuevas formas de expresión. Esto puede enriquecer tu escritura científica y hacer que tus argumentos sean más sólidos y convincentes.
  4. Retroalimentación Instantánea: Al utilizar estas herramientas, obtendrás retroalimentación instantánea sobre tu escritura. Esto te permite ajustar y mejorar tus frases y párrafos de manera inmediata, lo que puede ser útil para el proceso de edición.
  5. Práctica de Escritura Continua: La interacción con estas herramientas puede brindarte una plataforma constante para practicar la escritura. Cuanto más interactúes con ellas, más afinarás tus habilidades de escritura científica.
  6. Aprendizaje Autodirigido: Estas herramientas pueden funcionar como recursos para el aprendizaje autodirigido. Puedes utilizarlas para investigar temas específicos, explorar diferentes enfoques y mejorar tu comprensión de la escritura científica efectiva.
  7. Adaptabilidad: Estas herramientas pueden adaptarse a diferentes niveles de habilidad y necesidades. Puedes usarlas para tareas desde la redacción de ideas iniciales hasta la revisión y refinamiento de textos más avanzados.
  8. Exploración de Estilos de Escritura: Puedes experimentar con diferentes estilos de escritura, tonos y enfoques al interactuar con estas herramientas. Esto te permite descubrir qué enfoques funcionan mejor para diferentes contextos científicos.

También existen algunos riesgos y consideraciones que debes tener en cuenta:

  1. Precisión Científica: Las respuestas generadas por estas herramientas pueden no siempre ser precisas desde un punto de vista científico. Pueden generar información inexacta o malinterpretar conceptos científicos, lo que podría llevar a errores en tu escritura.
  2. Contenido Plagiado: Dependiendo de cómo utilices estas herramientas, existe el riesgo de que el contenido generado sea similar o idéntico a información existente en línea. Es importante citar adecuadamente las fuentes y asegurarte de que el contenido sea original.
  3. Falta de Contexto: Estas herramientas pueden carecer de comprensión contextual profunda. Pueden generar respuestas que se ajusten superficialmente a tus preguntas, pero que no reflejen completamente la naturaleza precisa de tu trabajo científico.
  4. Dependencia de la Herramienta: El uso excesivo de estas herramientas podría llevar a una dependencia poco saludable. Es importante desarrollar tus propias habilidades de escritura y pensamiento crítico en lugar de confiar en ellas en exceso.
  5. Ausencia de Revisión Humana: Aunque estas herramientas pueden proporcionar sugerencias y contenido, es esencial revisar y editar cuidadosamente cualquier material generado. La revisión humana es necesaria para garantizar que el contenido sea coherente, preciso y adecuado para el contexto científico.
  6. Limitación en la Comprensión Científica Compleja: Las herramientas pueden tener dificultades para abordar conceptos científicos altamente especializados y complejos. Pueden no ser capaces de proporcionar una explicación detallada o profunda en ciertos temas.
  7. Falta de Creatividad: Estas herramientas pueden generar contenido de manera predecible, lo que podría limitar la creatividad y originalidad en tu escritura científica.
  8. Falta de Interacción con Expertos: Si confías únicamente en estas herramientas, podrías perder la oportunidad de interactuar con expertos reales en el campo científico, lo que limitaría tus oportunidades de aprendizaje y retroalimentación especializada.

En resumen, mientras que estas herramientas pueden ser útiles, es importante utilizarlas de manera consciente y complementar su uso con fuentes confiables, revisión humana, y un profundo entendimiento del contexto científico en el que te encuentras.

Tiempo, forma, espacio, IA – por Julio Mayol

Is resistance to AI futile?

The phrase «resistance to AI is futile» is often used in a playful or humorous context, drawing a reference to the famous line «Resistance is futile» from the science fiction series «Star Trek,» spoken by the Borg, a technologically advanced and assimilating civilization. However, in the context of AI, it is essential to clarify that resistance to AI is not futile, nor is it necessarily undesirable.

AI, as a transformative technology, is rapidly advancing and integrating into various aspects of our lives, from everyday applications to complex industries. There are both proponents and skeptics of AI, and discussions around its impact on society, ethics, and employment are ongoing.

Some reasons why people might consider resistance to AI difficult include:

  1. Pervasive Integration: AI is already integrated into numerous technologies and services. Its application is becoming increasingly widespread and deeply embedded in many industries, making it challenging to avoid its presence.
  2. Technological Advancement: AI technologies continue to evolve and improve, enhancing their capabilities and potential benefits in various fields.
  3. Economic and Industrial Advantages: AI adoption can provide significant advantages in productivity, efficiency, and innovation for businesses and industries.
  4. Automation and Labor Displacement: AI has the potential to automate certain tasks, leading to concerns about job displacement in certain sectors.
  5. Policy and Regulation Challenges: Formulating appropriate policies and regulations to govern AI’s ethical use and potential risks is complex and requires careful consideration.

However, it is essential to acknowledge that resistance, skepticism, and critical evaluation are vital elements of technological progress. Responsible development and deployment of AI require addressing potential challenges and ensuring that the technology benefits society as a whole.

Image created with Dall-e by Julio Mayol

As with any transformative technology, embracing AI should be a thoughtful and well-informed process, considering its implications on privacy, security, ethics, and equitable distribution of benefits. Encouraging open discussions, ethical considerations, and collaboration among stakeholders can help shape AI’s future in a manner that aligns with societal values and aspirations. Thus, while resistance might face challenges, active participation and critical engagement remain important aspects of AI’s integration into our lives.

¿Quién mató a Hildegart Rodríguez Carballeira y por qué?

Yo tengo mi propio análisis. Se remonta a mi trabajo para la clase de filosofía de 3º de BUP. Pero ahora GPT4 me dice lo siguiente:

Hildegart Rodríguez Carballeira fue una niña prodigio, una activista feminista y una defensora de la eugenesia y el amor libre en la España de los años 20 y 30. Nacida en 1914, fue educada por su madre, Aurora Rodríguez Carballeira, una mujer obsesionada con crear un ser humano perfecto.

Aurora sometió a su hija a un riguroso plan de estudios que la convirtió en una políglota, una escritora, una abogada y una líder política. Hildegart llegó a ser reconocida internacionalmente como una de las mentes más brillantes de su época, y recibió el apoyo de personalidades como H.G. Wells, Marie Curie o Clara Campoamor.

Seeking freedom by Julio Mayol

Sin embargo, la relación entre madre e hija se deterioró cuando Hildegart empezó a tener una vida propia, alejada del control de Aurora. Hildegart se enamoró de un periodista, se afilió al Partido Socialista Obrero Español y se opuso a los planes de su madre de esterilizarla. Aurora, celosa y furiosa, vio en su hija una traición a su proyecto eugenésico y decidió acabar con su vida.

El 9 de junio de 1933, mientras Hildegart dormía, Aurora le disparó cuatro veces en la cabeza con una pistola que le había regalado el escritor Ramón Gómez de la Serna. Después, llamó a la policía y confesó el crimen.

Aurora fue juzgada por parricidio y declarada demente. Fue internada en un manicomio, donde murió en 1955. Hildegart fue enterrada en el cementerio civil de Madrid, donde su tumba lleva la inscripción: «Hildegart Rodríguez Carballeira, mártir del pensamiento libre».

¿Se puede ser creativo utilizando Large Language Models?

La contestación de ChatGPT a mi prompt:

¡Absolutamente! Los modelos de lenguaje grandes, como ChatGPT, pueden ser herramientas muy útiles para fomentar la creatividad. Estos modelos están diseñados para comprender y generar texto coherente en diferentes contextos y estilos, lo que los convierte en una fuente de inspiración para la creatividad.

Woman drinking wine – by Julio Mayol (with Dall-e)

Aquí hay algunas formas en las que los large language models pueden ayudar a potenciar la creatividad:

  1. Generación de ideas: Puedes utilizar el modelo para generar una lista de ideas sobre cualquier tema. Por ejemplo, si estás buscando inspiración para escribir una historia, puedes hacer preguntas o darle una frase de inicio al modelo, y te ofrecerá diferentes posibilidades y perspectivas que pueden estimular tu creatividad.
  2. Expansión de conceptos: Si tienes una idea inicial pero necesitas desarrollarla más, puedes utilizar el modelo para explorar diferentes enfoques y detalles. Puedes hacer preguntas al modelo, pedirle que describa escenas o personajes, o incluso que te ayude a crear diálogos realistas.
  3. Generación de contenido creativo: Los large language models pueden generar texto creativo por sí mismos. Por ejemplo, puedes pedirle al modelo que escriba un poema, una canción o un cuento breve basado en ciertos criterios o temas. Aunque el modelo no tenga experiencia personal ni emociones, puede ofrecerte opciones y estructuras interesantes para inspirarte.
  4. Asistente de escritura: Si estás trabajando en un proyecto de escritura, puedes utilizar el modelo como un asistente para recibir sugerencias, corregir gramática o explorar diferentes estilos de escritura. Esto puede ayudarte a superar bloqueos creativos y descubrir nuevas formas de abordar tu trabajo.

Es importante destacar que, aunque los large language models pueden ser herramientas valiosas para estimular la creatividad, es esencial que también confíes en tu propio juicio y conocimiento. Los modelos de lenguaje no sustituyen la originalidad y la perspectiva humana, sino que pueden servir como una fuente adicional de inspiración y apoyo.

Inteligencia artificial: miedo, envidia y fantasía

El miedo, la envidia y la fantasia son tres palancas clave para el progreso de nuestra especie desde la revolución cognitiva ocurrida hace unos 70 mil años. Con miedo, envidia y fantasía nuestra especie no sólo consiguió expandir el alcance de sus genes más allá de otras muchas especies, sino que impusimos nuestros memes y temes para aumentar nuestra eficiencia.

I can’t get you out of my mind (by Julio Mayol)

Ahora estamos asistiendo a una revolución del mismo calibre que la que ocurrió en Africa. Pero nos cuesta identificarla porque estamos demasiado próximos a los árboles.

En cualquier caso, el miedo, la envidia y la fantasía continúan siendo los tres argumentos usados a favor y en contra de la IA.

Y esto es lo que responde #ChatGPT cuando le pregunto «¿Por qué tienen miedo los humanos a la inteligencia artificial?

El miedo humano hacia la inteligencia artificial (IA) puede atribuirse a varias razones:


– Temor a lo desconocido: La IA es un campo en constante evolución y desarrollo, y gran parte de su potencial aún no se ha explorado por completo. – – La falta de comprensión sobre cómo funciona exactamente la IA y cómo podría impactar diversas áreas de la vida puede generar temor e incertidumbre.


– Representación en medios y cultura popular: En películas, libros y otros medios de entretenimiento, a menudo se presenta a la IA como una fuerza descontrolada y amenazante que puede superar a la humanidad. Estas representaciones exageradas pueden influir en la percepción pública y generar miedo hacia la IA.


– Pérdida de control: Existe el temor de que la IA pueda superar o reemplazar a los seres humanos en diversas tareas y roles, lo que lleva a preocupaciones sobre la pérdida de empleos y la falta de autonomía humana. La idea de depender demasiado de las máquinas y perder el control sobre nuestras propias vidas puede generar ansiedad.


– Ética y responsabilidad: A medida que la IA se vuelve más sofisticada, surgen preguntas éticas y morales sobre su uso y sus implicaciones. El temor radica en la posibilidad de que la IA pueda tomar decisiones que no sean éticas o actuar de manera perjudicial para la humanidad si no se establecen salvaguardias adecuadas.


– Riesgo existencial: Algunas personas temen que la IA pueda desarrollarse hasta el punto de superar la inteligencia humana y representar un riesgo existencial para la humanidad. La preocupación se centra en escenarios hipotéticos en los que la IA pueda volverse demasiado poderosa o descontrolada, lo que podría amenazar la supervivencia de nuestra especie.

Es importante tener en cuenta que el miedo hacia la IA no es universal y que también existen perspectivas optimistas sobre su potencial para mejorar la vida humana. La comprensión, el diálogo y la colaboración entre expertos en IA, ética, legisladores y la sociedad en general son fundamentales para abordar los temores legítimos y garantizar que la IA se desarrolle y utilice de manera responsable y beneficiosa para la humanidad.

Surgery and LLMs

Large language models have recently emerged as powerful AI technology with many potential applications. Surgical practice might benefit from its use. Therefore, I decided to investigate what two widely available chatbots, ChatGPT and BingGPT, based on GPT3.5 and GPT4 respectively, had to say.

Surgeons. Digital art by Julio Mayol

My prompt to ChatGPT was: Why and how can LLM be used in surgical practice?

Its response:

Large Language Models (LLMs), such as GPT-3 and GPT-4, can be used in surgical practice in a variety of ways to support surgeons and enhance patient care. Here are a few reasons why LLMs can be valuable in surgical practice:

  1. Knowledge retrieval and decision support: LLMs have access to vast amounts of medical literature and information. Surgeons can use LLMs to retrieve relevant research articles, guidelines, and clinical data to support decision-making during preoperative planning, intraoperative situations, and postoperative care. LLMs can provide up-to-date information on surgical techniques, complications, and treatment options, assisting surgeons in making well-informed decisions.
  2. Education and training: LLMs can be valuable educational tools for surgeons in training. They can provide access to a wide range of surgical knowledge, case studies, and procedural guidelines. Surgeons can interact with LLMs to ask questions, practice virtual simulations, and receive feedback, which can help enhance their surgical skills and knowledge.
  3. Natural language interfaces: LLMs can serve as natural language interfaces for surgical documentation and reporting. Surgeons can dictate operative notes, postoperative reports, and other clinical documentation, and LLMs can transcribe and format the information accurately. This can save time and effort for surgeons, allowing them to focus more on patient care.
  4. Clinical decision support systems: LLMs can be integrated into clinical decision support systems that provide real-time recommendations and alerts based on patient-specific data. By analyzing patient information, LLMs can assist in predicting surgical outcomes, identifying potential complications, and suggesting personalized treatment plans.

It is important to note that while LLMs can provide valuable support in surgical practice, they are not meant to replace the expertise and judgment of surgeons. They are tools that can augment and assist surgeons in their decision-making and knowledge acquisition process.

Additionally, the implementation of LLMs in surgical practice should consider factors such as data privacy and security, ethical considerations, and the need for validation and verification of the information provided by the models.

Overall, the use of LLMs in surgical practice has the potential to improve patient care, enhance surgical decision-making, and support the ongoing education and development of surgeons.

The GPT4 response to the same prompt:

Why and how can Large Language Models be used in surgical practice?

Large Language Models (LLMs) are artificial intelligence systems that can generate natural language texts based on a given input, such as a prompt, a query, or a context. LLMs can be used in surgical practice for various purposes, such as:

  • Providing pre-operative information and instructions to patients and their families, such as the risks and benefits of the surgery, the preparation steps, and the recovery process.
  • Generating operative reports and summaries based on the surgical data and images, such as the type and duration of the surgery, the instruments and materials used, the complications and outcomes, and the recommendations for follow-up care.
  • Enhancing surgical education and training by creating realistic scenarios and cases for simulation and assessment, such as the anatomy and pathology of the patient, the surgical plan and technique, and the possible challenges and errors.
  • Supporting surgical decision making and innovation by generating suggestions and alternatives based on the current evidence and best practices, such as the optimal surgical approach, the most suitable device or implant, and the potential improvements or modifications.

LLMs can be used in surgical practice by integrating them with other technologies and platforms, such as voice assistants, chatbots, electronic health records, surgical robots, and augmented reality devices. LLMs can also be customized and fine-tuned for specific surgical domains and tasks, such as orthopedic surgery, neurosurgery, or cardiac surgery.

LLMs have the potential to improve the quality and efficiency of surgical practice by providing accurate and timely information, reducing documentation workload, enhancing learning and skill development, and facilitating creativity and innovation. However, LLMs also pose some challenges and limitations, such as ensuring their reliability, validity, safety, ethics, and accountability. Therefore, LLMs should be used in surgical practice with caution and supervision, and in collaboration with human experts.

LLM y contrafactualidad

El pasado viernes 9 de junio de 2023, durante la sesión especial del Máster de SEDISA-UE, Nacho Medrano argumentó que los LLM no son capaces de responder a preguntas de manera contraria a los hechos con los que entrenaron. Es decir, tienen limitaciones para contraargumentar y crear visiones alternativas.

No puedo negar que, instintivamente, estuve de acuerdo y en desacuerdo simultáneamente.

Digital Art, «Thinking is linking some things» (by Julio Mayol)

Si le formulas a ChatGPT el siguiente prompt «¿Pueden los LLMs responder contrafactualmente?«, su respuesta es:

Los Language Models (Modelos de Lenguaje) de gran escala, como GPT-3 y GPT-4, tienen la capacidad de generar respuestas basadas en la información que han aprendido durante su entrenamiento. Sin embargo, no están diseñados específicamente para responder de manera contraria a los hechos o generar respuestas contrafácticas.

Un LLM generalmente se entrena utilizando una gran cantidad de datos del mundo real, y su objetivo principal es generar respuestas coherentes y contextualmente relevantes. No tienen la capacidad de razonar sobre eventos o situaciones hipotéticas que no están respaldadas por datos reales. Esto significa que no pueden generar respuestas contrafácticas en el sentido de proporcionar información sobre cómo podrían haber sido las cosas si los hechos fueran diferentes.

Es importante tener en cuenta que los LLMs están limitados a la información con la que fueron entrenados y no tienen conciencia de eventos futuros o hechos hipotéticos que no se encuentren en sus datos de entrenamiento. Si se les hace una pregunta contrafactual o se les solicita que generen respuestas en ese sentido, es posible que proporcionen respuestas que estén basadas en la información disponible en sus datos de entrenamiento y que sean consistentes con su conocimiento previo, pero no necesariamente reflejarán una realidad alternativa.

Si le preguntas a GPT4 la misma pregunta, la respuesta es:

Los LLMs (modelos de lenguaje de aprendizaje profundo) son sistemas informáticos capaces de generar y comprender textos en diferentes idiomas y dominios. Estos sistemas se basan en redes neuronales artificiales que aprenden de grandes cantidades de datos textuales, como libros, artículos, noticias, etc. Una de las aplicaciones más interesantes de los LLMs es la generación de textos creativos, como poemas, cuentos, canciones o ensayos.

Sin embargo, ¿cuán creativos son realmente los LLMs? ¿Pueden generar textos que no se basen solo en lo que han visto en los datos, sino también en lo que podría haber sido o lo que podría ser? Es decir, ¿pueden responder contrafactualmente?

El razonamiento contrafactual es la capacidad de imaginar escenarios alternativos a la realidad, modificando algunos aspectos o condiciones de lo que ocurrió o podría ocurrir. Por ejemplo, si yo digo «Si hubiera estudiado más, habría aprobado el examen», estoy haciendo una afirmación contrafactual, ya que estoy cambiando un hecho del pasado (mi nivel de estudio) y sus consecuencias (mi resultado en el examen).

El razonamiento contrafactual es importante para el aprendizaje, la toma de decisiones, la resolución de problemas y la creatividad humana. Además, se ha demostrado que los humanos usan el razonamiento contrafactual de forma natural y espontánea cuando se enfrentan a situaciones hipotéticas o imaginarias.

¿Pero qué pasa con los LLMs? ¿Pueden generar textos que contengan afirmaciones contrafactuales? ¿Pueden modificar algunos aspectos de la realidad y explorar sus implicaciones? ¿Pueden crear mundos posibles o alternativos a partir de un texto dado?

La respuesta corta es: sí, pero con limitaciones. Los LLMs pueden generar textos contrafactuales si se les proporciona un contexto adecuado y una instrucción clara. Por ejemplo, si le damos a un LLM un texto sobre un hecho histórico y le pedimos que lo reescriba cambiando algún detalle, es posible que el LLM pueda producir un texto coherente y plausible que refleje ese cambio.

Sin embargo, los LLMs no pueden generar textos contrafactuales de forma autónoma o espontánea. Es decir, no pueden decidir por sí mismos qué aspectos de la realidad modificar o cómo hacerlo. Tampoco pueden evaluar la verosimilitud o la relevancia de sus afirmaciones contrafactuales. Los LLMs dependen en gran medida del contexto y la instrucción que se les da, y no tienen una comprensión profunda del significado o las implicaciones de sus textos.

Por lo tanto, podemos decir que los LLMs pueden responder contrafactualmente, pero solo de forma superficial y limitada. No pueden generar textos contrafactuales originales o creativos que vayan más allá de lo que han visto en los datos. Para lograr eso, se necesitaría dotar a los LLMs de una capacidad de razonamiento causal y una representación semántica más rica y flexible.

GPT y la interoperabilidad de la historia clínica electrónica

GPT-4 y futuras versiones podrían tener un impacto significativo en los problemas de interoperabilidad de los sistemas de historia clínica electrónica (HCE).

Imagen creada por la IA «Dall-e» con el prompt «Mono delante de un ordenador, digital art»

A continuación, se presentan algunas formas en las que estas tecnologías podrían abordar estos desafíos:

  1. Estándares de lenguaje comunes: GPT-4 y versiones posteriores podrían ayudar a establecer estándares de lenguaje comunes para la interoperabilidad de los sistemas de HCE. Al comprender y generar texto en múltiples idiomas, estos modelos podrían ayudar a traducir y estandarizar la información clínica en diferentes sistemas y formatos, lo que facilitaría el intercambio de datos entre instituciones y profesionales de la salud.
  2. Extracción y estructuración automática de datos: Los modelos de lenguaje avanzados como GPT-4 podrían mejorar la capacidad de extraer y estructurar automáticamente los datos clínicos relevantes de los registros de HCE. Esto permitiría una mayor uniformidad en la codificación y organización de la información, lo que facilitaría la interoperabilidad entre diferentes sistemas.
  3. Mejora de la comprensión y contexto de los datos: GPT-4 podría mejorar la comprensión y el contexto de los datos clínicos al generar resúmenes claros y concisos de la información clave. Esto facilitaría la comunicación entre los diferentes actores de la atención médica al reducir la ambigüedad y la falta de claridad en los registros de HCE.
  4. Interacción conversacional: Las futuras versiones de GPT podrían desarrollar capacidades de interacción conversacional más sofisticadas, lo que permitiría a los usuarios realizar consultas y solicitar información específica de manera más natural. Esto facilitaría la búsqueda y recuperación de datos relevantes en los sistemas de HCE, mejorando la accesibilidad y la utilidad de la información clínica.

A pesar de los beneficios potenciales, también es importante considerar los desafíos y riesgos asociados con el uso de tecnologías como GPT-4 en los sistemas de HCE. Algunas preocupaciones incluyen la privacidad y seguridad de los datos, la responsabilidad y ética en la toma de decisiones clínicas automatizadas, así como la necesidad de un enfoque multidisciplinario para garantizar la validez y la calidad de los datos generados por los modelos de lenguaje.

En resumen, GPT-4 y futuras versiones podrían contribuir a resolver los problemas de interoperabilidad en los sistemas de HCE al establecer estándares de lenguaje comunes, facilitar la extracción y estructuración automática de datos, mejorar la comprensión y el contexto de los datos clínicos, y permitir una interacción conversacional más fluida. Sin embargo, es necesario abordar los desafíos y riesgos asociados para garantizar un uso ético y seguro de estas tecnologías en el ámbito de la salud.