How are generative artificial intelligence models different?

The same prompt, three different responses from three different Large Languages Models (LLM) that are easily available: ChatGPT, BingGPT and Bard.

Human large language models

Prompt: How are ChatGPT, BingGPT and Bard different?

ChatGPT

ChatGPT, BingGPT, and Bard are three distinct language models developed by OpenAI, and GooogleAI, each with its own characteristics and intended applications. Here are the key differences between them:

  1. Purpose and training data:
    • ChatGPT: ChatGPT is designed to engage in conversation with users and provide useful responses across a wide range of topics. It has been trained on a mixture of licensed data, data created by human trainers, and publicly available text from the internet.
    • BingGPT: BingGPT is a language model developed specifically to assist with search-related tasks. It has been trained using a diverse range of internet text, including web pages, search queries, and search result pages.
    • Bard: Bard is a language model trained to generate poetic text. It focuses on mimicking different poetic styles, structures, and themes. It has been trained on a curated dataset of high-quality poetry from diverse sources.
  2. Output style and focus:
    • ChatGPT: ChatGPT aims to provide informative and practical responses in a conversational manner. It is designed to generate text that is helpful, engaging, and contextually relevant.
    • BingGPT: BingGPT is tailored for search-related tasks and is intended to generate responses that assist users in finding information or performing specific search-related functions.
    • Bard: Bard is specifically trained to generate poetic text, with a focus on creating expressive, aesthetic, and emotionally evocative poetry.
  3. Use cases:
    • ChatGPT: ChatGPT can be used in various applications involving interactive dialogue, such as chatbots, virtual assistants, and customer support systems. It is suitable for providing conversational responses to user queries.
    • BingGPT: BingGPT is primarily designed to enhance search experiences by providing more accurate and contextually relevant search results, assisting with search queries, or generating snippets for search results.
    • Bard: Bard can be used in applications related to creative writing, poetry generation, and artistic expression. It can assist poets, writers, and artists in generating poetic text or serve as a source of inspiration.

These models have different focuses and are trained on different datasets, enabling them to serve distinct purposes. It’s important to consider these differences when choosing the most appropriate model for a specific use case or application.

BingGPT

ChatGPT, BingGPT and Bard are three different models of natural language generation (NLG) that have been developed by OpenAI, Microsoft Research and GoogleAI, respectively. NLG is the task of generating natural language text from some input, such as keywords, images, or structured data. Each of these models has its own strengths and limitations, and they are designed for different purposes and scenarios.

ChatGPT is a model that specializes in conversational text generation. It can generate realistic and engaging dialogues between two or more agents, such as humans or chatbots. ChatGPT is based on the GPT-3 architecture, which uses a large-scale neural network to learn from a massive corpus of text data. ChatGPT can handle various topics, languages, and styles of conversation, and it can also generate creative content such as jokes, stories, or poems.

BingGPT is a model that focuses on web search and information retrieval. It can generate relevant and informative responses to user queries, such as facts, summaries, definitions, or suggestions. BingGPT is also based on the GPT-3 architecture, but it has been fine-tuned on a large collection of web documents and search results. BingGPT can leverage the rich information available on the web to provide comprehensive and accurate answers to user questions.

Bard is a model that excels in generating artistic and literary text. It can generate original and diverse content such as lyrics, essays, speeches, or novels. Bard is based on the Transformer-XL architecture, which uses a recurrent neural network to capture long-term dependencies and coherence in text. Bard can learn from various sources of text data, such as books, articles, or social media posts, and it can generate text with different genres, themes, and emotions.

Bard

ChatGPT, BingGPT, and Bard are all large language models (LLMs) that have been trained on massive datasets of text and code. They can all generate text, translate languages, write different kinds of creative content, and answer your questions in an informative way. However, there are some key differences between the three models.

ChatGPT is a model generative pre-trained transformer developed by OpenAI. It is trained on a dataset of text and code that includes a lot of conversation data. This means that ChatGPT is very good at generating text that is conversational and engaging. However, ChatGPT can also be sessed and can generate text that is offensive or harmful.

BingGPT is a model that is based on the same GPT-4 technology as ChatGPT, but it has been trained on a dataset that includes more information about the real world. This means that BingGPT is more likely to generate text that is factual and accurate. However, BingGPT is not as good at generating text that is creative or engaging as ChatGPT.

Bard is a model that is based on Google’s own LaMDA language model. LaMDA is a factual language model that has been trained on a massive dataset of text and code. This means that Bard is very good at generating text that is factual and accurate. However, Bard is also good at generating text that is creative and engaging. Additionally, Bard has access to the information of the world real through Google Search, which allows it to provide more comprehensive and informative answers to your questions.

In general, Bard is a more comprehensive and informative model than ChatGPT or BingGPT. It is less likely to generate text that is offensive or harmful, and it has access to the information of the world real through Google Search. However, ChatGPT is better at generating text that is conversational and engaging, while BingGPT is more likely to generate text that is factual and accurate.

Here is a table that summarizes the key differences between ChatGPT, BingGPT, and Bard:

FeatureChatGPTBingGPTBard
DeveloperOpenAIMicrosoftGoogle AI
ModelGPT-3.5GPT-4LaMDA
DataText and codeText and codeText and code, as well as information of the world real through Google Search
StrengthsConversational, engagingFactual, accurateComprehensive, informative
WeaknessesCan be sessedNot as good at generating creative or engaging textNot as good at generating factual or accurate text

Ultimately, the best model for you will depend on your specific needs. If you need a model that is good at generating conversational and engaging text, then ChatGPT is a good option. If you need a model that is good at generating factual and accurate text, then BingGPT is a good alternative. And if you need a model that is comprehensive and informative, then Bard is the best option for you.

¿Se puede ser creativo utilizando Large Language Models?

La contestación de ChatGPT a mi prompt:

¡Absolutamente! Los modelos de lenguaje grandes, como ChatGPT, pueden ser herramientas muy útiles para fomentar la creatividad. Estos modelos están diseñados para comprender y generar texto coherente en diferentes contextos y estilos, lo que los convierte en una fuente de inspiración para la creatividad.

Woman drinking wine – by Julio Mayol (with Dall-e)

Aquí hay algunas formas en las que los large language models pueden ayudar a potenciar la creatividad:

  1. Generación de ideas: Puedes utilizar el modelo para generar una lista de ideas sobre cualquier tema. Por ejemplo, si estás buscando inspiración para escribir una historia, puedes hacer preguntas o darle una frase de inicio al modelo, y te ofrecerá diferentes posibilidades y perspectivas que pueden estimular tu creatividad.
  2. Expansión de conceptos: Si tienes una idea inicial pero necesitas desarrollarla más, puedes utilizar el modelo para explorar diferentes enfoques y detalles. Puedes hacer preguntas al modelo, pedirle que describa escenas o personajes, o incluso que te ayude a crear diálogos realistas.
  3. Generación de contenido creativo: Los large language models pueden generar texto creativo por sí mismos. Por ejemplo, puedes pedirle al modelo que escriba un poema, una canción o un cuento breve basado en ciertos criterios o temas. Aunque el modelo no tenga experiencia personal ni emociones, puede ofrecerte opciones y estructuras interesantes para inspirarte.
  4. Asistente de escritura: Si estás trabajando en un proyecto de escritura, puedes utilizar el modelo como un asistente para recibir sugerencias, corregir gramática o explorar diferentes estilos de escritura. Esto puede ayudarte a superar bloqueos creativos y descubrir nuevas formas de abordar tu trabajo.

Es importante destacar que, aunque los large language models pueden ser herramientas valiosas para estimular la creatividad, es esencial que también confíes en tu propio juicio y conocimiento. Los modelos de lenguaje no sustituyen la originalidad y la perspectiva humana, sino que pueden servir como una fuente adicional de inspiración y apoyo.

Inteligencia artificial: miedo, envidia y fantasía

El miedo, la envidia y la fantasia son tres palancas clave para el progreso de nuestra especie desde la revolución cognitiva ocurrida hace unos 70 mil años. Con miedo, envidia y fantasía nuestra especie no sólo consiguió expandir el alcance de sus genes más allá de otras muchas especies, sino que impusimos nuestros memes y temes para aumentar nuestra eficiencia.

I can’t get you out of my mind (by Julio Mayol)

Ahora estamos asistiendo a una revolución del mismo calibre que la que ocurrió en Africa. Pero nos cuesta identificarla porque estamos demasiado próximos a los árboles.

En cualquier caso, el miedo, la envidia y la fantasía continúan siendo los tres argumentos usados a favor y en contra de la IA.

Y esto es lo que responde #ChatGPT cuando le pregunto «¿Por qué tienen miedo los humanos a la inteligencia artificial?

El miedo humano hacia la inteligencia artificial (IA) puede atribuirse a varias razones:


– Temor a lo desconocido: La IA es un campo en constante evolución y desarrollo, y gran parte de su potencial aún no se ha explorado por completo. – – La falta de comprensión sobre cómo funciona exactamente la IA y cómo podría impactar diversas áreas de la vida puede generar temor e incertidumbre.


– Representación en medios y cultura popular: En películas, libros y otros medios de entretenimiento, a menudo se presenta a la IA como una fuerza descontrolada y amenazante que puede superar a la humanidad. Estas representaciones exageradas pueden influir en la percepción pública y generar miedo hacia la IA.


– Pérdida de control: Existe el temor de que la IA pueda superar o reemplazar a los seres humanos en diversas tareas y roles, lo que lleva a preocupaciones sobre la pérdida de empleos y la falta de autonomía humana. La idea de depender demasiado de las máquinas y perder el control sobre nuestras propias vidas puede generar ansiedad.


– Ética y responsabilidad: A medida que la IA se vuelve más sofisticada, surgen preguntas éticas y morales sobre su uso y sus implicaciones. El temor radica en la posibilidad de que la IA pueda tomar decisiones que no sean éticas o actuar de manera perjudicial para la humanidad si no se establecen salvaguardias adecuadas.


– Riesgo existencial: Algunas personas temen que la IA pueda desarrollarse hasta el punto de superar la inteligencia humana y representar un riesgo existencial para la humanidad. La preocupación se centra en escenarios hipotéticos en los que la IA pueda volverse demasiado poderosa o descontrolada, lo que podría amenazar la supervivencia de nuestra especie.

Es importante tener en cuenta que el miedo hacia la IA no es universal y que también existen perspectivas optimistas sobre su potencial para mejorar la vida humana. La comprensión, el diálogo y la colaboración entre expertos en IA, ética, legisladores y la sociedad en general son fundamentales para abordar los temores legítimos y garantizar que la IA se desarrolle y utilice de manera responsable y beneficiosa para la humanidad.

LLM y contrafactualidad

El pasado viernes 9 de junio de 2023, durante la sesión especial del Máster de SEDISA-UE, Nacho Medrano argumentó que los LLM no son capaces de responder a preguntas de manera contraria a los hechos con los que entrenaron. Es decir, tienen limitaciones para contraargumentar y crear visiones alternativas.

No puedo negar que, instintivamente, estuve de acuerdo y en desacuerdo simultáneamente.

Digital Art, «Thinking is linking some things» (by Julio Mayol)

Si le formulas a ChatGPT el siguiente prompt «¿Pueden los LLMs responder contrafactualmente?«, su respuesta es:

Los Language Models (Modelos de Lenguaje) de gran escala, como GPT-3 y GPT-4, tienen la capacidad de generar respuestas basadas en la información que han aprendido durante su entrenamiento. Sin embargo, no están diseñados específicamente para responder de manera contraria a los hechos o generar respuestas contrafácticas.

Un LLM generalmente se entrena utilizando una gran cantidad de datos del mundo real, y su objetivo principal es generar respuestas coherentes y contextualmente relevantes. No tienen la capacidad de razonar sobre eventos o situaciones hipotéticas que no están respaldadas por datos reales. Esto significa que no pueden generar respuestas contrafácticas en el sentido de proporcionar información sobre cómo podrían haber sido las cosas si los hechos fueran diferentes.

Es importante tener en cuenta que los LLMs están limitados a la información con la que fueron entrenados y no tienen conciencia de eventos futuros o hechos hipotéticos que no se encuentren en sus datos de entrenamiento. Si se les hace una pregunta contrafactual o se les solicita que generen respuestas en ese sentido, es posible que proporcionen respuestas que estén basadas en la información disponible en sus datos de entrenamiento y que sean consistentes con su conocimiento previo, pero no necesariamente reflejarán una realidad alternativa.

Si le preguntas a GPT4 la misma pregunta, la respuesta es:

Los LLMs (modelos de lenguaje de aprendizaje profundo) son sistemas informáticos capaces de generar y comprender textos en diferentes idiomas y dominios. Estos sistemas se basan en redes neuronales artificiales que aprenden de grandes cantidades de datos textuales, como libros, artículos, noticias, etc. Una de las aplicaciones más interesantes de los LLMs es la generación de textos creativos, como poemas, cuentos, canciones o ensayos.

Sin embargo, ¿cuán creativos son realmente los LLMs? ¿Pueden generar textos que no se basen solo en lo que han visto en los datos, sino también en lo que podría haber sido o lo que podría ser? Es decir, ¿pueden responder contrafactualmente?

El razonamiento contrafactual es la capacidad de imaginar escenarios alternativos a la realidad, modificando algunos aspectos o condiciones de lo que ocurrió o podría ocurrir. Por ejemplo, si yo digo «Si hubiera estudiado más, habría aprobado el examen», estoy haciendo una afirmación contrafactual, ya que estoy cambiando un hecho del pasado (mi nivel de estudio) y sus consecuencias (mi resultado en el examen).

El razonamiento contrafactual es importante para el aprendizaje, la toma de decisiones, la resolución de problemas y la creatividad humana. Además, se ha demostrado que los humanos usan el razonamiento contrafactual de forma natural y espontánea cuando se enfrentan a situaciones hipotéticas o imaginarias.

¿Pero qué pasa con los LLMs? ¿Pueden generar textos que contengan afirmaciones contrafactuales? ¿Pueden modificar algunos aspectos de la realidad y explorar sus implicaciones? ¿Pueden crear mundos posibles o alternativos a partir de un texto dado?

La respuesta corta es: sí, pero con limitaciones. Los LLMs pueden generar textos contrafactuales si se les proporciona un contexto adecuado y una instrucción clara. Por ejemplo, si le damos a un LLM un texto sobre un hecho histórico y le pedimos que lo reescriba cambiando algún detalle, es posible que el LLM pueda producir un texto coherente y plausible que refleje ese cambio.

Sin embargo, los LLMs no pueden generar textos contrafactuales de forma autónoma o espontánea. Es decir, no pueden decidir por sí mismos qué aspectos de la realidad modificar o cómo hacerlo. Tampoco pueden evaluar la verosimilitud o la relevancia de sus afirmaciones contrafactuales. Los LLMs dependen en gran medida del contexto y la instrucción que se les da, y no tienen una comprensión profunda del significado o las implicaciones de sus textos.

Por lo tanto, podemos decir que los LLMs pueden responder contrafactualmente, pero solo de forma superficial y limitada. No pueden generar textos contrafactuales originales o creativos que vayan más allá de lo que han visto en los datos. Para lograr eso, se necesitaría dotar a los LLMs de una capacidad de razonamiento causal y una representación semántica más rica y flexible.