Guía Markdown de Llama

Llama es la familia de modelos de IA open source de Meta que genera respuestas formateadas con Markdown y se puede ejecutar localmente.

Llama es la familia de modelos de inteligencia artificial open source desarrollada por Meta. Genera respuestas formateadas con Markdown y, a diferencia de otros chatbots, se puede descargar y ejecutar de forma local en tu propio hardware.

Acerca de Llama

Llama (Large Language Model Meta AI) es una familia de modelos de lenguaje de código abierto creada por Meta (la empresa detrás de Facebook, Instagram y WhatsApp). El primer modelo de Llama fue lanzado en febrero de 2023, y desde entonces la familia ha evolucionado rápidamente con nuevas versiones cada vez más potentes.

Lo que distingue a Llama de otros chatbots como ChatGPT o Claude es que se trata de un modelo open source. Esto significa que puedes descargar el modelo, ejecutarlo en tu propio hardware y utilizarlo sin depender de servicios en la nube. Esto ofrece ventajas importantes en términos de privacidad, control de datos y personalización.

Llama genera sus respuestas utilizando la sintaxis Markdown de forma nativa, incluyendo encabezados, listas, bloques de código, negritas y otros elementos. La forma en que se renderiza el Markdown depende de la interfaz que utilices para interactuar con el modelo.

Modelos disponibles

Meta ha lanzado varias generaciones de modelos Llama:

  • Llama 3.3: La versión más reciente, disponible en tamaño 70B (70 mil millones de parámetros). Ofrece rendimiento comparable a modelos mucho más grandes a un coste computacional menor.
  • Llama 3.2: Incluye modelos de visión (11B y 90B) que pueden procesar imágenes además de texto, y modelos ligeros (1B y 3B) optimizados para dispositivos móviles y edge computing.
  • Llama 3.1: Disponible en tamaños 8B, 70B y 405B. El modelo 405B fue durante un tiempo el modelo open source más potente del mundo.

Los modelos más pequeños (1B, 3B, 8B) se pueden ejecutar en un portátil con GPU moderna. Los modelos más grandes (70B, 405B) requieren GPUs profesionales o configuraciones multi-GPU.

Cómo usar Llama

A diferencia de otros chatbots que se usan a través de una web, Llama se puede utilizar de varias formas:

  • Meta AI: Meta ofrece una interfaz web en meta.ai donde puedes chatear con Llama directamente, aunque con funcionalidades limitadas.
  • Ollama: Una herramienta de línea de comandos que permite descargar y ejecutar Llama (y otros modelos) de forma local con un solo comando. Es la forma más sencilla de usar Llama en tu propio hardware.
  • LM Studio: Una aplicación de escritorio con interfaz gráfica que permite descargar, ejecutar y chatear con Llama y otros modelos open source.
  • Hugging Face: La plataforma de modelos de IA donde se publican los pesos de Llama y donde puedes ejecutarlos mediante la librería Transformers de Python.
  • vLLM / TGI: Herramientas de serving para desplegar Llama como API en servidores de producción.
  • Aplicaciones de terceros: Muchas aplicaciones como Jan, GPT4All, LocalAI y otras permiten ejecutar Llama con interfaces gráficas amigables.

Ventajas del modelo open source

El hecho de que Llama sea open source tiene varias ventajas importantes:

  • Privacidad: Los datos nunca salen de tu máquina. No hay telemetría ni envío de datos a servidores externos.
  • Sin costes recurrentes: Una vez descargado, puedes usar el modelo sin límites de mensajes ni suscripciones.
  • Personalización: Puedes hacer fine-tuning del modelo con tus propios datos para adaptarlo a tareas específicas.
  • Sin censura excesiva: Los modelos base tienen menos restricciones que las versiones comerciales, lo que puede ser útil para investigación y desarrollo.
  • Offline: Puedes usar Llama sin conexión a internet.

Cómo renderiza Markdown Llama

Llama genera sus respuestas en texto con formato Markdown. La forma en que se visualiza depende de la interfaz:

  • En Ollama (terminal), el Markdown se muestra como texto plano con la sintaxis visible, lo que es útil para copiar y pegar en editores.
  • En LM Studio, la interfaz renderiza el Markdown visualmente con encabezados, negritas, listas y bloques de código formateados.
  • En Meta AI (web), el Markdown se renderiza con el estilo visual de la plataforma.
  • En aplicaciones como Jan o GPT4All, el renderizado depende de cada aplicación.

Soporte Markdown

Llama soporta los principales elementos de la sintaxis Markdown en sus respuestas. El soporte es consistente independientemente de la interfaz, ya que es el modelo el que genera la sintaxis:

ElementoSoporteNotas
EncabezadosSoporta los 6 niveles de encabezados.
Párrafos
Saltos de línea
Negrita
Cursiva
Citas
Listas ordenadasSoporta listas anidadas.
Listas no ordenadas
Código
Línea horizontal
EnlacesLlama genera la sintaxis de enlaces, pero al no tener acceso a internet, las URLs pueden no ser reales.
ImágenesParcialLlama puede generar la sintaxis de imágenes, pero el renderizado depende de la interfaz.
HTMLParcialLlama puede generar HTML, pero la mayoría de interfaces no lo renderizan.
Tablas
Bloques de código avanzadosEl resaltado de sintaxis depende de la interfaz utilizada.
Resaltado de sintaxisParcialLlama genera la etiqueta del lenguaje en los bloques de código, pero el resaltado visual depende de la interfaz.
Notas al piéParcialLlama puede generar la sintaxis pero no todas las interfaces la renderizan.
IDs de cabeceraNo
Listas de definicionesNo
Texto tachado
Listas de tareas
Emojis (copiar y pegar)
Emojis (shortcodes)No
Enlaces automáticos
Deshabilitar enlaces automáticos

Markdown en prompts de Llama

Llama interpreta correctamente los prompts que usan Markdown. Puedes usar encabezados, listas y bloques de código para estructurar tus instrucciones, especialmente cuando usas Llama a través de la API o de herramientas como Ollama.

Para más información sobre cómo estructurar prompts con Markdown, consulta las guías de Markdown en prompts, system prompts y prompt engineering.

Alternativas a Llama

Existen otros chatbots y modelos de IA que también soportan Markdown:

  • ChatGPT de OpenAI, el chatbot más popular con la interfaz más completa.
  • Claude de Anthropic, que destaca por los artifacts y su excelente comprensión de instrucciones.
  • Gemini de Google, integrado con Google Workspace.
  • Perplexity, especializado en búsquedas con IA.
  • DeepSeek, otro modelo open source con excelentes capacidades de razonamiento, también ejecutable localmente.
  • Qwen de Alibaba, otro modelo open source multilingüe.

Más información

Puedes obtener más información acerca de Llama consultando los siguientes enlaces:

👋 Hola! Soy Edu, me encanta crear cosas y he redactado este tutorial. Si te ha resultado útil, el mayor favor que me podrías hacer es el de compatirlo en Twitter.

para estar al día con mi contenido. 😊