LM Studio

LM Studio — Descargar gratis. Interfaz local para modelos de lenguaje

LM Studio es una aplicación de escritorio que permite ejecutar modelos de lenguaje grandes (LLM) como gpt-oss, Qwen3, Gemma3 y DeepSeek directamente en un ordenador personal. Funciona en modo completamente offline, garantizando la privacidad de los datos. La aplicación incluye una interfaz de chat integrada y un servidor local compatible con la API de OpenAI, facilitando la interacción y el desarrollo.

5.0(1 valoraciones)

Descargar LM Studio (Enlaces oficiales)
Tamaño del archivo: 568 MB
La última versión de LM Studio es: 0.4.8-1
Sistema operativo: Windows, Linux, MacOS
Idiomas: English
Precio: $0.00 USD
Producto patentado y gratuito.

  • Ejecución offline de LLMs. LM Studio ejecuta modelos de lenguaje grandes sin necesidad de conexión a internet. Los modelos se descargan y almacenan localmente, lo que asegura que todas las conversaciones y procesamientos de datos se realicen en el dispositivo del usuario sin transmitir información a servidores externos.
  • Interfaz de chat integrada. La aplicación proporciona una interfaz gráfica de usuario para interactuar con los modelos mediante conversaciones. Esta interfaz permite escribir prompts, recibir respuestas y mantener un historial de diálogo dentro de la misma ventana de la aplicación.
  • Servidor local con API compatible. LM Studio puede activar un servidor local que emula la API de OpenAI. Esta función permite a desarrolladores integrar y usar modelos locales en sus proyectos y herramientas existentes que estén diseñadas para trabajar con servicios como OpenAI, sin modificar el código.
  • Descarga integrada de modelos. Incluye un sistema para descubrir y descargar modelos de lenguaje desde plataformas como HuggingFace. Los usuarios pueden buscar y seleccionar modelos directamente desde la aplicación para cargarlos y utilizarlos.
  • Selección y cambio de modelos. Permite cargar diferentes modelos de lenguaje en la aplicación. Los usuarios pueden intercambiar entre varios modelos descargados para comparar resultados o utilizar modelos específicos para tareas distintas.
  • Configuración de parámetros del modelo. Ofrece control sobre parámetros clave de inferencia como la temperatura, tokens de contexto máxima (context length) y top-p sampling. Ajustar estos parámetros modifica el comportamiento y la creatividad de las respuestas generadas por el modelo.
  • SDK para desarrolladores. Proporciona kits de desarrollo de software (SDK) para JavaScript y Python. Estos SDK permiten a los desarrolladores programar e integrar las capacidades de LM Studio y los modelos locales en sus propias aplicaciones de software.
  • Manejo de contexto extenso. Soporta modelos con ventanas de contexto largas, permitiendo conversaciones e interacciones más extensas y coherentes. El modelo puede mantener en memoria y referenciar una cantidad grande de texto anterior durante la generación de respuestas.
  • Carga de documentos como contexto. Los usuarios pueden cargar archivos de texto o documentos para que el modelo los utilice como fuente de información y contexto. El contenido del documento se procesa y se incorpora al contexto de la conversación para generar respuestas más informadas.
  • Soporte para múltiples arquitecturas de modelos. Es compatible con una variedad de formatos y arquitecturas de modelos de lenguaje abiertos. Esto incluye modelos basados en transformadores de diferentes proveedores y comunidades, ampliando las opciones disponibles para el usuario.
  • Gestión de recursos del sistema. La aplicación proporciona opciones para gestionar el uso de la GPU y la CPU durante la inferencia. Esto ayuda a optimizar el rendimiento y la velocidad de generación de texto según las capacidades del hardware del ordenador.
  • Modos de inferencia especializados. Incluye configuraciones predefinidas para diferentes casos de uso, como la generación de código o la escritura creativa. Estos modos ajustan automáticamente los parámetros del modelo para un rendimiento óptimo en tareas específicas.

LM Studio es desarrollado por un equipo independiente enfocado en herramientas de inteligencia artificial local. El proyecto surgió tras el aumento en la disponibilidad de modelos de lenguaje de código abierto. La aplicación está construida utilizando tecnologías web modernas para la interfaz gráfica y se integra con motores de inferencia de alto rendimiento como llama.cpp para la ejecución de los modelos.


Alternativas a LM Studio:

Ollie IDE — Descargar gratis. Suite creativa local con IA

Ollie IDE

Ollie es una suite creativa soberana para desarrolladores, escritores y creadores que buscan el poder de la IA sin sacrificar la privacidad ni pagar suscripciones mensuales.
Precio: $19   Tamaño: 180 MB   Versión: 2026.2.28   SO: Windows, Linux, MacOS
Gemini Desktop App — Descargar gratis. Cliente no oficial para escritorio

Gemini Desktop App

Gemini Desktop App es una aplicación de escritorio no oficial que integra la versión web de Gemini y AI Studio en un solo programa basado en Electron.
Precio: Gratis   Tamaño: 98.1 MB   Versión: 1.1.0   SO: Windows, Linux
guIDE — Descargar gratis. IDE nativa con IA local para programadores

guIDE

guIDE es el primer IDE nativo verdaderamente local para inteligencia artificial.
Precio: Gratis   Tamaño: 360 MB   Versión: 2.0.0   SO: Windows, Linux
Mine StableDiffusion — Descargar gratis. Generador de arte IA offline

Mine StableDiffusion

Mine StableDiffusion es una aplicación nativa de generación de arte por IA que opera completamente sin conexión, diseñada para ejecutar modelos Stable Diffusion de manera eficiente en Android y equipos de escritorio.
Precio: Gratis   Tamaño: 135 MB   Versión: 5.0.0   SO: Windows, Linux, MacOS
QVAC Workbench — Descargar gratis. Gestión local de modelos de IA

QVAC Workbench

QVAC Workbench es una aplicación de escritorio desarrollada con React y el SDK de QVAC que permite cargar, administrar y ejecutar modelos de lenguaje de inteligencia artificial directamente en el equipo local.
Precio: Gratis   Tamaño: 19.5 MB   Versión: 1.0   SO: Windows, Linux, MacOS
Russet — Descargar gratis. Asistente privado de IA para Mac, iPhone y iPad

Russet

Russet es una aplicación de inteligencia artificial privada y ligera para Mac OS, iPhone y iPad, impulsada por Apple Intelligence.
Precio: Gratis   Tamaño: 39.7 MB   Versión: 2026.02.15   SO: MacOS, iOS
LocPilot — Descargar gratis. Procesamiento de textos con IA local

LocPilot

LocPilot es un complemento local para Microsoft Word que integra modelos de lenguaje grandes directamente en la aplicación.
Precio: Gratis   Tamaño: 649 MB   Versión: 1.0.2   SO: Windows, MacOS
GPTLocalhost — Descargar gratis. Integración local de LLMs en Word

GPTLocalhost

GPTLocalhost es un complemento para Microsoft Word que ejecuta modelos de lenguaje grandes localmente en tu computadora.
Precio: Gratis   Tamaño: 111 MB   Versión: 1.0.38   SO: Windows, MacOS
SWI Prolog — Descargar gratis. Lenguaje de programación lógica

SWI Prolog

SWI-Prolog es un entorno de desarrollo para el lenguaje de programación Prolog.
Precio: Gratis   Tamaño: 13.7 MB   Versión: 9.2.9.1   SO: Windows, MacOS, Linux
Gtk LLM Chat — Descargar gratis. Interfaz de chat con modelos de lenguaje

Gtk LLM Chat

Gtk LLM Chat es una aplicación de escritorio diseñada para interactuar con modelos de lenguaje localmente o mediante APIs remotas.
Precio: Gratis   Tamaño: 50.7 MB   Versión: 3.2.2   SO: Windows, Linux, MacOS