LM Studio

LM Studio — Descarga gratuita. Interfaz local para modelos de lenguaje

LM Studio es una aplicación de escritorio que permite ejecutar modelos de lenguaje grandes (LLM) como gpt-oss, Qwen3, Gemma3 y DeepSeek directamente en un ordenador personal. Funciona en modo completamente offline, garantizando la privacidad de los datos. La aplicación incluye una interfaz de chat integrada y un servidor local compatible con la API de OpenAI, facilitando la interacción y el desarrollo.

5.0(1 valoraciones)

Descargar LM Studio (Enlaces oficiales)
Tamaño del archivo: 0.544 MB
La última versión de LM Studio es: 0.4.0-2
Sistema operativo: Windows
Idiomas: English
Precio: $0.00 USD
Producto patentado y gratuito.

  • Ejecución offline de LLMs. LM Studio ejecuta modelos de lenguaje grandes sin necesidad de conexión a internet. Los modelos se descargan y almacenan localmente, lo que asegura que todas las conversaciones y procesamientos de datos se realicen en el dispositivo del usuario sin transmitir información a servidores externos.
  • Interfaz de chat integrada. La aplicación proporciona una interfaz gráfica de usuario para interactuar con los modelos mediante conversaciones. Esta interfaz permite escribir prompts, recibir respuestas y mantener un historial de diálogo dentro de la misma ventana de la aplicación.
  • Servidor local con API compatible. LM Studio puede activar un servidor local que emula la API de OpenAI. Esta función permite a desarrolladores integrar y usar modelos locales en sus proyectos y herramientas existentes que estén diseñadas para trabajar con servicios como OpenAI, sin modificar el código.
  • Descarga integrada de modelos. Incluye un sistema para descubrir y descargar modelos de lenguaje desde plataformas como HuggingFace. Los usuarios pueden buscar y seleccionar modelos directamente desde la aplicación para cargarlos y utilizarlos.
  • Selección y cambio de modelos. Permite cargar diferentes modelos de lenguaje en la aplicación. Los usuarios pueden intercambiar entre varios modelos descargados para comparar resultados o utilizar modelos específicos para tareas distintas.
  • Configuración de parámetros del modelo. Ofrece control sobre parámetros clave de inferencia como la temperatura, tokens de contexto máxima (context length) y top-p sampling. Ajustar estos parámetros modifica el comportamiento y la creatividad de las respuestas generadas por el modelo.
  • SDK para desarrolladores. Proporciona kits de desarrollo de software (SDK) para JavaScript y Python. Estos SDK permiten a los desarrolladores programar e integrar las capacidades de LM Studio y los modelos locales en sus propias aplicaciones de software.
  • Manejo de contexto extenso. Soporta modelos con ventanas de contexto largas, permitiendo conversaciones e interacciones más extensas y coherentes. El modelo puede mantener en memoria y referenciar una cantidad grande de texto anterior durante la generación de respuestas.
  • Carga de documentos como contexto. Los usuarios pueden cargar archivos de texto o documentos para que el modelo los utilice como fuente de información y contexto. El contenido del documento se procesa y se incorpora al contexto de la conversación para generar respuestas más informadas.
  • Soporte para múltiples arquitecturas de modelos. Es compatible con una variedad de formatos y arquitecturas de modelos de lenguaje abiertos. Esto incluye modelos basados en transformadores de diferentes proveedores y comunidades, ampliando las opciones disponibles para el usuario.
  • Gestión de recursos del sistema. La aplicación proporciona opciones para gestionar el uso de la GPU y la CPU durante la inferencia. Esto ayuda a optimizar el rendimiento y la velocidad de generación de texto según las capacidades del hardware del ordenador.
  • Modos de inferencia especializados. Incluye configuraciones predefinidas para diferentes casos de uso, como la generación de código o la escritura creativa. Estos modos ajustan automáticamente los parámetros del modelo para un rendimiento óptimo en tareas específicas.

LM Studio es desarrollado por un equipo independiente enfocado en herramientas de inteligencia artificial local. El proyecto surgió tras el aumento en la disponibilidad de modelos de lenguaje de código abierto. La aplicación está construida utilizando tecnologías web modernas para la interfaz gráfica y se integra con motores de inferencia de alto rendimiento como llama.cpp para la ejecución de los modelos.


Alternativas a LM Studio:

LocPilot — Descarga gratuita. Procesamiento de textos con IA local

LocPilot

LocPilot es un complemento local para Microsoft Word que integra modelos de lenguaje grandes directamente en la aplicación.
Precio: Gratis   Tamaño: 649 MB   Versión: 1.0.2   Idiomas: English   SO: Windows, MacOS
GPTLocalhost — Descarga gratuita. Integración local de LLMs en Word

GPTLocalhost

GPTLocalhost es un complemento para Microsoft Word que ejecuta modelos de lenguaje grandes localmente en tu computadora.
Precio: Gratis   Tamaño: 111 MB   Versión: 1.0.29   Idiomas: English   SO: Windows, MacOS
SWI Prolog — Descarga gratuita. Lenguaje de programación lógica

SWI Prolog

SWI-Prolog es un entorno de desarrollo para el lenguaje de programación Prolog.
Precio: Gratis   Tamaño: 13.7 MB   Versión: 9.2.9.1   Idiomas: English   SO: Windows, MacOS, Linux
Gtk LLM Chat — Descarga gratuita. Interfaz de chat con modelos de lenguaje

Gtk LLM Chat

Gtk LLM Chat es una aplicación de escritorio diseñada para interactuar con modelos de lenguaje localmente o mediante APIs remotas.
Precio: Gratis   Tamaño: 50.7 MB   Versión: 3.2.2   Idiomas: Spanish, English   SO: Windows, Linux, MacOS

Filtración de datos revela el sistema operativo de escritorio Aluminium OS de Google
Finaliza el soporte para la serie Galaxy S21 con su última actualización de software
Oracle y Michael Dell se convierten en inversores en la nueva empresa estadounidense de TikTok
Arduino UNO Q amplía su memoria: nueva versión con 4 GB de RAM por 59 dólares
Google integrará plantillas de video y herramientas de creación musical en su IA Gemini