LM Studio 教學

Author: Kelvin Huang

LM Studio 是一套本地端大型語言模型 ( LLM ) 的應用程式,讓使用者能 下載、管理、運行 LLM,並透過 GUI 或 API 來與模型互動。 像是 「本地版的 ChatGPT 」,支援多種開源模型並可離線運作。

 

模型管理

LM Studio 內建模型市集(連接 Hugging Face 等來源)

一鍵下載常見模型 ( Llama 3、Mistral、Phi、Qwen、Gemma… )

支援 GGUF 格式, 模型可以存多個版本,使用者可隨時切換

 

對話介面

LM Studio 內建 Chat UI,像 ChatGPT 的對話框

支援多個對話會話,並可保存對話的歷史紀錄

可設定系統提示詞 ( System prompt )、角色指令

支援多語言輸入與輸出

 

硬體加速

NVIDIA CUDA GPU → 自動偵測並加速。

AMD GPU (ROCm) → 支援部分平台。

Apple Silicon (M1/M2/M3) → 使用 Metal + MLX 引擎。

Intel iGPU (Arc / Iris Xe) → 透過 Vulkan 加速,讓沒有獨顯的筆電或掌機提供加速。

 

技術細節

推理引擎:基於 llama.cpp 與其他後端(CUDA、Metal、Vulkan、ROCm)。

模型格式:GGUF(最常見的量化格式,支援幾乎所有熱門開源模型)。

 

效能表現

在 NVIDIA GPU 上,效能接近 Ollama(因為底層一樣是 llama.cpp)。

在 macOS M 系列晶片,使用 MLX 引擎,效能甚至優於 Ollama。

在 Intel iGPU/AMD 環境,LM Studio 的 Vulkan 支援比 Ollama 完整。

 

首先前往 LM Stusio 官方網站下載需要的版本,目前支援 Windows,macOS, Linux 作業系統。

LM Studio 安裝

安裝完成後,啟動 LM Studio 軟體。

可選擇 User / Power User / Developer 等級,稍後可以改變設定。

取得第一個模型,系統會偵測您的硬體,自動選擇適合的模型,以下教學使用 OpenAI 的 gpt-oss-20b 模型。

模型下載完成後,即可按下 Start a New Chat 開始聊天!

選擇 Start a New Chat 或 Dismiss 皆可。

別急!您需要先選擇模型。

選擇已下載的 LLM 模型。

 

App Settings

 

 

軟體串接設定

 

LM Studio 對話的內容,可以在 [ C:\Users\使用者名稱\.lmstudio\conversations ] 資料夾找到類似 1234567890000.conversation.json

的檔案(前面數字不同),備份這些 json 檔案即可備份對話,而刪除這些 json 檔案,聊天記錄也隨之刪除。

 

 

Ollama vs LM Studio 如何選擇?

建議

  • 自動化、程式串接、同台機器跑多服務 → 選 Ollama( 更像系統服務 )

  • 要桌面 GUI 管理、可視化調參、臨場觀測吞吐 → 選 LM Studio

  • 效能:在 Mac(Metal) 上兩者幾乎打平;在 Windows ( NVIDIA CUDA ) 上也是差不多

  • 在 Windows / AMD ( DirectML ) 上,兩者差不多,但效能普遍低於 Metal / CUDA 架構

 

 

Copyright © 2025 CG Digital Corp. All rights reserved.