LM Studio 教學Author: Kelvin HuangLM Studio 是一套本地端大型語言模型 ( LLM ) 的應用程式,讓使用者能 下載、管理、運行 LLM,並透過 GUI 或 API 來與模型互動。 像是 「本地版的 ChatGPT 」,支援多種開源模型並可離線運作。
模型管理LM Studio 內建模型市集(連接 Hugging Face 等來源) 一鍵下載常見模型 ( Llama 3、Mistral、Phi、Qwen、Gemma… ) 支援 GGUF 格式, 模型可以存多個版本,使用者可隨時切換
對話介面LM Studio 內建 Chat UI,像 ChatGPT 的對話框 支援多個對話會話,並可保存對話的歷史紀錄 可設定系統提示詞 ( System prompt )、角色指令 支援多語言輸入與輸出
硬體加速NVIDIA CUDA GPU → 自動偵測並加速。 AMD GPU (ROCm) → 支援部分平台。 Apple Silicon (M1/M2/M3) → 使用 Metal + MLX 引擎。 Intel iGPU (Arc / Iris Xe) → 透過 Vulkan 加速,讓沒有獨顯的筆電或掌機提供加速。
技術細節推理引擎:基於 llama.cpp 與其他後端(CUDA、Metal、Vulkan、ROCm)。 模型格式:GGUF(最常見的量化格式,支援幾乎所有熱門開源模型)。
效能表現在 NVIDIA GPU 上,效能接近 Ollama(因為底層一樣是 llama.cpp)。 在 macOS M 系列晶片,使用 MLX 引擎,效能甚至優於 Ollama。 在 Intel iGPU/AMD 環境,LM Studio 的 Vulkan 支援比 Ollama 完整。
首先前往 LM Stusio 官方網站下載需要的版本,目前支援 Windows,macOS, Linux 作業系統。 LM Studio 安裝 安裝完成後,啟動 LM Studio 軟體。 可選擇 User / Power User / Developer 等級,稍後可以改變設定。 取得第一個模型,系統會偵測您的硬體,自動選擇適合的模型,以下教學使用 OpenAI 的 gpt-oss-20b 模型。 模型下載完成後,即可按下 Start a New Chat 開始聊天! 選擇 Start a New Chat 或 Dismiss 皆可。 別急!您需要先選擇模型。 選擇已下載的 LLM 模型。
App Settings
軟體串接設定
LM Studio 對話的內容,可以在 [ C:\Users\使用者名稱\.lmstudio\conversations ] 資料夾找到類似 1234567890000.conversation.json 的檔案(前面數字不同),備份這些 json 檔案即可備份對話,而刪除這些 json 檔案,聊天記錄也隨之刪除。
Ollama vs LM Studio 如何選擇? 建議
Copyright © 2025 CG Digital Corp. All rights reserved.
|