Python LM Studio 教學

Author: Kelvin Huang

相關連結 [ LM Studio 教學 ] [ 程式碼分享區 ]

LM Studio 在啟用本地端伺服器後,等於把它變成一個可以「對外提供 API 的模型服務」。原本 LM Studio 只是在電腦上打開,手動輸入文字、得到回覆的桌面程式,當開啟伺服器功能,它就能模擬成像 OpenAI 或 Ollama 那樣的 API 介面,讓其他程式透過 HTTP 請求去呼叫你載入的本地模型。

這麼做的意義在於,模型不再只侷限於你在 LM Studio 介面裡用,而是能被整合進各種應用。您可以在 Python、Node.js、PHP 或 Unity 裡寫程式,透過 POST / GET 的方式把提示詞丟給 LM Studio,本地模型處理後再把輸出回傳,這樣就能像使用 OpenAI API 的效果,只是運算全在自己的電腦,不需要連線到外部伺服器。這對隱私、速度、或是想在封閉環境裡測試都特別有用。

本教學介紹使用 Python 整合 LM Studio 本地端伺服器製作 AI 助理。首先開啟 LM Studio 進入開發者頁面。

載入模型,本教學使用 OpenAI gpt-oss 20B 模型。

選取模型並可進行設定,然後按下 Load Model 載入模型。

啟用伺服器,確認顯示 Status: Running

此時若開啟網頁瀏覽器,輸入網址 http://127.0.0.1:1234 將出現以下訊息。

可使用 Python 撰寫一個測式程式,使用 client.models.list ( ) .data 列出伺服器的語言模型。

執行後需要安裝 openai 包,按下 Install Package 進行安裝。

再次執行!

接著,撰寫一個簡單的程式串接 LM Studio 本地伺服器。

執行測試!

 

加入 gTTS 輸出語音功能

需求:pip install openai gTTS playsound == 1.2.2

進入 [ 程式碼分享區 ] 下載 v2 版本

執行時若出錯,可能原因是 PyCharm 安裝到最新版 playsound 1.3.0,而 1.3.0 在 Windows / Py3.13 上會嘗試建 wheel 然後失敗。

解法:把版本固定到 1.2.2(純 Python,不需要建 wheel ) 用 PyCharm 右下角的 Terminal 執行以下兩行 ( 請確認路徑 ):

C:\Users\Kelvin\PycharmProjects\PythonProject\.venv\Scripts\python.exe -m pip uninstall -y playsound

C:\Users\Kelvin\PycharmProjects\PythonProject\.venv\Scripts\python.exe -m pip install --no-cache-dir "playsound==1.2.2"

 

 

修正 AI 語音反應速度問題

gTTS 是雲端服務:每次呼叫都要把整段文字上傳 > 伺服器合成 > 下載 MP3。文字越長等待越久。

整段一次合成: 現在流程是拿到完整回答後才送 gTTS ,因此要等聊天回覆 + 語音合成兩段時間。

MP3 寫檔 / 掃毒延遲:下載後還要寫暫存檔,部分防毒軟體會掃描新檔後再播放,增加等待時間。

 

若希望改善反應速度與可調語速的 TTS ,能明顯加快說話速度。

1、edge-tts ( 雲端方案,音質佳、可 rate=+20%)

2、Piper ( 離線方案,快、可調速,音質中上)

 

邊生成邊說:把聊天改成串流輸出,句子滿足條件就送 TTS,使等候被切成多段小等待。

本地加速播放:若仍用 gTTS,可在本地把 MP3 做 1.2x–1.4x 加速再播(需改播放器 / 前處理)。

 

後續研究 - 將這個程式改成進階版本 ( 例如 edge-tts 可調速、或 Piper 離線快讀 ) ,同時保留目前使用體驗。

 

 

Copyright © 2025 CG Digital Corp. All rights reserved.