專案

一般

配置概況

Feature #169

是由 Sashiba Chou約 2 個月 前更新

h1.    Backend 

 * rag_service.py:新增 _llm_chat() 統一 LLM 呼叫方法,依 provider 參數路由至 OpenAI (gpt-4o-mini) 或 Ollama 
 * rag_service.py:extract_injuries()、rank_candidates()、batch_rank_candidates()、predict_icd10() 全部加入 provider 參數透傳 
 * main.py:TraumaNote 模型新增 provider 欄位(預設 "openai"),/predict_icd10 endpoint 傳遞至 RAG pipeline 
 * 新增 openai、python-dotenv 依賴,透過 .env 載入 OPENAI_API_KEY 

 h1.     Frontend 

 
 * UserSettingsModal.tsx:偏好設定新增「AI 模型來源」切換按鈕(OpenAI 雲端 / 本機 Ollama),儲存至 localStorage 
 * ReviewTab.tsx、SoftTissueTab.tsx、SkeletalTab.tsx:所有 /predict_icd10 API 呼叫帶上 provider 參數 
 * schemas.ts:SYNC_SETTINGS_KEYS 新增 llmProvider 鍵值 

 h1.     影響範圍 

 * 7 個檔案修改 
 * 預設使用 OpenAI(雲端、速度快),可切換為本機 Ollama

返回