Feature #169
是由 Sashiba Chou 於 約 2 個月 前更新
h1. Backend * rag_service.py:新增 _llm_chat() 統一 LLM 呼叫方法,依 provider 參數路由至 OpenAI (gpt-4o-mini) 或 Ollama * rag_service.py:extract_injuries()、rank_candidates()、batch_rank_candidates()、predict_icd10() 全部加入 provider 參數透傳 * main.py:TraumaNote 模型新增 provider 欄位(預設 "openai"),/predict_icd10 endpoint 傳遞至 RAG pipeline * 新增 openai、python-dotenv 依賴,透過 .env 載入 OPENAI_API_KEY h1. Frontend * UserSettingsModal.tsx:偏好設定新增「AI 模型來源」切換按鈕(OpenAI 雲端 / 本機 Ollama),儲存至 localStorage * ReviewTab.tsx、SoftTissueTab.tsx、SkeletalTab.tsx:所有 /predict_icd10 API 呼叫帶上 provider 參數 * schemas.ts:SYNC_SETTINGS_KEYS 新增 llmProvider 鍵值 h1. 影響範圍 * 7 個檔案修改 * 預設使用 OpenAI(雲端、速度快),可切換為本機 Ollama