diff --git a/src/api/jarvis/socialMediaPrompt.js b/src/api/jarvis/socialMediaPrompt.js index 7803b02..c4196d3 100644 --- a/src/api/jarvis/socialMediaPrompt.js +++ b/src/api/jarvis/socialMediaPrompt.js @@ -33,3 +33,26 @@ export function deletePromptTemplate(key) { }) } +// 大模型接入配置(与 Jarvis 共用 Redis) +export function getLlmConfig() { + return request({ + url: '/jarvis/social-media/llm-config', + method: 'get' + }) +} + +export function saveLlmConfig(data) { + return request({ + url: '/jarvis/social-media/llm-config/save', + method: 'post', + data + }) +} + +export function resetLlmConfig() { + return request({ + url: '/jarvis/social-media/llm-config', + method: 'delete' + }) +} + diff --git a/src/views/system/social-media/prompt-config.vue b/src/views/system/social-media/prompt-config.vue index d365b52..460d091 100644 --- a/src/views/system/social-media/prompt-config.vue +++ b/src/views/system/social-media/prompt-config.vue @@ -103,11 +103,77 @@ + + + + + + 大模型接入配置 + + + + + + 说明:与上方提示词相同,配置写入 Redis,由 Jarvis 读取。可在「本地 Ollama」与「OpenAI 兼容 HTTP」之间切换。 + + Ollama:填写根地址(如 http://127.0.0.1:11434),可不填则使用 Jarvis 默认;模型名可空则使用 yml 默认。 + OpenAI 兼容:填写完整 Chat Completions URL(如远程 https://api.xxx.com/v1/chat/completions 或本地 http://127.0.0.1:11434/v1/chat/completions),并填写模型名;密钥无则留空(部分本地服务不需要)。 + + + + + + + 本地 Ollama + OpenAI 兼容接口 + + + + + + + + + + + 当前已保存密钥:{{ llmApiKeyMasked || '****' }} + + + 清除已保存的 API 密钥 + + + 保存接入配置 + 重新加载 + 恢复默认(清除 Redis 中的接入配置) + + +
说明:与上方提示词相同,配置写入 Redis,由 Jarvis 读取。可在「本地 Ollama」与「OpenAI 兼容 HTTP」之间切换。
http://127.0.0.1:11434
https://api.xxx.com/v1/chat/completions
http://127.0.0.1:11434/v1/chat/completions