到底是配置
chat_module=ollma_api
ollma_ip=localhost
awen:latest, llama:latest,deepseek-r1
ollma_model=deepseek-r1:1.5b
还是
gpt_base_url=http://localhost:11434/v1
#gpt model engine 如:glm4、deepseek、qwen3-4b等
gpt_model_engine=deepseek-r1:1.5b
用http://localhost:11434/v1 这种写法对吗?
到底是配置
chat_module=ollma_api
ollma_ip=localhost
awen:latest, llama:latest,deepseek-r1
ollma_model=deepseek-r1:1.5b
还是
gpt_base_url=http://localhost:11434/v1
#gpt model engine 如:glm4、deepseek、qwen3-4b等
gpt_model_engine=deepseek-r1:1.5b
用http://localhost:11434/v1 这种写法对吗?