Um aplicativo de desktop leve para conversar com LLMs locais, construído com Tauri + React.
- 🪶 Leve - Usa Tauri (Rust) em vez de Electron
- 💾 Persistência - Conversas salvas em SQLite local
- 🔌 Compatível - Funciona com qualquer API compatível com OpenAI (Ollama, LM Studio, etc.)
- 🖥️ Multiplataforma - Mac, Linux e Windows
- 🤖 Gerenciador de Modelos - Crie e gerencie modelos personalizados do Ollama
# Instalar dependências
npm install
# Executar em modo de desenvolvimento
npm run tauri dev
# Construir para produção
npm run tauri build- Abra o aplicativo
- Clique em "Configurações" (⚙️)
- Configure a URL da API:
- Ollama:
http://localhost:11434/v1 - LM Studio:
http://localhost:1234/v1 - OpenAI:
https://api.openai.com/v1
- Ollama:
- Selecione o modelo na lista suspensa
- Chave de API é opcional para APIs locais
- Crie um arquivo
.Modelfilena pastamodels/ - Exemplo (
models/meu-modelo.Modelfile):FROM phi3:latest PARAMETER temperature 0.7 PARAMETER num_ctx 2048 SYSTEM """ Você é um assistente útil e prestativo. """ - No aplicativo, vá para Configurações > Gerenciar Modelos
- Clique em "Criar no Ollama" ao lado do seu modelo
llama3.2- Boa combinação de velocidade e qualidadephi3- Modelo rápido e eficientemistral- Excelente para tarefas em português
- Frontend: React + TypeScript + TailwindCSS
- Backend: Rust + Tauri 2.0
- Banco de Dados: SQLite (via rusqlite)
- Ícones: Lucide React
MIT