AI-Powered Quantum Cryptography Testing - 100% Free & Offline
Mistral Local AI adiciona capacidades de inteligência artificial totalmente gratuita e offline ao Houdinis Framework para análise de criptografia quântica.
Diferente de GPT-4 ou Claude (que custam $$ e enviam dados para APIs externas), o Mistral roda 100% localmente no seu hardware - sem custos, sem vazamento de dados, sem limites.
| Feature | Mistral Local | APIs Pagas (GPT-4/Claude) |
|---|---|---|
| Custo | $0 (grátis) | $0.015-0.03/1K tokens |
| Privacidade | 100% local | Dados enviados para cloud |
| Offline | ** Sim** | Requer internet |
| Velocidade (GPU) | ~120 tok/s | ~40 tok/s |
| Limites | Sem limites | Rate limits aplicados |
| Qualidade | 8/10 | 9-10/10 |
Resultado: Mistral vence em custo, privacidade, velocidade e disponibilidade!
# Clone o repositório
git clone https://github.com/maurorisonho/Houdinis.git
cd Houdinis
# Execute o setup automático
./setup-mistral.sh
# Escolha opção 1 (Docker)
# Aguarde download do modelo Mistral (4.1GB - primeira vez)
# Acesse o terminal web
# http://localhost:7681
# Ou execute o agente
docker exec -it houdinis_mistral python3 -m langchain_agents.mistral_local_agent# Instale Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# Inicie o servidor
ollama serve
# Em outro terminal, baixe o modelo
ollama pull mistral:7b-instruct
# Instale dependências
pip install langchain-community chromadb
# Execute o agente
python3 langchain_agents/mistral_local_agent.pyfrom langchain_agents.mistral_local_agent import MistralQuantumAgent
agent = MistralQuantumAgent()
# Pergunte qualquer coisa sobre quantum crypto
response = agent.chat("Is RSA-2048 quantum-safe?")
print(response)Saída:
RSA-2048 is NOT quantum-safe. Using Shor's algorithm, a large-scale
quantum computer could factor 2048-bit keys in polynomial time.
Current estimates suggest RSA-2048 will be vulnerable within 10-15 years
as quantum hardware improves. Recommended migration path:
1. Hybrid approach (RSA + post-quantum)
2. NIST PQC standards: Kyber-1024 (key exchange), Dilithium (signatures)
3. Timeline: Start planning now, full migration by 2030
query = """
Conduza auditoria de segurança quântica:
Sistema atual:
- Web Server: TLS 1.3 com RSA-2048 + ECDHE-256
- SSH Access: ECDSA P-256
- Data Encryption: AES-128-GCM
- Bitcoin Wallet: secp256k1
Perguntas:
1. Quais componentes estão em risco imediato?
2. Timeline de vulnerabilidade?
3. Plano de migração para PQC?
"""
report = agent.chat(query)
print(report)response = agent.chat("""
Generate Python exploit code for:
- Grover's algorithm bruteforce
- Target: SHA-256 hash of 6-digit password
- Backend: NVIDIA cuQuantum (GPU acceleration)
- Include detailed logging and metrics
Output: Complete working code with comments.
""")
# Código Python funcional será gerado!
print(response)response = agent.chat("""
Enterprise needs PQC migration:
Infrastructure:
- 500 TLS servers
- 10M transactions/day
- PCI-DSS compliance required
- Budget: $500k
Create migration roadmap with:
- Timeline and phases
- Cost-benefit analysis
- Risks and mitigations
- Testing strategy
""")O agente Mistral Local tem acesso a 8 ferramentas:
| Ferramenta | Descrição | Exemplo |
|---|---|---|
quantum_vulnerability_analysis |
Análise de vulnerabilidades | "RSA-2048 é seguro?" |
shor_algorithm_simulator |
Simulação de Shor | "Simule fatoração de 221" |
grover_attack_planner |
Planejamento de Grover | "Como quebrar AES-128?" |
pqc_migration_advisor |
Consultoria PQC | "Plano de migração" |
quantum_backend_selector |
Seleção de backend | "Melhor backend para 30 qubits?" |
crypto_strength_calculator |
Cálculo de força | "Força do RSA-4096?" |
houdinis_documentation_search |
Busca em docs | "Como usar exploit Shor?" |
exploit_code_generator |
Geração de código | "Gere exploit para Grover" |
| Hardware | Modelo | Tokens/seg | RAM | Latência |
|---|---|---|---|---|
| RTX 4090 | Mistral 7B | ~120 tok/s | 6GB | ~50ms |
| RTX 3080 | Mistral 7B | ~80 tok/s | 6GB | ~75ms |
| CPU (i9-12900K) | Mistral 7B | ~15 tok/s | 8GB | ~400ms |
| RTX 4090 | CodeLlama 13B | ~70 tok/s | 10GB | ~80ms |
GPT-4 Total: $7,128/ano
Claude Total: $3,564/ano
Mistral Local:
Hardware: $1,600 (one-time)
Eletricidade: $240/ano
Economia Ano 1: $5,288
Economia 3 Anos: $19,064
PAYBACK: 3-4 meses!
-
Budget Limitado
- Startups
- Pesquisadores acadêmicos
- Estudantes
-
Dados Sensíveis
- Governo/defesa
- Fintech/banking
- Healthcare/pharma
- Propriedade intelectual
-
Ambientes Isolados
- Air-gapped networks
- SCADA/ICS systems
- Laboratórios de pesquisa
-
Desenvolvimento Intensivo
- Testes automatizados
- Iteração rápida
- Experimentação
-
Sem Internet Confiável
- Navios/offshore
- Locais remotos
- Operações de campo
Via Ollama, você pode usar diferentes modelos:
# General purpose (recomendado)
ollama pull mistral:7b-instruct # 4.1GB
# Code generation (melhor para exploits)
ollama pull codellama:13b-instruct # 7.3GB
# Alternativas open-source
ollama pull llama3:8b-instruct # 4.7GB
ollama pull gemma:7b # 5GB
# Fast inference
ollama pull neural-chat:7b # 4.1GBTrocar modelo:
agent = MistralQuantumAgent(model="codellama:13b-instruct")Indexe documentação confidencial localmente:
from langchain_community.document_loaders import DirectoryLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
# Ativar RAG
agent = MistralQuantumAgent(use_rag=True)
# Carregar docs
loader = DirectoryLoader("./docs", glob="**/*.md")
documents = loader.load()
# Dividir em chunks
text_splitter = RecursiveCharacterTextSplitter(
chunk_size=1000,
chunk_overlap=200
)
chunks = text_splitter.split_documents(documents)
# Indexar localmente (ChromaDB)
agent.vectorstore.add_documents(chunks)
agent.vectorstore.persist()
# Agora o agente tem contexto dos seus docs!
response = agent.chat("Como configurar backend IBM Quantum?")
# Resposta incluirá trechos relevantes de BACKENDS.mdVantagens:
- Embeddings gerados localmente (sem API)
- Dados sensíveis não saem do servidor
- Busca semântica sem custos
Use Mistral Local para 95% das queries e GPT-4 apenas quando crítico:
class HybridQuantumAgent:
def __init__(self):
self.mistral = MistralQuantumAgent() # Default
self.gpt4 = QuantumCryptoAgent(model="gpt-4") # Fallback
def chat(self, query, use_premium=False):
# Decisão inteligente
if use_premium or self._is_critical(query):
return self.gpt4.chat(query) # Pago apenas se necessário
else:
return self.mistral.chat(query) # Padrão grátis
# Uso
agent = HybridQuantumAgent()
# 95% das queries - Mistral (grátis)
agent.chat("Is RSA-2048 safe?")
agent.chat("Generate exploit code")
# 5% críticas - GPT-4 (pago)
agent.chat("Executive decision: Migrate now?", use_premium=True)
# Economia: ~90% vs usar apenas GPT-4!agent = MistralQuantumAgent(
model="mistral:7b-instruct",
temperature=0.3, # Mais determinístico
num_ctx=8192, # Contexto expandido (até 32K)
num_predict=2048, # Tokens máximos de saída
repeat_penalty=1.1 # Evitar repetição
)# docker-compose-mistral.yml
environment:
- OLLAMA_NUM_PARALLEL=4 # Modelos em paralelo
- OLLAMA_MAX_LOADED_MODELS=3 # Cache de modelos
- OLLAMA_GPU_LAYERS=32 # Layers na GPU# Verificar porta
lsof -i :11434
# Reinstalar
curl -fsSL https://ollama.ai/install.sh | sh# Baixar manualmente
ollama pull mistral:7b-instruct
# Verificar espaço (precisa 4-8GB)
df -h
# Listar modelos
ollama list# Use modelo menor
agent = MistralQuantumAgent(model="neural-chat:7b")
# Reduza contexto
agent = MistralQuantumAgent(num_ctx=2048)- Guia Completo - 600+ linhas com tudo
- Comparação APIs - ROI e benchmarks
- Setup Script - Instalação automatizada
Contribuições são bem-vindas!
- Fork o projeto
- Crie uma branch (
git checkout -b feature/mistral-improvement) - Commit suas mudanças (
git commit -am 'Add new feature') - Push para a branch (
git push origin feature/mistral-improvement) - Abra um Pull Request
MIT License - veja LICENSE para detalhes.
- Mistral AI - Modelo open-source de alta qualidade
- Ollama - Plataforma para rodar LLMs localmente
- LangChain - Framework de orquestração de AI
- NVIDIA - cuQuantum para aceleração GPU
- Claude Sonnet 4.5 - Assistente no desenvolvimento
Se este projeto foi útil, deixe uma no GitHub!
Desenvolvido com por Human + AI