Skip to content

Commit 7bb4f2c

Browse files
committed
chore: tech digest 2026-03-30
1 parent da419bf commit 7bb4f2c

2 files changed

Lines changed: 33 additions & 1 deletion

File tree

dist/index.html

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -56,7 +56,7 @@
5656
}
5757
})();
5858
</script>
59-
<script type="module" crossorigin src="/assets/index-CLOloZWx.js"></script>
59+
<script type="module" crossorigin src="/assets/index-6Iwdtjfv.js"></script>
6060
<link rel="stylesheet" crossorigin href="/assets/index-C_Lu41ct.css">
6161
</head>
6262

src/data/newsletters.json

Lines changed: 32 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,37 @@
11
{
22
"digests": [
3+
{
4+
"id": "2026-03-30b",
5+
"date": "2026-03-30",
6+
"entries": [
7+
{
8+
"rank": 1,
9+
"newsletter": "System Design One",
10+
"author": "Neo Kim & Eric Roby",
11+
"title": {
12+
"en": "RAG - A Deep Dive: Understanding Retrieval-Augmented Generation",
13+
"pt": "RAG - Um Deep Dive: Entendendo Retrieval-Augmented Generation"
14+
},
15+
"summary": {
16+
"en": "Every LLM you use has lied to you — with confidence, fluency, and frequency. Hallucination rates can exceed 58% for complex tasks, and frozen training data means models are blind to everything after their cutoff. RAG solves this fundamental architectural limitation by externalizing knowledge: instead of baking data into model weights, it retrieves relevant context dynamically at inference time. The result is an AI system that stays current, traceable, and accurate. This deep dive covers the three-layer problem of LLM knowledge limitations, how the retrieval pipeline actually works (embedding, vector stores, semantic search), and practical patterns for building production-grade RAG systems. Unlike fine-tuning — which requires expensive retraining and still can't keep up with real-time data — RAG gives you the best of both worlds: a powerful model plus always-current knowledge.",
17+
"pt": "Todo LLM que você usa já mentiu para você — com confiança, fluência e frequência. Taxas de alucinação podem exceder 58% em tarefas complexas, e os dados de treinamento congelados significam que os modelos são cegos a tudo após seu cutoff. RAG resolve essa limitação arquitetural fundamental ao externalizar o conhecimento: em vez de incorporar dados nos pesos do modelo, ele recupera contexto relevante dinamicamente no momento da inferência. O resultado é um sistema de IA que permanece atual, rastreável e preciso. Este deep dive cobre o problema de três camadas das limitações de conhecimento dos LLMs, como o pipeline de retrieval funciona (embedding, vector stores, busca semântica), e padrões práticos para construir sistemas RAG prontos para produção."
18+
},
19+
"insights": {
20+
"en": [
21+
"Hallucination is an architectural problem, not a bug: LLMs fill knowledge gaps with confident fabrication — rates range from 1% on simple tasks to 58%+ on complex ones, making RAG essential for any production AI use case",
22+
"RAG externalizes knowledge vs fine-tuning bakes it in: this means updates are cheap (just update the vector store), answers are auditable (every response traces back to a source), and you avoid expensive model retraining cycles",
23+
"The retrieval pipeline is the system design: embedding quality, chunking strategy, vector store choice, and re-ranking all compound — getting these tradeoffs right is what separates a working RAG from a production-grade one"
24+
],
25+
"pt": [
26+
"Alucinação é um problema arquitetural, não um bug: LLMs preenchem lacunas de conhecimento com fabricação confiante — taxas variam de 1% em tarefas simples a 58%+ em complexas, tornando RAG essencial para qualquer caso de uso de IA em produção",
27+
"RAG externaliza o conhecimento vs fine-tuning o incorpora: isso significa que atualizações são baratas (basta atualizar o vector store), respostas são auditáveis (cada resposta rastreia até uma fonte), e você evita ciclos caros de retreinamento de modelo",
28+
"O pipeline de retrieval É o system design: qualidade do embedding, estratégia de chunking, escolha do vector store e re-ranking se compõem — acertar esses tradeoffs é o que separa um RAG funcional de um pronto para produção"
29+
]
30+
},
31+
"link": "https://newsletter.systemdesign.one/p/how-rag-works"
32+
}
33+
]
34+
},
335
{
436
"id": "2026-03-30",
537
"date": "2026-03-30",

0 commit comments

Comments
 (0)