- 更准:[准确率提升 48.77%] 在 LOCOMO 基准测试中,相比于 full-context 更准确(78.70% VS 52.9%)
- 更快:[响应速度快 91.83%] 相比于 full-context,检索的 p95 延迟显著降低(1.44s VS 17.12s)
- 更省:[Token 用量降低 96.53%] 相比于full-context,在不牺牲性能的前提下显著降低成本(0.9k VS 26k)
在 AI 应用开发中,如何让大语言模型持久化地"记住"历史对话、用户偏好和上下文信息是一个核心挑战。PowerMem 融合向量检索、全文检索和图数据库的混合存储架构,并引入认知科学的艾宾浩斯遗忘曲线理论,为 AI 应用构建了强大的记忆基础设施。系统还提供完善的多智能体支持能力,包括智能体记忆隔离、跨智能体协作共享、细粒度权限控制和隐私保护机制,让多个 AI 智能体能够在保持独立记忆空间的同时实现高效协作。
- 轻量级接入方式:提供简洁的 Python SDK 支持,自动从
.env文件加载配置,让开发者快速集成到现有项目中
- 记忆的智能提取:通过 LLM 自动从对话中提取关键事实,智能检测重复、更新冲突信息并合并相关记忆,确保记忆库的准确性和一致性
- 艾宾浩斯遗忘曲线:基于认知科学的记忆遗忘规律,自动计算记忆保留率并实现时间衰减加权,优先返回最近且相关的记忆,让 AI 系统像人类一样自然"遗忘"过时信息
- 智能体共享/隔离记忆:为每个智能体提供独立的记忆空间,支持跨智能体记忆共享和协作,通过作用域控制实现灵活的权限管理
- 文本、图像、语音记忆:自动将图像和音频转换为文本描述并存储,支持多模态混合内容(文本+图像+音频)的检索,让 AI 系统理解更丰富的上下文信息
- 支持子存储(Sub Stores):通过子存储实现数据 的分区管理,支持自动路由查询,显著提升超大规模数据的查询性能和资源利用率
- 混合检索:融合向量检索、全文搜索和图检索的多路召回能力,通过 LLM 构建知识图谱并支持多跳图遍历,精准检索复杂的记忆关联关系
pip install powermem✨ 最简单的方式:从 .env 文件读取配置自动创建记忆!配置文件参考
from powermem import Memory, auto_config
# 自动从 .env 加载配置并初始化
config = auto_config()
memory = Memory(config=config)
# 添加记忆
memory.add("用户喜欢咖啡", user_id="user123")
# 搜索记忆
memories = memory.search("用户偏好", user_id="user123")
for memory in memories:
print(f"- {memory.get('memory')}")更多详细示例和使用模式,请参阅入门指南。
- LangChain 集成:基于 LangChain + PowerMem + OceanBase 构建医疗支持机器人,查看示例
- LangGraph 集成:基于 LangGraph + PowerMem + OceanBase 构建客户服务机器人,查看示例
- 入门指南:安装和快速开始指南
- 配置指南:完整的配置选项
- 多智能体指南:多智能体场景和示例
- 集成指南:集成指南
- 子存储指南:子存储的使用方法和示例
- API 文档:完整的 API 参考
- 架构指南:系统架构和设计
- 示例:交互式 Jupyter 笔记本和使用案例
- 开发者文档:开发者文档
- 问题反馈:GitHub Issues
- 讨论交流:GitHub Discussions
本项目采用 Apache License 2.0 许可证 - 详情请参阅 LICENSE 文件。