Điểm nổi bật
- Bài toán giải quyết: Memori tập trung vào agent-native memory infrastructure, lưu trí nhớ từ cả conversation lẫn execution.
- Số liệu công bố: trên benchmark LoCoMo, dự án nêu 81,95% accuracy với trung bình 1.294 tokens/query, tương đương khoảng 4,97% footprint full-context.
- Tích hợp rộng: hỗ trợ OpenAI, Anthropic, Gemini cùng nhiều framework như LangChain, Pydantic AI và cả plugin cho OpenClaw.
- Giá trị vận hành: nhắm vào việc nhớ quy tắc, sở thích, facts, relationships, skills thay vì chỉ lưu chat log phẳng.
- Ý nghĩa xu hướng: cuộc đua agent đang dịch từ “model mạnh hơn” sang “bộ nhớ có cấu trúc hơn”.
Biểu đồ
Tóm tắt
Memori đáng chú ý vì nó không quảng bá mình như một vector store hay một chat memory đơn giản, mà như một lớp hạ tầng bộ nhớ cho agent production. Trọng tâm của dự án là biến những gì agent nói và làm thành trạng thái có cấu trúc, lưu bền và có thể gọi lại theo nhu cầu. Đây là hướng đi rất hợp thời điểm, khi nhiều đội bắt đầu nhận ra rằng tăng cửa sổ ngữ cảnh không đủ để giải quyết bài toán “agent nhớ được gì, nhớ đến đâu và nhớ như thế nào”.
Điểm mạnh của repo nằm ở thông điệp khá rõ: muốn agent hữu dụng lâu dài thì phải nhớ cả hành vi, quyết định và sở thích người dùng, chứ không chỉ giữ transcript. Nếu lời hứa này đứng vững, Memori sẽ thuộc lớp hạ tầng quan trọng cho các hệ multi-session và agent làm việc dài hạn.
Chi tiết
Memori định vị là “memory from what agents do, not just what they say”. Chỉ riêng câu này đã tóm được một thay đổi quan trọng trong thiết kế hệ AI hiện nay. Phần lớn giải pháp memory trước đây xoay quanh retrieval từ lịch sử hội thoại: lưu tin nhắn, embedding rồi kéo lại những đoạn có vẻ liên quan. Cách làm đó giúp chatbot nhớ tốt hơn, nhưng chưa đủ cho agent production — nơi điều quan trọng không chỉ là câu chữ, mà còn là chuỗi hành động, công cụ đã gọi, kết quả đã tạo ra và các quy ước hình thành qua thời gian.
Repo mô tả Memori như một lớp LLM-agnostic, datastore-agnostic và framework-agnostic. Điều này có ý nghĩa lớn với tổ chức đang chạy nhiều stack cùng lúc. Nếu memory phụ thuộc chặt vào một framework hoặc một model provider, nó sẽ nhanh chóng trở thành điểm nghẽn. Memori cố tránh điều đó bằng cách đứng như một lớp hạ tầng độc lập, có SDK TypeScript/Python và tích hợp sẵn với nhiều môi trường. Khả năng gắn trực tiếp vào OpenClaw hoặc Hermes Agent càng cho thấy dự án không chỉ nhắm tới nhà nghiên cứu mà nhắm tới người vận hành agent thật.
Số liệu LoCoMo được repo công bố cũng đáng chú ý. Dự án nói đạt 81,95% accuracy với khoảng 1.294 tokens mỗi truy vấn, tức chỉ dùng khoảng 4,97% footprint so với full-context. Dù benchmark nào cũng cần đọc kỹ phương pháp trước khi tin tuyệt đối, thông điệp ở đây rất rõ: structured memory có thể là cách bẻ gãy trade-off giữa “muốn nhớ nhiều” và “không muốn prompt phình to”. Với doanh nghiệp, lợi ích đó quy ra thẳng chi phí và latency.
Một khía cạnh mạnh khác là schema augmentation. Memori không chỉ lưu raw event mà phân lớp thành attributes, events, facts, people, preferences, relationships, rules và skills. Cấu trúc này phù hợp hơn với loại trí nhớ mà agent cần trong thực tế. Ví dụ, việc người dùng thích phong cách báo cáo nào, quy ước naming trong repo ra sao, hay một process nên tránh hành động gì là những thông tin có giá trị hơn nhiều so với một đoạn chat được nhắc lại nguyên văn.
Ở tầng chiến lược, Memori đại diện cho làn sóng hậu-context-window. Khi các model ngày càng mạnh, điểm nghẽn mới không còn chỉ là reasoning mà là continuity: agent có duy trì được mạch làm việc qua nhiều phiên, nhiều người dùng và nhiều tác vụ không. Nếu thị trường chuyển mạnh sang hướng đó, memory infrastructure sẽ trở thành lớp platform thiết yếu tương tự logging, auth hay observability. Memori đang cố chiếm đúng vị trí đó.