ERAI News

OpenViking biến quản lý context agent thành bài toán file system có thể truy vết

Python 22.6k stars 2 giờ trước
OpenViking biến quản lý context agent thành bài toán file system có thể truy vết

Điểm nổi bật

  • Định vị: context database mã nguồn mở dành riêng cho AI agents.
  • Khác biệt kiến trúc: dùng file system paradigm để thống nhất memory, resources và skills.
  • Lợi ích chính: tải context theo tầng L0/L1/L2, truy vết retrieval và giảm token cost.
  • Khả năng tích hợp: hỗ trợ nhiều provider VLM và embedding, từ OpenAI tới LiteLLM, Ollama, Gemini.

Biểu đồ

flowchart LR A[Memory resources skills] --> B[OpenViking filesystem] B --> C[Tai context theo tang] B --> D[Recursive retrieval] B --> E[Quan sat retrieval] C --> F[Giam token cost] D --> F E --> F

Tóm tắt

OpenViking đi vào một vấn đề mà nhiều dự án agent thường né tránh: context management. Trong khi phần lớn repo cạnh tranh bằng UI, benchmark hay số lượng tool, OpenViking tập trung vào câu hỏi gốc hơn, là làm sao quản lý memory, resource và skill của agent theo cách có cấu trúc, có thể giải thích và không đốt token vô tội vạ.

Điểm đáng chú ý nhất là dự án bỏ cách tư duy vector store phẳng, thay bằng mô hình gần với file system. Ý tưởng này hấp dẫn vì nó đem lại hai thứ mà đội vận hành agent rất cần: khả năng định vị, truy vết logic retrieval, và cơ chế nạp context theo tầng thay vì bơm mọi thứ vào prompt.

Chi tiết

OpenViking tự mô tả là “context database for AI agents”, và điều đó không phải cách nói quá. Repo xuất phát từ một chẩn đoán đúng với thị trường hiện nay: khi agent chạy lâu, context bị chia nhỏ ở khắp nơi. Memory nằm trong một lớp, resources nằm trong vector store khác, skills tồn tại như prompt hoặc file rời, còn retrieval chain lại khó giải thích. Kết quả là đội phát triển thường xử lý sự cố bằng cách thêm context hoặc nới cửa sổ prompt, tức càng chạy càng tốn token mà chưa chắc tăng chất lượng.

Dự án đề xuất một hướng khác. Thay vì xem context như tập hợp embedding phẳng, OpenViking tổ chức chúng theo “file system paradigm”. Memory, resource và skill được đặt trong cấu trúc có thư mục, có quan hệ cha con và có logic truy cập gần giống cách con người quản lý tri thức cục bộ. Ý tưởng tưởng như đơn giản này lại mở ra nhiều lợi ích thực tế. Thứ nhất, agent có thể nạp context theo tầng, ví dụ chỉ lấy phần L0 cần kíp trước rồi mở rộng dần sang L1 hoặc L2 nếu cần. Thứ hai, retrieval không còn là hộp đen hoàn toàn vì đường đi tìm kiếm có thể được quan sát và debug.

Đây là điểm chiến lược. Khi agent bắt đầu làm những việc dài hơi, câu hỏi không chỉ là có nhớ được gì không, mà là vì sao nó nhớ thứ đó và bỏ qua thứ kia. OpenViking cố biến retrieval trajectory thành thứ nhìn thấy được. Với các đội triển khai trong doanh nghiệp, khả năng quan sát này quan trọng gần ngang độ chính xác. Một hệ thống sai nhưng giải thích được thường dễ sửa hơn hệ thống đôi lúc đúng nhưng không ai biết vì sao.

Repo cũng cho thấy tham vọng ở tầng hạ tầng hơn là tầng demo. Nó hỗ trợ nhiều provider VLM và embedding, có công cụ doctor, wizard khởi tạo cho local models qua Ollama và cấu hình đủ rộng để gắn vào các stack agent đa dạng. Điều này khiến OpenViking phù hợp như một thành phần hạ tầng trong hệ sinh thái agent, không chỉ như một ứng dụng mẫu.

Dĩ nhiên, hướng đi này phức tạp hơn nhiều so với việc dùng một vector DB quen thuộc. Nó đòi hỏi đội ngũ phải học cách mô hình hóa context có cấu trúc. Nhưng chính đó là lý do repo đáng xem. Nếu thị trường agent tiếp tục tiến vào bài toán dài hạn, thì quản lý context theo cách có hệ thống, tiết kiệm token và truy vết được rất có thể sẽ trở thành lợi thế cạnh tranh thật sự. OpenViking đang đặt cược vào chính điểm đó.

Nguồn

© 2024 AI News. All rights reserved.