ERAI News

Darwin-9B-NEG đưa Native Entropy Gating vào model 9B mà không đòi thêm chi phí suy luận

Model lúc 02:09 25 tháng 4, 2026
Darwin-9B-NEG đưa Native Entropy Gating vào model 9B mà không đòi thêm chi phí suy luận

Điểm nổi bật

  • Quy mô model: backbone khoảng 8,95B tham số dựa trên Qwen3.5-9B, cộng thêm khoảng 4M tham số cho NEG modules.
  • Hiệu quả công bố: chế độ Pure NEG tăng từ 51,01% lên 63,64% trên GPQA Diamond ở cùng chi phí 1x inference.
  • Điểm nhấn kỹ thuật: NEG chỉ kích hoạt ở khoảng 4,36% token, tức can thiệp chọn lọc thay vì thêm vòng suy luận ngoài.
  • Lợi thế triển khai: không cần thư viện riêng cho vòng lặp suy luận, mô hình tải trực tiếp qua transformers với trust_remote_code=True.
  • Nhóm phù hợp: đội nghiên cứu reasoning model, nhóm inference muốn thử kiến trúc tăng độ tin cậy mà không nhân chi phí quá mạnh.

Biểu đồ

flowchart LR A[Input] --> B[Backbone Darwin-9B-Opus] B --> C[LM Head] B --> D[NEG-Head dự đoán entropy] D --> E[NEG-Gate] C --> E E --> F[Guided logits] F --> G[Next token]

Tóm tắt

Darwin-9B-NEG nổi bật vì đi vào một vấn đề đang rất nóng, làm sao tăng chất lượng reasoning mà không phải trả giá bằng nhiều vòng sampling, self-consistency hay ensemble đắt đỏ. Dự án chọn cách nhúng cơ chế “tự đánh giá độ chắc chắn” ngay trong mô hình, biến gating thành một phần của trọng số thay vì một quy trình hậu xử lý bên ngoài.

Về mặt chiến lược, đây là hướng thú vị vì nó đánh vào economics của reasoning. Nếu một model 9B có thể nâng chất lượng đáng kể ở 1x cost, nó mở ra lựa chọn hấp dẫn cho những đội không đủ ngân sách hoặc độ trễ để theo đuổi các pipeline reasoning phức tạp.

Chi tiết

Phần model card mô tả Darwin-9B-NEG là model đầu tiên trong dòng Darwin tích hợp Native Entropy Gating, một cơ chế nhằm cho mô hình “cảm nhận” mức tự tin của chính nó ngay trong vòng decode. Thay vì sinh nhiều đáp án rồi bỏ phiếu, hoặc chạy thêm nhiều lượt suy luận, NEG hoạt động bên trong một vòng sinh duy nhất. Hai thành phần được nêu khá rõ là NEG-Head, một mạng nhỏ dự đoán entropy của token kế tiếp từ hidden state cuối, và NEG-Gate, cơ chế quyết định có nên siết phạm vi chọn token vào top-k hẹp hơn khi độ bất định tăng lên.

Điểm đáng chú ý nhất là claim về hiệu quả. Ở benchmark GPQA Diamond, model báo cáo mức 51,01% ở baseline và 63,64% khi bật Pure NEG, tức tăng 12,63 điểm phần trăm mà không tăng chi phí suy luận cơ bản. Nếu đúng, đây là một bước đi hấp dẫn hơn nhiều so với các kỹ thuật multi-turn iteration vốn thường đòi thêm 3x đến 8x inference. Ở chế độ cao hơn như permutation hay ensemble refinement, điểm số tiếp tục leo lên 76,26% rồi 84,34%, nhưng khi đó chi phí cũng tăng tương ứng. Giá trị thật vì thế nằm ở mode 1, nơi hiệu quả tăng mà cấu trúc triển khai vẫn gọn.

Từ góc nhìn hạ tầng, việc mô hình nói rõ gate chỉ kích hoạt ở khoảng 4,36% token cũng quan trọng. Nó cho thấy hệ thống không cố can thiệp toàn bộ quá trình decode, mà chỉ bật cơ chế kiểm soát khi phát hiện vùng bất định. Nếu cách tiếp cận này lặp lại được ở các benchmark khác, NEG có thể trở thành một hướng thiết kế đáng chú ý cho lớp model nhỏ và trung bình, nơi mỗi phần trăm hiệu năng phải đánh đổi rất kỹ với chi phí vận hành.

Dĩ nhiên, vẫn có giới hạn. Model card dựa nhiều vào benchmark do chính nhóm phát hành công bố, và một số chế độ tốt nhất dùng protocol suy luận tốn chi phí cao hơn đáng kể. Ngoài ra, việc yêu cầu trust_remote_code=True cũng khiến người dùng doanh nghiệp phải thận trọng hơn trong đánh giá bảo mật và tính tái lập. Nhưng xét như một dự án opensource xuất hiện trong khung 6 giờ và mang ý tưởng kiến trúc tương đối mới, Darwin-9B-NEG có giá trị theo dõi rất rõ.

Nếu xu hướng frontier tiếp tục đòi hỏi model reasoning vừa rẻ vừa khá, những cơ chế kiểu NEG có thể trở thành lớp tối ưu quan trọng giữa benchmark và deployment. Đây là điểm làm dự án này đáng đọc, không phải vì nó là model lớn hơn, mà vì nó thử thay đổi cách model xử lý bất định ngay từ bên trong.

Nguồn

© 2024 AI News. All rights reserved.