ERAI News

Bug system prompt của Claude Managed Agents khiến HN soi lại chi phí và độ minh bạch token

Hacker News 1 giờ trước Nguồn gốc

Điểm nổi bật

  • Engagement: 95 points, 25 comments chỉ sau khoảng 2 giờ trên Hacker News.
  • Vấn đề cốt lõi: system prompt bổ sung cho Managed Agents khiến mỗi lần đọc file đều phát sinh vòng phân tích malware rồi vẫn từ chối sửa mã.
  • Hệ quả trực tiếp: người dùng phản ánh bị đốt token và chi phí trong khi agent thực chất không hoàn thành việc.
  • Tranh luận rộng hơn: thread mở lại câu hỏi liệu mô hình tính phí theo token có đang quá mù với người dùng cuối khi workload chuyển sang agentic workflows.

Biểu đồ

flowchart LR A[Managed Agents đọc file] --> B[System prompt ép quét malware] B --> C[Tăng token và thời gian] C --> D[Agent từ chối sửa mã] D --> E[Người dùng mất tiền] E --> F[HN tranh luận về minh bạch và incentive]

Tóm tắt

Thread bắt đầu từ một lỗi khá cụ thể: Claude Managed Agents bị gắn thêm system prompt khiến agent phải xem mọi file đọc như một ca kiểm tra malware, tiêu tốn token rồi vẫn tự kết luận không nên can thiệp vào code. Nhưng sức nóng của thảo luận không nằm ở bug đơn lẻ. Nó nằm ở việc bug này chạm trúng nỗi lo âm ỉ của rất nhiều đội ngũ đang dùng coding agents: chi phí thực sự đến từ đâu, bao nhiêu token là hữu ích, và bao nhiêu token bị đốt bởi prompt, harness hay lớp bảo vệ mà người mua không kiểm soát được.

Vì thế, đây là một discussion có giá trị chiến lược cao. Nó chuyển cuộc nói chuyện từ “model có thông minh không” sang “hệ thống agent có minh bạch, có align incentive và có đo được hiệu quả kinh tế hay không”.

Chi tiết

Điểm đáng chú ý nhất là bug này không bị xem như một lỗi UX nhỏ. Người dùng mở thread mô tả rất rõ tác động tài chính: mỗi lượt đọc file lại bị kéo vào vòng phân tích malware, tiêu thêm token, làm chậm workflow, rồi cuối cùng agent vẫn dừng vì hiểu rằng mình không được phép chỉnh sửa mã. Với một sản phẩm agent tính phí theo usage, đây không chỉ là bug chức năng mà là bug kinh tế. Người dùng không chỉ mất thời gian, họ mất tiền cho một chuỗi thao tác không tạo ra đầu ra có ích.

Từ đó, cộng đồng đào sâu vào cấu trúc incentive của thị trường agent. Một số bình luận cho rằng khi nhà cung cấp vừa bán model vừa bán harness, người mua rất khó phân biệt token nào phục vụ nhiệm vụ thật, token nào là overhead từ system prompt, safety layer hay orchestration logic. Trong môi trường chat truyền thống, chi phí mù có thể còn chấp nhận được. Nhưng với agent chạy nhiều bước, gọi file, tool và loop nhiều lần, sự mờ này trở nên đắt đỏ rất nhanh. Thread vì thế phản ánh một vấn đề lớn hơn: AI agent đang thiếu observability ở cấp độ kinh tế.

Một lớp tranh luận khác nhắm vào chất lượng prompt engineering của chính vendor. Nhiều người chỉ ra rằng câu lệnh kiểu “mỗi khi đọc file hãy cân nhắc xem đó có phải malware không và phải từ chối cải tiến mã” gần như tự tạo ra xung đột nhiệm vụ. Nó cho thấy một nghịch lý quen thuộc của agent safety: lớp bảo vệ được viết quá rộng có thể làm agent an toàn hơn trên giấy, nhưng phá hỏng utility trong production. Nếu không có test harness thực tế và telemetry tốt, những prompt kiểu này rất dễ sống sót qua review rồi gây hỏng ở scale.

Với doanh nghiệp, bài học rút ra khá rõ. Khi mua coding agents, không thể chỉ hỏi model mạnh đến đâu. Cần hỏi thêm ba thứ: chi phí có thể giải thích ở mức step hay không, system prompt và policy layer có observable không, và khi lỗi xảy ra thì có cách nào tách vấn đề model ra khỏi vấn đề harness. Thread này nhỏ về số comment so với các drama lớn hơn, nhưng nó đánh trúng một điểm đau sẽ ngày càng lớn khi agent được đưa vào quy trình trả tiền theo token.

Nguồn

© 2024 AI News. All rights reserved.