ERAI News

Khung nhìn mới về human agency cảnh báo bad AI sẽ trở thành bad UI trong môi trường rủi ro cao

ERAI-hnt286 ERAI-hnt286 2 giờ trước
Nguồn: arXiv

Điểm nổi bật

  • Trọng tâm mới: paper cho rằng vấn đề cốt lõi không phải “trustworthy AI” mà là preservation of human agency.
  • Ẩn dụ mạnh: tác giả mô tả bad AI là bad UI mới, với nguy cơ giao diện sai lệch dẫn tới lỗi người dùng trong hệ thống rủi ro cao.
  • Double uncertainty: bài viết nhấn mạnh hai lớp bất định cùng lúc, gồm bất định của mô hình và bất định của người dùng.
  • Phê bình XAI hiện tại: các cách giải thích phổ biến như feature attribution bị xem là thiên về tương quan, thiếu nhân quả và thiếu biểu diễn bất định.
  • Đề xuất CAF: paper giới thiệu Causal-Agency Framework để kết nối causal models, uncertainty quantification và human-centered evaluation.

Biểu đồ

flowchart TD A[AI xác suất] --> B[Bất định của mô hình] A --> C[Giao diện] C --> D[Bất định của người dùng] B --> E[Double uncertainty] D --> E E --> F[Giảm human agency] F --> G[CAF: causal + uncertainty + evaluation]

Tóm tắt

Paper mới trên arXiv đề nghị đổi điểm nhìn trong tranh luận AI ethics. Thay vì hỏi hệ thống có đủ đáng tin hay không, tác giả hỏi con người còn giữ được quyền hiểu, can thiệp và chịu trách nhiệm trước kết quả hay không.

Đây là một góc tiếp cận quan trọng với tương lai quan hệ người và AI, đặc biệt trong y tế, hàng không, quân sự và các môi trường mà sai lệch giao diện có thể biến thành thảm họa vận hành.

Chi tiết

Một trong những tranh luận lớn nhất của kỷ nguyên AI hiện nay là làm sao xây dựng “AI đáng tin cậy” và “AI có trách nhiệm”. Tuy nhiên, paper mới trên arXiv với tiêu đề Human Agency, Causality, and the Human Computer Interface in High-Stakes Artificial Intelligence lại cho rằng cách đặt vấn đề đó có thể đang đi chệch trọng tâm. Theo tác giả Georges Hattab, khủng hoảng sâu hơn không nằm ở niềm tin, mà ở sự xói mòn quyền năng tác nhân của con người, tức khả năng hình thành ý định, thực hiện hành động, rồi hiểu được hệ quả của hành động đó trong hệ thống AI phức tạp.

Lập luận đáng chú ý nhất của paper là “bad AI” sẽ trở thành “bad UI” mới. Tác giả nối AI hiện đại với lịch sử các thảm họa giao diện trong những hệ thống rủi ro cao như Therac-25, Three Mile Island, Air France 447 hay các lỗi giao diện trong hồ sơ bệnh án điện tử. Điểm chung của các ví dụ này là máy không đơn thuần sai, mà giao diện khiến con người không còn khả năng đọc đúng trạng thái hệ thống và phản ứng đúng lúc. Khi áp dụng vào AI xác suất, vấn đề còn nghiêm trọng hơn, vì người dùng không chỉ đứng trước một hệ thống phức tạp mà còn đứng trước một mô hình vốn bản thân đã bất định.

Từ đó paper đưa ra khái niệm “double uncertainty”. Lớp thứ nhất là bất định của mô hình, gồm cả aleatoric uncertainty từ dữ liệu và epistemic uncertainty từ sự thiếu hiểu biết nội tại của mô hình. Lớp thứ hai là bất định của người dùng, tức họ không rõ AI đang làm gì, tại sao làm như vậy, và hành động can thiệp của mình sẽ dẫn tới kết quả gì. Hai lớp này cộng hưởng khiến vòng phản hồi giữa người và máy bị tê liệt. Đây là điểm paper cho rằng nhiều hệ thống AI hiện nay đang bị đánh giá quá nhẹ.

Bài viết cũng phê bình Explainable AI theo hướng rất thẳng. Nhiều phương pháp phổ biến như LIME hay SHAP chỉ cho biết yếu tố nào tương quan mạnh với đầu ra, chứ không trả lời được câu hỏi nhân quả mà con người thật sự quan tâm: tại sao kết quả này xảy ra thay vì kết quả khác, và cần thay đổi điều gì để có outcome khác. Với người dùng trong môi trường rủi ro cao, giải thích “đọc được” nhưng không dẫn tới hành động đúng còn nguy hiểm hơn không có giải thích.

Đề xuất của paper là Causal-Agency Framework, một mô hình lồng nhiều lớp kết hợp causal modeling, uncertainty quantification và đánh giá theo nhiệm vụ thực tế. Đây là hướng đi gợi ý rằng tương lai con người và AI không nên được quyết định chỉ bằng benchmark độ chính xác, mà bằng khả năng giữ cho con người vẫn là tác nhân có thể hiểu, can thiệp và chịu trách nhiệm. Nếu các hệ thống AI ngày càng chen vào y tế, quốc phòng, tài chính và quản trị công, đây là một khung phân tích rất đáng theo dõi.

Nguồn

No comments yet. Be the first to leave a reply!

Leave a Reply

Your email address will not be published. Required fields are marked *

© 2024 AI News. All rights reserved.