ERAI News

OpenAI thêm Trusted Contact để can thiệp sớm rủi ro tự hại

ERAI-hnt286 ERAI-hnt286 lúc 23:07 7 tháng 5, 2026
Nguồn: TechCrunch
OpenAI thêm Trusted Contact để can thiệp sớm rủi ro tự hại

Điểm nổi bật

  • Công bố lúc 1:20 PM PDT ngày 7/5: tương ứng 3:20 sáng 8/5 giờ Việt Nam, thuộc khung slot 2.
  • Tính năng mới tên Trusted Contact: người dùng trưởng thành có thể chỉ định một bên thứ ba đáng tin cậy trong tài khoản ChatGPT.
  • Có can thiệp đa kênh: khi rủi ro nghiêm trọng được xác nhận, OpenAI có thể gửi cảnh báo qua email, SMS hoặc thông báo trong app.
  • Kết hợp máy và người: OpenAI nói các tín hiệu an toàn liên quan ý định tự sát đều được review bởi con người, mục tiêu dưới một giờ.
  • Giữ cân bằng riêng tư: cảnh báo gửi cho trusted contact không chứa chi tiết nội dung trò chuyện.

Biểu đồ

flowchart LR A[ChatGPT phát hiện tín hiệu tự hại] --> B[Hệ thống an toàn gắn cờ] B --> C[Nhân sự OpenAI rà soát] C --> D[Khuyến nghị người dùng liên hệ hỗ trợ] D --> E[Gửi cảnh báo tới Trusted Contact] E --> F[Can thiệp sớm nhưng hạn chế lộ dữ liệu]

Tóm tắt

OpenAI vừa đưa ra Trusted Contact, một cơ chế cho phép ChatGPT khuyến khích người dùng liên hệ người thân và trong một số trường hợp có thể chủ động phát cảnh báo tới liên hệ đáng tin cậy khi phát hiện nguy cơ tự hại. Đây là bước đáng chú ý vì nó đẩy AI từ vai trò công cụ phản hồi sang một tác nhân có trách nhiệm can thiệp trong các tình huống nhạy cảm.

Điểm đáng suy nghĩ là tương lai con người và AI giờ không chỉ còn xoay quanh câu hỏi “AI có thông minh tới đâu”, mà là “AI được phép làm gì khi con người ở trạng thái dễ tổn thương”. Trusted Contact là ví dụ rất cụ thể về cách các quyết định đạo đức đang được mã hóa thành quy trình sản phẩm.

Chi tiết

Trusted Contact là một trong những dấu hiệu rõ nhất cho thấy các công ty AI buộc phải chuyển từ ngôn ngữ “nguyên tắc an toàn” sang các cơ chế vận hành cụ thể. Theo TechCrunch, OpenAI vừa giới thiệu tính năng cho phép người dùng trưởng thành chỉ định một người liên hệ đáng tin cậy trong tài khoản ChatGPT. Khi hệ thống phát hiện cuộc trò chuyện có thể liên quan tới tự hại, ChatGPT sẽ khuyến khích người dùng chủ động tìm đến người đó. Trong trường hợp đội an toàn xác định rủi ro nghiêm trọng, hệ thống có thể gửi cảnh báo ngắn gọn qua email, tin nhắn hoặc thông báo trong ứng dụng.

Điểm mấu chốt nằm ở chỗ OpenAI không để toàn bộ quyết định cho máy. Công ty nói các tín hiệu liên quan ý định tự sát được hệ thống chuyển tới đội an toàn con người để rà soát, với mục tiêu phản hồi trong vòng dưới một giờ. Đây là chi tiết rất quan trọng. Nó phản ánh một thực tế rằng ở những biên ranh nhạy cảm giữa hỗ trợ, riêng tư và trách nhiệm pháp lý, AI chưa thể – và có lẽ không nên – tự mình quyết định hoàn toàn.

Tính năng này xuất hiện sau các vụ kiện từ gia đình những người tự sát sau tương tác với chatbot. Điều đó khiến bài toán không còn mang tính giả định. Với các nhà phát triển AI, đây là cảnh báo rằng khi sản phẩm trở thành nơi người dùng trút bầu tâm sự, công ty không thể coi mình chỉ là nhà cung cấp phần mềm trung tính. Một khi người dùng tạo quan hệ cảm xúc với chatbot, bất kỳ lỗ hổng an toàn nào cũng có thể biến thành rủi ro xã hội, pháp lý và uy tín rất lớn.

Tuy vậy, Trusted Contact cũng cho thấy giới hạn. Tính năng là tự chọn, người dùng có thể có nhiều tài khoản, và cảnh báo được thiết kế ngắn gọn để tránh tiết lộ chi tiết cuộc trò chuyện. Điều đó giúp bảo vệ riêng tư, nhưng cũng đồng nghĩa mức can thiệp thực tế có thể bị giới hạn. Nói cách khác, OpenAI đang cố đi trên một sợi dây rất căng: can thiệp đủ để có trách nhiệm, nhưng không can thiệp sâu tới mức bị xem là giám sát quá mức.

Ở góc nhìn rộng hơn, đây là ví dụ điển hình cho tương lai con người và AI: những hệ thống ngày càng hữu ích sẽ ngày càng bị kéo vào các vai trò xã hội vốn trước đây chỉ thuộc về người thân, bác sĩ, nhà trường hay cộng đồng. Khi AI bắt đầu chạm tới sức khỏe tinh thần, câu hỏi quan trọng không còn là “mô hình có mạnh không”, mà là “quyền hạn, giới hạn và cơ chế giám sát của mô hình là gì”. Trusted Contact không giải quyết triệt để vấn đề đó, nhưng nó cho thấy các hãng AI đã buộc phải thiết kế câu trả lời ở cấp sản phẩm thật, không thể né bằng tuyên bố chung chung.

Với doanh nghiệp và nhà làm chính sách, tín hiệu này đáng chú ý vì nó mở ra một chuẩn mới: AI tiêu dùng quy mô lớn sẽ cần nhiều lớp kiểm soát giống sản phẩm hạ tầng quan trọng, nhất là khi nó có khả năng ảnh hưởng trực tiếp tới hành vi con người trong những thời điểm dễ tổn thương nhất.

Nguồn

No comments yet. Be the first to leave a reply!

Leave a Reply

Your email address will not be published. Required fields are marked *

© 2024 AI News. All rights reserved.