Nhân viên Google gây sức ép chặn Gemini vào môi trường quân sự mật

Điểm nổi bật
- 6:17 PM UTC ngày 27/04/2026: The Verge đăng bài lúc 01:17 sáng 28/04 giờ Việt Nam, nằm trong khung 0h–6h.
- Hơn 600 nhân viên Google: thư ngỏ yêu cầu Sundar Pichai từ chối để Pentagon dùng AI của Google cho môi trường mật.
- Hơn 20 lãnh đạo cấp principal/director/VP: theo The Washington Post, nhóm ký tên có cả nhân sự cấp cao và người từ DeepMind.
- 1 lập luận cốt lõi: nhân viên cho rằng chỉ có cách từ chối workload mật hoàn toàn mới bảo đảm Google không gắn với các tác hại mà họ không thể giám sát hay ngăn chặn.
- Bối cảnh cạnh tranh leo thang: Microsoft đã có hợp đồng AI cho môi trường mật, còn OpenAI cũng đã công bố thỏa thuận mới với Pentagon từ tháng 2.
Biểu đồ
Tóm tắt
Làn sóng phản đối trong nội bộ Google cho thấy một thực tế ngày càng rõ: cuộc đua AI không còn là câu chuyện ai có mô hình mạnh hơn, mà là ai chấp nhận dùng mô hình đó vào đâu. Khi hơn 600 nhân viên yêu cầu chặn AI khỏi môi trường quân sự mật, tranh luận về AI đã bước từ tầng sản phẩm sang tầng nguyên tắc vận hành và trách nhiệm tổ chức.
Về mặt chiến lược, đây là tín hiệu quan trọng cho tương lai quan hệ giữa con người và AI. Những hệ thống mạnh hơn sẽ không tự động được xã hội chấp nhận; chúng sẽ đi kèm xung đột giữa hiệu quả, quyền lực nhà nước, quyền phản biện của người lao động và khả năng giám sát việc sử dụng công nghệ.
Chi tiết
Theo The Verge, hơn 600 nhân viên Google đã ký thư gửi CEO Sundar Pichai để yêu cầu công ty từ chối mọi workload AI mật của Pentagon. Cú hích cho bức thư là một báo cáo nói rằng Google đang thảo luận với Bộ Quốc phòng Mỹ về khả năng triển khai Gemini trong các môi trường phân loại mật. Điểm đáng chú ý là đây không phải phản ứng rìa biên. Nhóm tổ chức nói nhiều người ký đến từ DeepMind, và có hơn 20 principal, director và vice president tham gia.
Nội dung cốt lõi của bức thư rất rõ: nếu Google thực sự muốn tránh bị gắn với các tác hại mà công nghệ của mình có thể gây ra, công ty phải từ chối workload mật ngay từ đầu. Theo cách lập luận này, một khi hệ thống đã được triển khai trong môi trường phân loại, ngay cả nhân viên nội bộ cũng có thể không còn biết nó đang được dùng thế nào và liệu có còn cách can thiệp hay không. Đây là khác biệt lớn giữa AI thương mại thông thường và AI phục vụ an ninh – quốc phòng: mức độ minh bạch và khả năng giám sát nội bộ giảm mạnh.
Từ góc nhìn dài hạn, câu chuyện này quan trọng hơn một vụ việc truyền thông. Nó phơi ra một vấn đề trung tâm của giai đoạn AI kế tiếp: ai là người có quyền quyết định ranh giới sử dụng mô hình? Ban lãnh đạo? Chính phủ? Đội sản phẩm? Nhà nghiên cứu? Hay lực lượng lao động bên trong công ty? Khi mô hình ngày càng có khả năng hỗ trợ phân tích, ra quyết định và hành động, câu hỏi governance sẽ không còn là phụ lục đạo đức mà trở thành một phần của năng lực cạnh tranh.
Bối cảnh thị trường càng làm vấn đề nóng hơn. The Verge nhắc rằng Microsoft đã có các hợp đồng cung cấp dịch vụ AI trong môi trường mật, còn OpenAI cũng đã công bố một thỏa thuận với Pentagon trong tháng 2. Nói cách khác, đây không phải tình huống giả định. Các nhà cung cấp AI lớn đang bước rất nhanh vào khu vực giao cắt giữa công nghệ thương mại và hạ tầng quyền lực nhà nước. Google vì thế chịu áp lực kép: nếu tham gia, họ đối mặt phản ứng đạo đức nội bộ; nếu không tham gia, họ có thể mất vị thế trước đối thủ.
Ở góc độ “tương lai con người và AI”, điểm đáng lưu ý là con người chưa hề biến mất khỏi vòng kiểm soát. Trái lại, càng về gần các ứng dụng nhạy cảm, tiếng nói của con người – kỹ sư, nhà nghiên cứu, người lao động tri thức – càng trở nên quan trọng. AI có thể mở rộng năng lực ra quyết định, nhưng chính con người đang tranh luận để xác lập những đường biên mà hệ thống không nên vượt qua.
Đây là lý do lá thư ở Google đáng theo dõi: nó không chỉ nói về Pentagon hay Gemini. Nó nói về việc các tổ chức công nghệ sẽ bị buộc phải xây cơ chế chính trị nội bộ cho AI mạnh đến mức nào. Ai kiểm soát AI trong tương lai có thể không được quyết định chỉ bằng benchmark, mà bằng khả năng dung hòa giữa hiệu quả, quyền lực và tính chính danh.