Giám đốc Klarna biến bản sao AI thành kênh xả áp lực nội bộ

Điểm nổi bật
- Đăng lúc 11:00 ngày 8/5: nằm trọn trong slot 3.
- AI clone được dùng như 'bao cát' nội bộ: nhân viên có thể gọi để trút bức xúc thay vì dồn căng thẳng vào họp trực tiếp.
- Klarna mở rộng sang chatbot của CEO: dùng bản sao giọng nói của Sebastian Siemiatkowski để nhận phản hồi khách hàng.
- Bài toán nảy sinh sau giai đoạn cắt giảm ngân sách: AI được đưa vào để xử lý ma sát cảm xúc, không chỉ xử lý tác vụ.
- Thông điệp lớn hơn công cụ: AI đang bắt đầu chen vào vùng giao tiếp vốn trước đây được xem là đặc quyền của con người.
Biểu đồ
Tóm tắt
VnExpress dẫn lại câu chuyện của Klarna như một ví dụ lạ nhưng rất đáng nghĩ: AI không chỉ thay sức lao động hay tăng năng suất, mà bắt đầu chen vào vai trò trung gian cảm xúc giữa con người với con người. Bản sao AI của giám đốc marketing được thiết kế để xin lỗi, nhận trách nhiệm và lắng nghe bức xúc thay cho người thật.
Đây là tín hiệu thú vị cho hạng mục con người và AI vì nó mở rộng phạm vi ứng dụng của công nghệ sang một không gian nhạy cảm hơn nhiều: giao tiếp tổ chức, phản hồi cảm xúc và quản trị niềm tin. Một khi doanh nghiệp để AI làm lớp đệm cho các quan hệ nội bộ, câu hỏi không còn là “AI làm được gì”, mà là “phần nào của con người đang bị trừu tượng hóa thành giao diện số”.
Chi tiết
Câu chuyện tại Klarna đáng chú ý không phải vì mức độ kỹ thuật quá phức tạp, mà vì nó chạm đúng một vùng nhạy cảm của tương lai làm việc: AI đang trở thành trung gian cho những tương tác mang màu sắc cảm xúc. Theo bài viết, David Sandstrom – giám đốc marketing của Klarna – đã tạo một phiên bản AI của chính mình để nhân viên có thể gọi vào và trút giận trong giai đoạn công ty phải thắt chặt ngân sách. Bản sao số này được lập trình để luôn thân thiện, xin lỗi và nhận trách nhiệm.
Nhìn bề mặt, đây có vẻ chỉ là một mẹo quản trị độc lạ. Nhưng nếu nhìn sâu hơn, nó phản ánh một thay đổi lớn: doanh nghiệp bắt đầu coi AI như một lớp đệm tâm lý. Trước đây, bất mãn nội bộ thường phải được xử lý qua họp nhóm, trao đổi trực tiếp hoặc bộ phận nhân sự. Giờ đây, một phần áp lực cảm xúc được chuyển sang một thực thể máy móc, thứ có thể lắng nghe vô hạn, không mệt, không tự ái và không làm gián đoạn lịch làm việc của lãnh đạo.
Klarna còn mở rộng ý tưởng này sang chatbot mô phỏng CEO Sebastian Siemiatkowski để tiếp nhận phản hồi từ khách hàng. Theo mô tả, đây vừa là cách xây hiệu ứng truyền thông, vừa là “mỏ vàng” dữ liệu phản hồi. Điều này cho thấy giá trị của AI clone không chỉ nằm ở việc giả lập hiện diện, mà còn ở khả năng chuẩn hóa và thu thập ý kiến ở quy mô lớn mà con người khó làm trực tiếp.
Tuy vậy, đây cũng là khu vực tiềm ẩn nhiều rủi ro nhất. Khi AI đứng giữa người với người, quan hệ tổ chức có thể trở nên hiệu quả hơn nhưng cũng dễ bị làm rỗng. Một nhân viên có thật sự được lắng nghe nếu người nhận phàn nàn là bot? Một khách hàng có cảm thấy được tôn trọng nếu đối thoại với “CEO số” thay vì người thật? Trong ngắn hạn, AI có thể hấp thụ áp lực. Nhưng về dài hạn, nếu doanh nghiệp lạm dụng lớp trung gian này, nó có thể làm suy yếu sự tin cậy vốn phải được xây bằng trách nhiệm trực tiếp.
Điểm thứ hai là dữ liệu quyền lực. Những cuộc gọi “xả giận” hay phản hồi khách hàng không chỉ mang nội dung nghiệp vụ; chúng chứa cảm xúc, thái độ, nỗi sợ và mức độ bất mãn. Khi doanh nghiệp số hóa lớp tương tác này, họ cũng đang mở rộng phạm vi dữ liệu có thể được ghi nhận, phân tích và dùng lại. Điều đó tạo ra câu hỏi về quyền riêng tư, đồng thuận và cách sử dụng dữ liệu cảm xúc trong môi trường làm việc.
Dù vậy, câu chuyện của Klarna cho thấy tương lai con người và AI sẽ không chỉ xoay quanh năng suất hay thất nghiệp. Một phần đáng kể sẽ là chuyện AI được đặt vào đâu trong cấu trúc quan hệ xã hội. Nếu hôm nay nó được dùng để tiếp nhận bức xúc nội bộ, ngày mai nó có thể hiện diện trong huấn luyện quản lý, đánh giá hiệu suất, hỗ trợ trị liệu hoặc thương lượng lao động. Đó là lúc bài toán không còn thuần công nghệ, mà trở thành câu hỏi về thiết kế tổ chức và phẩm chất con người mà doanh nghiệp muốn giữ lại.