Shapes thử nghiệm tương lai nơi con người và AI cùng sống trong group chat

Điểm nổi bật
- 8 triệu USD seed: Shapes ra khỏi stealth với vòng vốn do Lightspeed dẫn dắt.
- 400.000 MAU: ứng dụng đã có hơn 400.000 người dùng hoạt động hàng tháng.
- 3 triệu “Shapes”: người dùng đã tự tạo khoảng 3 triệu nhân vật AI để đưa vào hội thoại nhóm.
- 2–4 giờ mỗi ngày: công ty nói hàng nghìn người dùng dành từ 2 đến 4 giờ/ngày trong ứng dụng.
- 1 luận điểm mới: thay vì cô lập người dùng với chatbot riêng tư, AI được đưa vào không gian giao tiếp cộng đồng để giảm rủi ro lệ thuộc cảm xúc.
Biểu đồ
Tóm tắt
Shapes là một tín hiệu thú vị về tương lai quan hệ giữa con người và AI. Thay vì xem AI như một trợ lý riêng tư hoặc bạn đồng hành một-một, startup này đặt các nhân vật AI vào trong cùng group chat với người thật, nơi AI vừa hỗ trợ vừa tạo động lực để hội thoại tiếp tục diễn ra.
Điểm đáng chú ý hơn là lập luận của công ty: đưa AI vào môi trường xã hội có thể là cách giảm bớt những hệ quả tiêu cực từ tương tác riêng tư kéo dài với chatbot, thứ ngày càng được gắn với hiện tượng “AI psychosis”. Nếu giả thuyết đó đúng, tương lai người–AI có thể sẽ ít giống các cuộc đối thoại cô lập và giống các không gian cộng tác công khai hơn.
Chi tiết
Theo TechCrunch, Shapes vừa ra khỏi giai đoạn stealth cùng vòng gọi vốn seed 8 triệu USD, nhưng giá trị của câu chuyện không chỉ nằm ở số tiền. Điều đáng quan tâm là thiết kế tương tác mà startup này đang thử: các nhân vật AI xuất hiện trong group chat như một thành viên bình thường, cùng trò chuyện với con người trong một không gian chung. Trong app, người dùng có thể tạo “Shapes” của riêng mình, đặt tính cách cho chúng và đưa chúng vào các phòng chat theo sở thích. Công ty cho biết ứng dụng đã có hơn 400.000 người dùng hoạt động hàng tháng, với khoảng 3 triệu nhân vật AI đã được tạo.
Điểm mới ở đây là Shapes đi ngược với mô hình phổ biến hiện nay của AI tiêu dùng. Hầu hết chatbot lớn được thiết kế cho tương tác một-một: một người nói chuyện với một tác tử, thường trong không gian riêng tư, liên tục và có thể kéo dài hàng giờ. Shapes lập luận rằng chính mô hình đó dễ đẩy người dùng vào trạng thái lệ thuộc cảm xúc, ảo tưởng về mức độ thấu hiểu của AI hoặc đánh mất các cơ chế kiểm tra xã hội tự nhiên. Nhà sáng lập thậm chí nhắc trực tiếp đến khái niệm “AI psychosis”, dùng nó như một lý do để xây sản phẩm theo hướng nhóm thay vì cá nhân.
Từ góc nhìn xã hội học công nghệ, đây là một giả thuyết đáng chú ý. Khi AI cùng hiện diện với người thật trong một cuộc trò chuyện chung, mọi phát ngôn của AI không còn đi thẳng vào một đầu người dùng cô lập mà luôn đi qua lớp phản chiếu của cộng đồng. Con người khác trong nhóm có thể phản biện, bẻ hướng, đùa cợt hoặc đơn giản là làm loãng mức độ ảnh hưởng của AI. Điều đó tạo ra một loại “ma sát xã hội” có thể giúp AI bớt quyền lực hơn so với khi nó nói chuyện riêng tư, liên tục và đầy tính cá nhân với một người.
Dĩ nhiên, mô hình này cũng tạo ra một câu hỏi lớn hơn: nếu AI trở thành một “thành viên mặc định” trong group chat, chuẩn mực giao tiếp của con người sẽ thay đổi ra sao? Shapes cho rằng AI có thể giữ cho cuộc trò chuyện không chết, trả lời ngay khi không ai lên tiếng trước và đóng vai trò chất xúc tác cho cộng đồng. Đây là lợi ích thực dụng, nhất là trong các cộng đồng fandom hoặc các nhóm có sở thích hẹp. Nhưng mặt kia của nó là nguy cơ để AI chiếm ngày càng nhiều không gian biểu đạt xã hội, làm mờ đường ranh giữa giao tiếp người–người và giao tiếp được máy trung gian hóa.
Việc hàng nghìn người dùng dành 2–4 giờ mỗi ngày trong app cho thấy đây không phải chỉ là một thí nghiệm học thuật. Nó đang chạm vào một nhu cầu thật: nhiều người muốn AI hiện diện ở nơi họ đã quen sinh hoạt số, tức group chat, chứ không muốn mở thêm một cửa sổ công cụ riêng biệt. Nếu xu hướng này lan rộng, tương lai người–AI có thể không xoay quanh “mỗi người một trợ lý”, mà quanh các không gian giao tiếp hỗn hợp nơi AI là thành viên phụ trợ, MC, thư ký, người khơi gợi chủ đề hoặc thậm chí là nhân vật giải trí.
Vì thế, Shapes đáng theo dõi không phải vì nó chắc chắn đúng, mà vì nó đang thử một nhánh khác của tương lai người–AI: bớt riêng tư hơn, bớt thần bí hóa hơn và mang tính xã hội hóa nhiều hơn. Đó có thể là một cơ chế giảm rủi ro; cũng có thể là bước đầu của một hình thức phụ thuộc mới. Nhưng chắc chắn nó cho thấy cuộc tranh luận về AI không còn chỉ là năng lực mô hình, mà đã chuyển sang câu hỏi AI sẽ sống cùng con người trong cấu trúc xã hội nào.