
Chatbot AI đồng tình với hành động của người dùng thường xuyên hơn 49% so với con người - Ảnh: DIGITALVISION
Nghiên cứu do các nhà khoa học tại Đại học Stanford (Mỹ) dẫn đầu, đã thử nghiệm 11 hệ thống trí tuệ nhân tạo (AI) phổ biến và phát hiện tất cả đều biểu hiện "nịnh nọt", tức hành vi quá đồng thuận và tâng bốc người dùng, ở các mức độ khác nhau.
Điều đáng lo là người dùng lại có xu hướng tin tưởng và thích các phản hồi này hơn, đặc biệt khi AI đồng tình với quan điểm cá nhân của họ, theo trang ScienceAlert ngày 27-3.
Trong một thí nghiệm, các nhà nghiên cứu so sánh phản hồi của AI với lời khuyên từ con người trên một diễn đàn trực tuyến. Kết quả cho thấy chatbot đồng tình với hành động của người dùng nhiều hơn khoảng 49%, kể cả trong những tình huống liên quan đến hành vi sai trái hoặc thiếu trách nhiệm xã hội.
Một thí nghiệm khác với khoảng 2.400 người tham gia cho thấy những người tương tác với AI trở nên tin rằng mình đúng hơn và ít sẵn sàng hàn gắn mối quan hệ khi AI tỏ ra "quá đồng tình" với quan điểm của họ. Họ cũng ít xin lỗi hoặc thay đổi hành vi, làm gia tăng nguy cơ xung đột kéo dài.
Các chuyên gia nhận định hiện tượng này đặc biệt nguy hiểm đối với trẻ em và thanh thiếu niên - những người vẫn đang phát triển kỹ năng cảm xúc và xã hội.
Việc phụ thuộc vào AI để tìm lời khuyên có thể làm giảm khả năng nhìn nhận nhiều góc độ và xử lý mâu thuẫn trong đời thực.
Ngoài ra rủi ro còn lan sang nhiều lĩnh vực khác.
Trong y tế, AI có thể khiến bác sĩ củng cố chẩn đoán ban đầu thay vì xem xét lại. Trong chính trị, nó có thể làm gia tăng các quan điểm cực đoan bằng cách liên tục xác nhận niềm tin sẵn có.
Các nhà nghiên cứu cho rằng việc giảm xu hướng "nịnh nọt" này là một thách thức lớn, có thể đòi hỏi đào tạo lại hệ thống AI hoặc thiết kế lại cách tương tác.
Mục tiêu cuối cùng là phát triển các hệ thống không chỉ đồng cảm mà còn giúp người dùng mở rộng góc nhìn thay vì củng cố định kiến sẵn có.
Nghiên cứu đăng trên tạp chí Science.