
Idol ảo đang dần phổ biến trên các nền tảng mạng xã hội.
Ngày càng nhiều người nổi tiếng trên mạng xã hội không có thật ngoài đời. Họ không ăn, không ngủ, không mắc lỗi, nhưng lại có hàng triệu người theo dõi và mang về doanh thu đều đặn nhờ công nghệ AI và thần tượng ảo đang đe dọa tương lai K-pop?
Sự lan rộng của idol ảo cũng làm dấy lên câu hỏi: ai đứng sau họ? Và người hâm mộ có biết họ đang tương tác với một AI?
Không phải ai cũng phân biệt được video dùng AI và video do người thật quay. Nhiều kênh YouTube, TikTok hiện nay sử dụng mô hình voice cloning để giả giọng người nổi tiếng, kết hợp với hình ảnh deepfake khiến khán giả tin rằng nhân vật kia là thật.
Một số vụ việc đã bị phát hiện khi có người dùng giọng của chính trị gia hoặc nghệ sĩ nổi tiếng để phát ngôn sai sự thật, thậm chí kêu gọi chuyển tiền vào tài khoản giả.
Nỗi lo về lạm dụng hình ảnh và danh tính khiến nhiều nền tảng bắt đầu siết kiểm duyệt. YouTube yêu cầu người đăng video khai báo rõ nếu sử dụng giọng hoặc hình ảnh mô phỏng người thật bằng AI. TikTok và Instagram cũng nâng cấp thuật toán để phát hiện nội dung giả lập, đặc biệt trong các video có yếu tố thương mại hoặc chính trị.
Một vấn đề pháp lý khác là quyền sở hữu: ai thực sự "sở hữu" nhân vật ảo? Là người lập trình, studio sản xuất, nền tảng đăng tải hay AI tự tạo ra nội dung? Đây là bài toán chưa có lời giải rõ ràng, nhất là khi idol ảo bắt đầu ký hợp đồng quảng cáo, có thu nhập và ảnh hưởng tới công chúng.
