Tin thị trường

Ba câu chuyện cho thấy sự nguy hiểm của deepfake

770
Người phụ nữ bị lừa 51.000 USD vì "Elon Musk giả", hay hiệu trưởng suýt mất việc vì bị nhái giọng nói, cho thấy bất kỳ ai cũng có thể là nạn nhân của deepfake.

Theo Fortune, Thượng viện Mỹ sẽ tổ chức phiên điều trần trong tuần này nhằm tìm cách "bảo vệ giọng nói và hình ảnh của tất cả cá nhân khỏi những hoạt động tái tạo trái phép được thực hiện bởi AI tạo sinh". Đây là một phần trong dự luật "No Fakes", được các Thượng nghị sĩ Chris Coons, Marsha Blackburn, Amy Klobuchar và Thom Tillis đề xuất cuối năm ngoái. Dự luật sẽ buộc cá nhân hoặc công ty phải chịu trách nhiệm khi tạo deepfake trái phép, đồng thời yêu cầu các nền tảng phải chịu trách nhiệm khi cố tình lưu trữ các bản deepfake này.
Deepfake là sự kết hợp giữa "deep learning" (học sâu) và "fake" (giả mạo) để ghép khuôn mặt, giọng nói... của bất kỳ ai vào bất kỳ nội dung gì, tạo cảm giác như thật.

Giả giọng rapper quá cố

Ngày 19/4, rapper Drake, từng là "nạn nhân" của AI giả giọng, đã tạo tác phẩm deepfake của riêng mình. Bản rap Taylor Made nhắc đến Taylor Swift, với giọng hát do AI tạo từ giọng Snoop Dogg và ca sĩ quá cố Tupac Shakur (1971-1996).

Cuối tháng 4, các luật sư đại diện của Shakur gọi Taylor Made là "sự lạm dụng trắng trợn di sản của một trong những nghệ sĩ hip-hop vĩ đại nhất mọi thời". Họ khẳng định chưa và sẽ không bao giờ chấp thuận việc dùng giọng của Shakur và yêu cầu Drake gỡ bài hát trong vòng 24 giờ. Taylor Made bị xóa ngày 27/4.

Theo Times of London, bản rap được tạo bởi Jammable (AI Voicify). AI này từng bị Hiệp hội Công nghiệp ghi âm Anh (BPI), tổ chức đại diện cho bốn hãng thu âm lớn nhất Anh và hàng trăm công ty độc lập, đề nghị ngừng hoạt động.

Jammable do sinh viên Đại học Southampton Aditya Bansal phát triển cuối năm 2022, có thể "nhại giọng" bất cứ ai chỉ với một số tệp dữ liệu đầu vào. Bansal nói với FT năm ngoái rằng anh kiếm "rất nhiều tiền" khi thu phí từ 2,5 đến 112 USD cho các bản âm thanh tùy theo tính năng.

BPI đánh giá Jammable là ví dụ điển hình về việc các công ty AI deepfake đang lấy tác phẩm bản quyền để làm giàu bất hợp pháp. Theo Fortune, khiếu nại của BPI cho thấy sự leo thang đáng kể trong căng thẳng giữa công ty AI và nhà sáng tạo trong ngành công nghiệp âm nhạc.

Mất 50.000 USD vì yêu lầm deepfake Elon Musk

Deepfake về người nổi tiếng không xa lạ, nhưng ngày càng nhiều nạn nhân sập bẫy. Theo Korea Herald, một phụ nữ Hàn Quốc cho biết được "Elon Musk" tiếp cận và làm quen với lý do "thường ngẫu nhiên liên lạc với người hâm mộ". Để tạo lòng tin, kẻ lừa đảo thường gọi điện video, nhưng thực chất là dùng hình ảnh deepfake.

Kẻ gian sau đó đưa số tài khoản ngân hàng tại Hàn Quốc và khuyến khích cô chuyển tiền đầu tư vì "vui mừng khi thấy người hâm mộ trở nên giàu có". Nạn nhân đã chuyển tổng cộng 70 triệu won (50.770 USD) trước khi kẻ lừa đảo biến mất không dấu vết.

Các chuyên gia cho biết đây sẽ là hình thức lừa đảo phổ biến. Thời gian tới, các trường hợp tương tự có thể xuất hiện ngày càng nhiều do AI tạo ảnh và video trở nên hoàn thiện hơn.

Dùng AI gài bẫy hiệu trưởng

Theo CNN, làn sóng phẫn nộ xảy ra hồi tháng 1 sau khi xuất hiện đoạn ghi âm cho thấy Eric Eiswert, hiệu trưởng một trường trung học ở ngoại ô Baltimore (Mỹ), có lời lẽ phân biệt chủng tộc. Bản ghi sau đó được gửi đến các cơ quan truyền thông và Hiệp hội quốc gia vì sự tiến bộ của người da màu (NAACP). Eiswert bị đình chỉ công tác.

Cuối tháng 4, Sở cảnh sát hạt Baltimore mới xác nhận Dazhon Darien, giáo viên thể thao của trường, có mâu thuẫn với Eiswert nên đã dùng AI tạo ra bản ghi âm để trả thù. Người này bị bắt hôm 25/4.

"Bản ghi âm đã để lại hậu quả rất nghiêm trọng, không chỉ khiến hiệu trưởng bị đình chỉ, mà còn dẫn tới làn sóng thù ghét trên mạng xã hội", cáo trạng được công bố sau vụ bắt giữ có đoạn.

Theo các chuyên gia, sự việc cho thấy mối nguy hiểm khi bất kỳ ai cũng có thể tạo deepfake hình ảnh và giọng nói giả mạo chỉ với vài USD. "Nạn nhân ở đây là một hiệu trưởng, người đang sinh sống bình thường, không phải Taylor Swift, Tổng thống Joe Biden hay Elon Musk. Đây là lỗ hổng nghiêm trọng khi AI biến thành vũ khí chống lại người khác", Hany Farid, giáo sư Đại học California tại Berkeley, người hỗ trợ cảnh sát phân tích bản ghi âm, nói với NPR.
(Nguồn: vnexpress)
Chia sẻ:
Bình luận Facebook
Tin nổi bật trong ngày