Hàng triệu người dùng ngân hàng là mục tiêu của lừa đảo nhân bản giọng nói bằng AI
An toàn thông tin - Ngày đăng : 09:10, 20/09/2024
Hàng triệu người dùng ngân hàng là mục tiêu của lừa đảo nhân bản giọng nói bằng AI
Một ngân hàng Anh đã cảnh báo "hàng triệu" người có thể trở thành nạn nhân của các vụ lừa đảo sử dụng trí tuệ nhân tạo (AI) để nhân bản giọng nói của họ.
Starling Bank, một công ty cho vay trực tuyến duy nhất, cho biết những kẻ lừa đảo có khả năng sử dụng AI để sao chép giọng nói của một người chỉ từ 3 giây âm thanh, chẳng hạn như từ một video mà người đó đã đăng tải trực tuyến. Sau đó, những kẻ lừa đảo có thể xác định bạn bè và thành viên gia đình của người đó và sử dụng giọng nói được sao chép bằng AI để dàn dựng một cuộc gọi điện thoại để dàn xếp một vụ tiền nong.
Theo Starling Bank đưa ra trong thông cáo báo chí ngày 18/9, những kiểu lừa đảo này có khả năng "làm giả giọng nói của hàng triệu người".
Một cuộc khảo sát hơn 3.000 người lớn mà ngân hàng đã tiến hành với Mortar Research vào tháng trước cho thấy hơn 1/4 số người được hỏi cho biết họ đã bị nhắm mục tiêu bởi một vụ lừa đảo nhân bản giọng nói AI trong 12 tháng qua.
Cuộc khảo sát cũng cho thấy 46% số người được hỏi không biết rằng có những vụ lừa đảo như vậy và 8% sẽ gửi số tiền theo yêu cầu của bạn bè hoặc thành viên gia đình, ngay cả khi họ nghĩ rằng cuộc gọi có vẻ lạ.
“Mọi người thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của họ mà không bao giờ nghĩ rằng điều đó khiến họ dễ bị lừa đảo hơn”, Lisa Grahame, Giám đốc an ninh thông tin tại Starling Bank, cho biết trong thông cáo báo chí.
Ngân hàng khuyến cáo mọi người hãy chú ý đến cụm từ “an toàn” với những người thân yêu của họ - một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu khác của họ - có thể được sử dụng để xác minh danh tính của họ qua điện thoại.
Ngân hàng cũng khuyến nghị không nên chia sẻ một số từ “an toàn” qua tin nhắn văn bản, điều này có thể khiến những kẻ lừa đảo dễ dàng phát hiện ra hơn, nhưng nếu chia sẻ theo cách này, tin nhắn cần được xóa sau khi người kia đã nhìn thấy.
Khi AI ngày càng bắt chước giọng nói của con người như thật, mối lo ngại ngày càng tăng về khả năng gây nguy cơ cho con người, chẳng hạn như giúp tội phạm truy cập vào tài khoản ngân hàng và phát tán thông tin sai lệch.
Đầu năm nay, OpenAI, nhà sản xuất chatbot AI tạo ra ChatGPT, đã công bố công cụ sao chép giọng nói Voice Engine, nhưng không tiết lộ thời điểm cung cấp rộng rãi, với lý do "có khả năng sử dụng sai giọng nói tổng hợp"./.