Nhận diện và cách phòng tránh các cuộc gọi lừa đảo deepfake
Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo tinh vi mới đó là tin tặc lợi dụng deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người thật ngoài đời để lừa nạn nhân chuyển tiền, khiến không ít người “sập bẫy”.
Vậy video deepfake là gì?
Deepfake là sự kết hợp giữa thuật ngữ deep learning (học sâu) và fake (giả mạo). Công nghệ này sử dụng trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả.
Ban đầu, deepfake chỉ được sử dụng trong các ứng dụng "hoán đổi khuôn mặt", cho phép người dùng thay đổi khuôn mặt và giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, cũng như trong các trào lưu chế ảnh, lồng tiếng cho các video hài hước.
Tuy nhiên, từ một công nghệ phục vụ giải trí, deepfake đã được những kẻ lừa đảo sử dụng để thực hiện các hành vi gian lận, tạo ra các đoạn video lừa đảo và mạo danh, khiến nhiều người đã bị mất tiền do tin tưởng rằng họ đang trò chuyện với người thân, đồng nghiệp hoặc cấp trên yêu cầu chuyển tiền cho họ.
Ngoài ra, nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.
Theo các chuyên gia công nghệ, trong các tình huống lừa đảo deepfake, đối tượng tìm kiếm và thu thập thông tin cá nhân, hình ảnh và video có giọng nói của người khác, thông qua các nguồn công khai trên mạng xã hội. Sau đó, sử dụng công nghệ deepfake để tạo ra những video với độ chính xác tương đối cao, khó phân biệt giữa thật - giả, với hình ảnh và giọng nói của người được làm giả, từ đó thực hiện các hành vi lừa đảo. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới tài chính. Hình thức lừa đảo này đang làm gia tăng mối lo ngại cho cộng đồng người dùng Internet.
Thực trạng lừa đảo deepfake tại Việt Nam
Lừa đảo deepfake được tội phạm quốc tế đã và đang áp dụng từ khoảng 2 - 3 năm nay. Do vậy, khi tội phạm mạng trong nước bắt đầu biết nhiều hơn về cách làm, đánh cắp video, hình ảnh, cắt ghép rồi sau đó dùng những công cụ để tạo các sản phẩm deepfake thì lúc đó có thể sẽ tạo ra "một làn sóng lừa đảo thế hệ 4.0".
Chia sẻ tại cuộc họp báo thường kỳ tháng 5/2023 của Bộ Thông tin và Truyền thông (TT&TT), ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin cũng cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video deepfake nhằm mục đích lừa đảo chuyển tiền.
Các đối tượng sử dụng công nghệ AI để tạo ra những video hoặc hình ảnh giả người thân, bạn bè của nạn nhân để thực hiện các cuộc gọi lừa đảo trực tuyến.
Cụ thể, thông qua các ứng dụng cung cấp nội dung hình ảnh, tin nhắn, gọi điện như Viber, Zalo, Messenger..., kẻ xấu có thể thực hiện cuộc gọi thoại, thậm chí cả cuộc gọi video với giọng nói, hình ảnh là của người thân, người quen, lãnh đạo... khiến người nhận rất khó phân biệt thật giả và sập bẫy lừa đảo cuộc gọi deepfake.
Thủ đoạn lừa đảo thường diễn ra như kẻ lừa đảo tìm cách chiếm đoạt tài khoản Zalo, Facebook của người dùng, từ đó thu thập hình ảnh và cả giọng nói của nạn nhân từ các video, và sử dụng deepfake để tạo ra video mạo danh.
Sau đó, kẻ lừa đảo sẽ gửi tin nhắn mượn tiền từ danh sách bạn bè của nạn nhân, đồng thời thực hiện cuộc gọi video mạo danh, phát video giả mạo để tăng độ tin cậy nhằm lừa đảo thành công hơn.
Hay một kịch bản khác là đối tượng tạo một tài khoản giả mạo trên mạng xã hội, sử dụng thông tin và ảnh đại diện của người dùng gốc và kết bạn với nạn nhân trong danh sách bạn bè. Sau đó, đối tượng gửi tin nhắn vay mượn tiền theo kịch bản đã được chuẩn bị sẵn. Để tạo lòng tin, đối tượng sử dụng video deepfake để thực hiện cuộc gọi video, khiến nạn nhân nhận ra hình ảnh và giọng nói của người quen, và nhanh chóng chuyển tiền theo yêu cầu của đối tượng.
Thường những cuộc gọi video giả mạo này sẽ rất ngắn với mục đích cho bạn bè hay người thân của nạn nhân nhìn thoáng qua, sau đó tắt đi với lý do sóng điện thoại kém. Mấu chốt của việc này là để nạn nhân tin rằng bạn bè, người thân của mình đang gặp vấn đề và cần giúp đỡ, gửi tiền gấp. Với cách thức này, những người không để ý hoặc những người ở độ tuổi trung niên... chỉ nhìn thoáng qua có thể dễ dàng “sập bẫy” kẻ gian.
Công nghệ AI đang giúp ích rất nhiều trong đời sống của hàng ngày. Tuy nhiên, những kẻ xấu cũng đã lợi dụng công nghệ này để tạo ra các hình ảnh và sao chép giọng nói, từ việc chiếm đoạt tài khoản Facebook, Instagram... Sau đó, họ nghiên cứu tin nhắn, cách xưng hô, lịch sử giao dịch... để tạo ra các cuộc gọi giả và lừa đảo người thân, gia đình của những tài khoản bị chiếm đoạt, thậm chí gọi trực tiếp tới người bị hại để dựng lên những tình huống khẩn cấp cần chuyển tiền.
Trong thời gian gần đây, đã có nhiều trường hợp "sập bẫy" hình thức lừa đảo này được ghi nhận tại nhiều tỉnh/thành phố. Các đối tượng lừa đảo đã sử dụng các chiêu thức tinh vi và lợi dụng tình huống cũng như tâm lý của nạn nhân để dễ dàng thực hiện thành công hơn như có những trường hợp, kẻ lừa đảo lợi dụng cuộc gọi deepfake để lừa đảo người khác trong những tình huống khẩn cấp, như chuyển tiền cho con đang cấp cứu ở bệnh viện.
Cũng có những trường hợp khác, khi nhận được tin nhắn hỏi vay tiền từ người thân, người bị lừa đã cẩn thận gọi video lại để kiểm tra và thấy hình ảnh đúng là bạn của mình, tin tưởng và chuyển khoản ngay lập tức. Tuy nhiên, một thời gian sau đó, khi thấy người thân đăng thông báo trên trang cá nhân về việc bị kẻ gian hack tài khoản Facebook để yêu cầu vay tiền một số bạn bè và người thân, thì mới nhận ra mình đã bị lừa.
Hình thức lừa đảo này ngày càng phổ biến, tuy nhiên, nhiều chuyên gia cho rằng hình thức này thường khó thành công đối với giới trẻ. Vì vậy, đối tượng bị nhắm đến thường là những người lớn tuổi, những người chậm tiếp thu công nghệ mới.
Dấu hiệu nhận biết và một số khuyến nghị
Ngay từ thời điểm nhận được thông tin phản ánh từ người dân, Cục An toàn thông tin (Bộ TT&TT) cũng đã cảnh báo rộng rãi trên các phương tiện thông tin đại chúng về hình thức lừa đảo mới này.
Không chỉ Việt Nam mà nhiều nước trên thế giới, cùng các công ty công nghệ hàng đầu đang cùng nhau tìm kiếm giải pháp kỹ thuật để đối phó với các trường hợp lừa đảo deepfake. Ngăn chặn lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Tuy nhiên, ở góc độ căn cơ, gốc rễ của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính.
Đối với các cuộc gọi video deepfake như hiện nay, người dùng vẫn có thể nhận biết một số dấu hiệu bằng mắt thường. Video deepfake tạo sẵn thường có nội dung chung chung, không hoàn toàn phù hợp với ngữ cảnh giao tiếp thực tế, có thể khiến nạn nhân nghi ngờ, phát hiện. Để che giấu các điểm yếu này, các kẻ lừa đảo thường tạo video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video có tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động/wifi yếu.
Thời lượng cuộc gọi thường rất ngắn, chỉ vài giây. Khuôn mặt thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế của họ trông lúng túng, không tự nhiên, hay là hướng đầu và cơ thể trong video không nhất quán với nhau…
Ngoài ra, màu da của nhân vật trong video cũng có dấu hiệu bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào video hoặc video không có âm thanh. Kẻ lừa đảo thường ngắt kết nối giữa chừng, với lý do là mất sóng, sóng yếu... Và các cuộc gọi lừa đảo deepfake thường xảy ra tình huống, người gọi đề nghị chuyển tiền vào tài khoản không phải của người đang thực hiện cuộc gọi.
Với những dấu hiệu lạ như vậy, đó chính là “tín hiệu đỏ” của deepfake. Người dân cần luôn cảnh giác và giữ bình tĩnh để xử lý tình huống.
Bên cạnh đó, các chuyên gia an ninh mạng cũng khuyến cáo người dùng không nên tin ngay những cuộc gọi yêu cầu cung cấp thông tin, số tài khoản, chuyển tiền… qua mạng xã hội. Người dùng cần phải nhận biết, nâng cao cảnh giác trước các thủ đoạn lừa đảo này.
Tin tưởng, nhưng vẫn phải xác minh. Nếu bạn nhận được một tin nhắn thoại, đặc biệt là tin nhắn liên quan đến vay tiền hoặc mượn tài sản cá nhân, dù giọng nói nghe có quen thuộc, tốt nhất vẫn cần gọi lại số điện thoại mà bạn đã biết là chính xác để xác minh.
Trong trường hợp gọi qua các ứng dụng như Zalo, Messenger, Viber, hãy đảm bảo thực hiện cuộc gọi video ít nhất trong 1 phút và đặt những câu hỏi cá nhân chỉ bạn và người kia mới biết. Deepfake sẽ không thể tái hiện được một cuộc trò chuyện thực sự trong thời gian thực với độ chính xác cao, vì cảm xúc và biểu cảm của AI hay deepfake vẫn không thể bắt chước được như người thật, tính đến thời điểm hiện tại.
Đừng vội truy cập vào bất kỳ liên kết nào được gửi đến: Các chuyên gia an ninh mạng khuyến nghị người dùng phải cảnh giác khi có một người trong danh sách bạn bè trên mạng xã hội đột nhiên hỏi vay tiền hoặc gửi một đường link lạ. Đây có thể là một chiêu trò để kẻ gian chiếm đoạt tài khoản trực tuyến của bạn. Hãy tìm cách xác minh lại với người đã gửi tin nhắn cho bạn.
Hãy thận trọng đối với những chi tiết nhỏ nhất: Nếu bạn nhận được một cuộc gọi yêu cầu chuyển tiền hoặc cuộc gọi video liên quan đến chuyển tiền, dù người gọi có thân thiết, bạn cũng cần kiểm tra kỹ số điện thoại, email hoặc tài khoản có khớp với người đang thực hiện yêu cầu hay không. Thông thường, kẻ lừa đảo sẽ yêu cầu chuyển tiền sang một tài khoản của bên thứ ba hoặc tài khoản có tên gần giống. Nếu đó là một tài khoản lạ, tốt nhất là không tiến hành giao dịch.
Hạn chế chia sẻ quá nhiều hình ảnh và video có giọng nói cá nhân trên các nền tảng mạng xã hội. Như chúng ta đã biết, để có thể tạo ra những hình ảnh và âm thanh giả, kẻ lừa đảo sẽ cần sử dụng các bản ghi âm, hình ảnh hoặc cảnh quay để tạo ra các sản phẩm giả mạo.
Để ngăn chặn việc sao chép dữ liệu hình ảnh và âm thanh, hãy hạn chế chia sẻ hình ảnh và video cá nhân trên các nền tảng mạng xã hội. Đồng thời, luôn giữ an toàn tài khoản mạng xã hội và email bằng cách sử dụng các mật khẩu mạnh. Nếu bạn muốn chia sẻ video của mình trên mạng, nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật của mình.
Ngoài ra, một số trang web chuyên về bảo mật đã cung cấp một số dấu hiệu giúp người dùng nhận biết deepfake ngay lập tức, bao gồm: Video chuyển động giật cục, như một đoạn video lỗi; Ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo; Thay đổi tông màu da liên tục; Video có những sự nhấp nháy lạ thường; Khẩu hình miệng không đồng bộ với lời nói; Hiện lên các đồ vật kỹ thuật số trong hình ảnh; Âm thanh và/hoặc video chất lượng thấp; Nhân vật nói liên tục, không chớp mắt.
Với các dấu hiệu nhận biết đó, trong trường hợp bị làm giả deepfake, người sử dụng nên thông báo ngay lập tức cho mọi người biết và báo với cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án https://chongluadao.vn; đồng thời cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại địa chỉ: dauhieuluadao.com.
Trong bối cảnh công nghệ phát triển hằng ngày, deepfake chỉ là một trong những công cụ được những kẻ lừa đảo sử dụng. Ngăn chặn lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Việc đối phó với lừa đảo trực tuyến không chỉ đơn thuần là vấn đề kỹ thuật, mà còn yêu cầu sự phối hợp đồng bộ giữa các lĩnh vực công nghệ, pháp lý và cơ chế.
Trong khi chờ đợi các giải pháp kỹ thuật để ngăn chặn triệt để các hình thức lừa đảo này, sự đồng lòng và phối hợp từ tất cả các bên là cần thiết, đặc biệt là các cơ quan báo chí cần phải tích cực tuyên truyền để nâng cao nhận thức của người dân về các hình thức tấn công và lừa đảo mới./.