Mọi xâm phạm dữ liệu và tấn công trực tuyến dường như đều liên quan đến một số loại lừa đảo để đánh cắp thông tin đăng nhập mật khẩu, khởi chạy các giao dịch gian lận hoặc lừa ai đó tải xuống phần mềm độc hại.
Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng phát triển, sự gia tăng của các thiết bị kết nối di động, cùng sự thiếu hụt lực lượng chuyên gia an ninh mạng (ANM) dự kiến sẽ tạo thêm nhiều lỗ hổng cho tội phạm mạng khai thác.
Thông tin sai lệch được xếp hạng là một trong những rủi ro toàn cầu hàng đầu vào năm 2024, trong đó deepfake là một trong những ứng dụng AI đáng lo ngại nhất khi nó có thể bị lạm dụng để thao túng chính trị, tạo ra thông tin sai lệch gây hậu quả nghiêm trọng.
Mối đe dọa về video và hình ảnh deepfake đang gia tăng trước cuộc bầu cử quốc hội Hàn Quốc dự kiến diễn ra vào ngày 10/4 tới đây, đặt ra một thách thức nghiêm trọng đối với cơ quan giám sát bầu cử và cử tri về những nguy cơ tiềm ẩn của công nghệ này đối với những lá phiếu của người dân Xứ Kim chi.
Các chuyên gia trí tuệ nhân tạo (AI), trong đó có cả Yoshua Bengio - nhà nghiên cứu AI tiên phong - đã ký tên vào lá thư ngỏ kêu gọi tăng cường quản lý hoạt động sáng tạo nội dung sử dụng công nghệ giả mạo khuôn mặt (deepfake) tiềm ẩn nhiều nguy cơ cho xã hội.
Thời đại công nghệ 4.0 lên ngôi đã tạo nhiều cơ hội cho loại hình tội phạm không gian mạng hoạt động và diễn biến phức tạp. Các đối tượng không chỉ sử dụng những dạng tin nhắn, cuộc gọi lừa đảo thông thường mà hiện nay còn sử dụng thủ đoạn tinh vi hơn, lợi dụng video call - hay còn gọi là “deepfake” (Một hình thức gọi trực tuyến xem được hình ảnh) để đánh vào tâm lý nạn nhân khiến nhiều người dính bẫy mất tiền oan.
Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo tinh vi mới đó là tin tặc lợi dụng deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người thật ngoài đời để lừa nạn nhân chuyển tiền, khiến không ít người “sập bẫy”.
Khi những hình ảnh, âm thanh và video deepfake được tạo ra ngày càng tinh vi và khó phát hiện, nhiều chuyên gia đã xếp hạng deepfake là một trong những mối đe dọa tội phạm trí tuệ nhân tạo (AI) nghiêm trọng nhất.
Trong những năm gần đây, chúng ta đã chứng kiến sự gia tăng nhanh chóng và ngày càng tinh vi của các sản phẩm deepfake. Từ năm 2019 - 2020, số lượng nội dung deepfake trực tuyến đã tăng 900%. Các dự báo cho thấy xu hướng đáng lo ngại này vẫn sẽ tiếp tục gia tăng trong những năm tới.
Trí tuệ nhân tạo (AI) làm cho cuộc sống của chúng ta dễ dàng hơn theo nhiều cách khác nhau, đặc biệt với sự phát triển mạnh mẽ của AI tạo sinh (generative AI). Tuy nhiên, bên cạnh những lợi ích này có thể đi kèm với đó là những rủi ro.
Những công nghệ mới như máy tính lượng tử, trí tuệ nhân tạo (AI), Internet vạn vật (IoT) sẽ dần phổ biến và được ứng dụng rộng rãi. Các chính phủ và doanh nghiệp (DN) đứng trước nhiệm vụ nâng cao biện pháp bảo vệ an ninh mạng (ANM).
Công nghệ ngày càng phát triển mạnh mẽ và tinh vi làm cho việc xác định thông tin thật và giả càng trở nên khó khăn hơn. Một trong những mối nguy hiểm có xu hướng phát triển gần đây là sự xuất hiện của những hình ảnh, video được tạo ra bởi công nghệ deepfake để mô tả một người nào đó nói và làm những điều chưa từng xảy ra. Để hạn chế vấn nạn này, blockchain được coi là công cụ có thể giúp tăng cường khả năng xác định các nội dung deepfake.