Deepfake - Công cụ hay mối đe dọa?

An toàn thông tin - Ngày đăng : 16:05, 12/01/2025

Deepfake có thể trở thành một công cụ sáng tạo hữu ích nếu được kiểm soát đúng cách và tuân thủ các quy định pháp luật.
An toàn thông tin

Deepfake - Công cụ hay mối đe dọa?

Hoàng Yến 12/01/2025 16:05

Deepfake có thể trở thành một công cụ sáng tạo hữu ích nếu được kiểm soát đúng cách và tuân thủ các quy định pháp luật.

Tuy nhiên, nếu không quản lý chặt chẽ, nó có thể làm tổn hại lòng tin xã hội, phá hoại thông tin, và gây hậu quả an ninh nghiêm trọng. Việc phát triển các công cụ phát hiện giả mạo, tăng cường giáo dục nhận thức, và áp dụng khung pháp lý rõ ràng là thiết yếu để hạn chế các mối nguy từ công nghệ này.

Tóm tắt:
Bài viết tập trung vào công nghệ deepfake, một sáng tạo từ trí tuệ nhân tạo (AI) có thể tạo ra các video và âm thanh giả mạo chân thực. Nội dung đề cập hai mặt của deepfake:
Rủi ro và mối đe dọa:

- Deepfake có thể làm suy giảm lòng tin, lan truyền thông tin sai lệch và ảnh hưởng chính trị, như tạo ra các bài phát biểu giả mạo của lãnh đạo.
- Được sử dụng để xâm phạm quyền riêng tư cá nhân, đặc biệt trong việc tạo nội dung khiêu dâm hoặc lừa đảo tài chính.
- Có thể gây bất ổn xã hội, làm mất an ninh quốc gia và trở thành công cụ của các tội phạm mạng.
Tiềm năng sáng tạo:

- Deepfake mở ra cơ hội mới trong nghệ thuật, giải trí và giáo dục, như trẻ hóa diễn viên trong phim, lồng tiếng chất lượng cao, hoặc mô phỏng nhân vật lịch sử trong bảo tàng.
- Ứng dụng trong y tế để tái tạo giọng nói hoặc đào tạo nhân viên y tế qua các video mô phỏng.
Giải pháp và tương lai:

- Các biện pháp như phát triển công nghệ phát hiện deepfake, giáo dục nhận thức cộng đồng, và xây dựng pháp luật chặt chẽ được đề xuất.
- Deepfake có thể trở thành công cụ sáng tạo mạnh mẽ hoặc mối nguy hiểm tùy thuộc vào cách xã hội sử dụng và quản lý công nghệ này

Không còn là trò giải trí đơn thuần

Deepfake xuất hiện trên thị trường chính thống vào khoảng năm 2019, nhanh chóng mang đến cho chúng ta những video và âm thanh giả mạo về người nổi tiếng dưới dạng Nancy Pelosi, Tom Cruise và thậm chí cả Keanu Reeves, chủ yếu là để gây cười và giải trí vào thời điểm đó.

Hiện nay, deepfakes đã nhanh chóng phát triển từ một thứ mới lạ thành một chủ đề thảo luận nổi bật, gây ra cả sự phấn khích và lo ngại. Những video do trí tuệ nhân tạo (AI) tạo ra này, có thể thao túng hình ảnh và giọng nói của một người để tạo ra nội dung giả mạo cực kỳ chân thực, đã gây ra nhiều cuộc tranh luận trong nhiều ngành công nghiệp - từ giải trí và nghệ thuật đến chính trị và an ninh mạng.

Thuật ngữ “deepfake” xuất phát từ “học sâu” và “giả”, chỉ ra rằng các video hoặc hình ảnh này được tạo ra bằng các thuật toán học máy tinh vi. Deepfake thường liên quan đến việc sử dụng AI để tạo ra các video có độ chân thực cao, trong đó khuôn mặt hoặc giọng nói của các cá nhân được hoán đổi hoặc thao túng.

Ví dụ, công nghệ deepfake có thể tạo ra video về một người nào đó nói điều gì đó mà họ chưa từng nói bằng cách đào tạo các thuật toán trên một tập dữ liệu lớn về các mẫu giọng nói và biểu cảm khuôn mặt của người đó.

a2.png

Việc tạo ra deepfake đòi hỏi sức mạnh tính toán và kiến thức kỹ thuật đáng kể, thường liên quan đến các đơn vị xử lý đồ họa (GPU) cao cấp và phần mềm chuyên dụng. Do đó, mặc dù deepfake phức tạp và tốn kém để sản xuất, nhưng chúng cũng có xu hướng thuyết phục hơn nhiều so với những công nghệ khác. Nhưng khi deepfake trở nên tinh vi và dễ tiếp cận hơn, một câu hỏi trung tâm xuất hiện: Liệu chúng có phải là mối đe dọa đối với sự thật hay chúng có thể được khai thác như một công cụ sáng tạo?

Mặt trái của deepfake

Mối đe dọa đối với sự thật

Một trong những mối quan tâm cấp bách nhất xung quanh deepfake là khả năng phá vỡ sự thật và lòng tin. Trong một thế giới mà bằng chứng video từ lâu đã được coi là hình thức chứng minh cuối cùng, deepfake thách thức giả định này bằng cách khiến việc phân biệt giữa cái gì là thật và cái gì là bịa đặt ngày càng trở nên khó khăn.

Thông tin sai lệch và thao túng chính trị:

Deepfake có khả năng tác động nghiêm trọng đến chính trị và quan hệ quốc tế. Trong tay kẻ xấu, những video này có thể được sử dụng làm vũ khí để tạo ra các bài phát biểu hoặc hành động giả mạo của các nhân vật chính trị, gây căng thẳng, phát tán thông tin sai lệch hoặc ảnh hưởng đến các cuộc bầu cử. Hãy tưởng tượng một video thuyết phục về một nhà lãnh đạo thế giới tuyên chiến hoặc thừa nhận những tội ác mà họ chưa từng phạm phải - điều này có thể tạo ra sự hỗn loạn trước khi sự thật có cơ hội bắt kịp.

Mối nguy hiểm này còn trầm trọng hơn do tốc độ và phạm vi tiếp cận của mạng xã hội, nơi tin giả có thể lan truyền nhanh chóng, thường vượt xa các nỗ lực kiểm tra thực tế.

Xâm phạm quyền riêng tư và đánh cắp danh tính:

Deepfake cũng có thể gây ra mối đe dọa nghiêm trọng đến quyền riêng tư của cá nhân. Trong một số trường hợp đáng lo ngại nhất, chúng đã được sử dụng để tạo ra nội dung khiêu dâm, không có sự đồng thuận, thường nhắm vào phụ nữ. Khả năng thao túng hình ảnh của ai đó mà không có sự đồng ý của họ đặt ra những câu hỏi về đạo đức và pháp lý về tương lai của quyền riêng tư cá nhân trong thời đại kỹ thuật số.

Đe dọa an ninh quốc gia

Gây bất ổn chính trị và xã hội:

Deepfake có thể được sử dụng để tạo ra các thông điệp chính trị giả mạo, làm xáo trộn quan điểm của công chúng hoặc ảnh hưởng đến kết quả bầu cử. Mặt khác, video giả mạo có thể tạo ra các tình huống nguy hiểm, chẳng hạn như phát tán lời kêu gọi bạo lực hoặc thông tin sai sự thật từ các lãnh đạo.

a1.png

Đe dọa an ninh quốc gia:

Deepfake có thể được sử dụng trong các chiến dịch gián điệp để giả mạo thông tin nhạy cảm hoặc tạo ra hiểu lầm giữa các quốc gia. Đồng thời, công nghệ này có thể làm giả các chỉ thị hoặc thông tin chiến lược trong các lực lượng vũ trang, dẫn đến hậu quả nghiêm trọng.

Công cụ lừa đảo tài chính

Nhà báo người Tây Ban Nha, ông Jason Deign, kể câu chuyện lừa đảo bằng Deepfake trên newsroom: Vào tháng 1/2024, một nhân viên tài chính của một công ty đa quốc gia tại Hồng Kông nhận được email từ Giám đốc tài chính của công ty tại Anh. Giám đốc tài chính đang nói về việc thực hiện các giao dịch bí mật, điều này có vẻ kỳ lạ, nhưng một cuộc gọi video sẽ làm rõ tình hình.

Cuộc gọi có sự tham gia của một số nhân vật cấp cao trong tổ chức, vì vậy, nhân viên Hồng Kông đã thực hiện 15 khoản thanh toán, tổng cộng là 200 triệu đô la Hồng Kông (khoảng 25,6 triệu đô la Mỹ), vào năm tài khoản ngân hàng địa phương. Chỉ khi họ đề cập đến các giao dịch với trụ sở chính thì mọi chuyện mới sáng tỏ.

Hóa ra là CFO chưa bao giờ yêu cầu chuyển tiền. Những người trong cuộc gọi thậm chí còn không có thật. Toàn bộ sự việc đã được một tên tội phạm mạng dựng lên.

“Tôi tin rằng kẻ lừa đảo đã tải xuống các video trước và sau đó sử dụng trí tuệ nhân tạo để thêm giọng nói giả để sử dụng trong hội nghị truyền hình”, cảnh sát trưởng cấp cao Baron Chan Shun-ching sau đó nói với Đài phát thanh truyền hình Hong Kong.

Đây cũng không phải là ví dụ duy nhất về tin tặc sử dụng AI. Cảnh sát Hồng Kông đã phát hiện ra ít nhất 20 trường hợp sử dụng máy học để tạo deepfake và lừa đảo để kiếm tiền, CNN đưa tin. Các chuyên gia cho biết xu hướng này mới chỉ bắt đầu.

Lừa đảo bằng Deepfake ngày càng tinh vi hơn

“Nó đang mở rộng quy mô”, chuyên gia an ninh thông tin Todd Wade báo cáo. “Các băng nhóm tội phạm đang dựng lên các trung tâm cuộc gọi trên khắp thế giới. Chúng điều hành chúng như các doanh nghiệp. Và chúng đang phát triển”.

Luke Secrist, CEO của Công ty Tin tặc đạo đức BuddoBot, cho biết: “Mức độ tinh vi của các loại hình tấn công và các loại công nghệ hỗ trợ tấn công đang trở nên khá nguy hiếm".

Một số yếu tố thúc đẩy sự phát triển của các mối đe dọa này: Một là AI có thể được sử dụng để phát triển các vụ lừa đảo vượt qua các biện pháp phòng thủ truyền thống và nhắm thẳng vào mắt xích yếu nhất trong bất kỳ chiến lược an ninh mạng nào: con người.

Nick Biasini, Giám đốc tiếp cận cộng đồng tại Cisco Talos, cho biết: “Bạn bắt đầu thấy ngày càng nhiều tác nhân đe dọa không nhất thiết phải tinh vi về mặt kỹ thuật, nhưng lại giỏi thao túng mọi người. Vì thế, họ đã trở nên rất thành công. Họ có rất nhiều tiền. Và khi bạn có tiền, bạn có thế thêm rất nhiều sự tinh tế.”

Sự tinh vi này là động lực thứ hai của các mối đe dọa dựa trên AI. Trong năm qua, những tiến bộ trong công nghệ đã tiến triển đến mức ngày càng khó để phân biệt deepfake với thật.

Mặc dù trước đây rất dễ phát hiện deepfake thông qua các mẫu giọng nói lạ hoặc nét vẽ tay kỳ lạ, nhưng những vấn đề này đang nhanh chóng được khắc phục. Đáng lo ngại hơn nữa là AI hiện có thể tạo ra deepfake chân thực dựa trên các tập huấn luyện cực nhỏ.

“Có rất nhiều tổng đài sẽ gọi điện chỉ đế ghi âm giọng nói của bạn,” Luke Secrist chia sẻ. “Những cuộc gọi điện thoại mà bạn nhận được, không có người trả lời - họ đang cố ghi âm bạn nói “Xin chào, ai vậy?” Họ chỉ cần một đoạn trích.”

Theo chuyên gia an ninh mạng Mark T. Hofmann, “Ba mươi giây nguyên liệu thô - giọng nói hoặc video - giờ đây đã đủ đế tạo ra bản sao deepfake với chất lượng mà ngay cả vợ, chồng hoặc con cái của bạn cũng không thế phân biệt được. Không ai an toàn nữa rồi.”

Trong nhiều trường hợp, tội phạm mạng thậm chí không cần gọi điện cho bạn. Nguồn cấp dữ liệu truyền thông xã hội của mọi người tràn ngập tài liệu âm thanh và video. Thêm vào đó, có lượng lớn dữ liệu bị vi phạm đang diễn ra.

Điều mà mọi người không nhận ra là những vụ vi phạm dữ liệu này có thể bao gồm thông tin cá nhân như: địa chỉ, số điện thoại, email, số an sinh xã hội... Đối với các cuộc tấn công kỹ thuật xã hội (social engineering), chúng có thể sử dụng thông tin này để tự nhận mình là người có thẩm quyền.

Một khi đã khởi xướng một cuộc tấn công kỹ thuật xã hội, tội phạm mạng sẽ lợi dụng điểm yếu về mặt tinh thần để đạt được mục đích. Ví dụ, chúng có thể khiến bạn nghĩ rằng con mình đã bị bắt cóc. Hoặc công việc của bạn sẽ bị đe dọa nếu bạn không giúp đỡ sếp.

Không có nhiều biện pháp phòng thủ mạng tiêu chuẩn có thể ngăn chặn điều này. Do đó, “khi chúng ta nói về social engineering và deepfake, tường lửa của con người quan trọng hơn bao giờ hết”, Hofmann nói. “Chúng ta cần thông báo cho mọi người về những rủi ro mới, mà không làm họ sợ hãi”.

Một nguyên tắc chung cho thế giới deepfake là hãy cảnh giác với bất kỳ yêu cầu bất thường nào, bất kể nó đến từ ai. Hofmann cho biết các gia đình có thể muốn thống nhất một mật mã để sử dụng qua điện thoại trong trường hợp có nghi ngờ.

Tiềm năng sáng tạo

Trong khi các ứng dụng tối hơn của deepfake thường gây chú ý, thì vẫn còn một khía cạnh khác của công nghệ này mà chúng ta không nên bỏ qua: đó là tiềm năng sáng tạo. Khi được sử dụng một cách có trách nhiệm, deepfake có thể mang đến những cơ hội đột phá trong nghệ thuật, giải trí và giáo dục.

Phim và giải trí: Trong ngành công nghiệp phim ảnh, deepfake có thể mở ra cánh cửa mới cho sự sáng tạo. Các diễn viên có thể được “hồi sinh” kỹ thuật số hoặc trẻ hóa cho các vai diễn, như trong các bộ phim mà các ngôi sao đã khuất xuất hiện sau khi chết hoặc các diễn viên biểu tượng thể hiện phiên bản trẻ hơn của chính họ. Ví dụ, công nghệ deepfake đã được sử dụng để tái tạo các nhân vật lịch sử hoặc diễn viên đã qua đời, kết hợp hư cấu với thực tế theo những cách mạnh mẽ. Công nghệ này đã được sử dụng trong phim “Star Wars” để tái tạo hình ảnh của Carrie Fisher (Princess Leia).

Tương tự như vậy, Deepfake đã cho phép các nhà làm phim hợp lý hóa quy trình sản xuất, giảm chi phí và thử nghiệm cách kể chuyện kỹ thuật số theo những cách trước đây không thể thực hiện được.

Cải tiến kỹ thuật lồng tiếng: Deepfake giọng nói giúp tạo ra các bản ghi âm chất lượng cao, phù hợp với nội dung gốc mà không cần diễn viên tham gia lặp lại. Điều này hỗ trợ trong việc lồng tiếng phim hoặc chuyển đổi ngôn ngữ cho nội dung quốc tế.

Sáng tạo nội dung số: Nghệ sĩ có thể sử dụng Deepfake để tạo ra các tác phẩm nghệ thuật hoặc video độc đáo, giúp phát triển các hình thức biểu đạt mới trong nghệ thuật số.

Giáo dục và bảo tồn lịch sử: Deepfake cũng có tiềm năng trong lĩnh vực giáo dục và bảo tồn lịch sử. Hãy tưởng tượng các bài học ảo nơi các nhân vật lịch sử “trở nên sống động” hoặc các bảo tàng sử dụng công nghệ deepfake để cho phép du khách tương tác với các nhân vật lịch sử như Abraham Lincoln hoặc Cleopatra. Những trải nghiệm nhập vai này có thể khiến lịch sử trở nên hấp dẫn hơn, mang đến trải nghiệm học tập được cá nhân hóa, có cảm giác hữu hình và thực tế.

Y tế và trị liệu: Deepfake giọng nói có thể giúp bệnh nhân mất giọng nói (do phẫu thuật hoặc tai nạn) tái tạo lại giọng nói của họ. Công nghệ này thu thập và học từ các mẫu giọng nói cũ của bệnh nhân, sau đó tạo ra giọng nói nhân tạo giống thật. Nó còn có thể tạo ra các video mô phỏng tình huống y tế phức tạp, hỗ trợ đào tạo bác sĩ và nhân viên y tế.

Cải thiện trải nghiệm người dùng trong kinh doanh: Deepfake có thể tạo ra các trợ lý ảo giống như con người để tương tác với khách hàng. Điều này giúp cải thiện trải nghiệm khách hàng, đặc biệt trong các lĩnh vực như bán lẻ, ngân hàng, và hỗ trợ kỹ thuật. Các thương hiệu có thể sử dụng Deepfake để tạo ra nội dung quảng cáo tùy chỉnh, phù hợp với từng nhóm khách hàng mà không cần tốn kém chi phí sản xuất riêng lẻ.

Bảo tồn văn hóa và ngôn ngữ: Deepfake có thể tái hiện giọng nói, ngôn ngữ và phong cách của các nền văn hóa đang dần mai một. Điều này giúp bảo tồn, lưu giữ di sản văn hóa và quảng bá di sản văn hóa đến các thế hệ tương lai.

Tính năng chuyển đoi ngôn ngữ linh hoạt khiến công nghệ Deepfake có thể dịch và đồng bộ hóa nội dung video sang nhiều ngôn ngữ, giúp truyền tải thông điệp đến khán giả toàn cầu mà không làm mất đi tính chân thực.

An ninh mạng và bảo mật: Deepfake có thể được sử dụng trong các mô phỏng an ninh mạng, giúp to chức huấn luyện nhân viên nhận diện các mối đe dọa và phản ứng kịp thời. Trong một số trường hợp đặc biệt, Deepfake có thể tạo ra các bản sao danh tính kỹ thuật số tạm thời, hỗ trợ trong môi trường thử nghiệm hoặc nghiên cứu.

Biện pháp giảm thiểu tác động xấu của Deepfake

Những thảo luận xung quanh Deepfake giờ đây không phải là đen hay trắng. Thực tế là cộng nghệ này đã tồn tại và đang phát triển cả trong bóng tối và ngoài sáng. Giống như nhiều công nghệ mới noi, tác động của nó phụ thuộc vào cách sử dụng. Là một công cụ sáng tạo, deepfake có thể đẩy ranh giới của nghệ thuật, giáo dục và giải trí theo những cách thú vị. Nhưng là một công cụ lừa dối, chúng gây ra mối đe dọa đáng kể đến sự hiểu biết và nhận thức của chúng ta về sự thật và lòng tin.

Sự gia tăng của Deepfake đã thúc đẩy các cuộc thảo luận khẩn cấp về các biện pháp bảo vệ và quy định. Các công ty công nghệ và chính phủ đang chạy đua để phát triển các công cụ phát hiện có thể giúp xác định deepfake. Tuy nhiên, việc phát hiện Deepfake thường là trò chơi mèo vờn chuột, với các nhà phát triển tạo ra các bản giả ngày càng tinh vi để tránh bị phát hiện.

Các nguyên tắc và chính sách đạo đức cũng sẽ rất quan trọng để ngăn chặn việc sử dụng sai mục đích. Điều này có thể liên quan đến các khuôn kho pháp lý nghiêm ngặt xung quanh sự đồng ý và mạo danh kỹ thuật số, cũng như giáo dục công chúng để nâng cao nhận thức về sự tồn tại và rủi ro của deepfake.

Deepfake, với mức độ chân thực cao, đã làm dấy lên mối lo ngại về khả năng sử dụng chúng để tạo ra bằng chứng giả, phỉ báng hoặc quấy rối. Những tác động về mặt pháp lý và đạo đức của loại thao túng phương tiện truyền thông vẫn đang phát triển. Các chính phủ và to chức đang nỗ lực xây dựng các quy định và công nghệ để chống lại sự lan truyền thông tin sai lệch và bảo vệ cá nhân khỏi việc sử dụng phương tiện truyền thông đã thay đổi có hại. Khi công nghệ phát triển, các chiến lược của chúng ta để xác định và giải quyết sự lừa dối kỹ thuật số cũng phải phát triển theo.

Phát triển công nghệ phát hiện deepfake: Các công cụ AI có thể giúp phát hiện các dấu hiệu bất thường trong video, như chuyển động mắt hoặc ánh sáng không đồng đều.

Tăng cường giáo dục nhận thức: Nâng cao nhận thức của công chúng về nguy cơ từ Deepfake và cách kiểm tra tính xác thực của thông tin.

Cải tiến pháp luật: Xây dựng các quy định cụ thể về việc sử dụng và phát tán nội dung deepfake, bao gồm cả các biện pháp xử lý nghiêm khắc.

Phối hợp quốc tế: Các quốc gia cần hợp tác để chia sẻ thông tin và kinh nghiệm trong việc đối phó với công nghệ này.

Tương lai của deepfake có thể nằm ở sự cân bằng giữa tính sáng tạo và sự thận trọng. Deepfake có thể mang lại nhiều ứng dụng tích cực trong các lĩnh vực khác nhau như giáo dục, y tế, truyền thông, và nghệ thuật. Khi được sử dụng đúng cách, nó có thể trở thành công cụ mạnh mẽ để cải thiện trải nghiệm người dùng, giảm chi phí và mở ra những cơ hội sáng tạo mới.

Mặc dù deepfake mang lại những cơ hội thú vị cho sự đổi mới, nhưng nó cũng đặt ra những thách thức nghiêm trọng về mặt đạo đức và an ninh. Cách xã hội phản ứng - thông qua các quy định, công nghệ phát hiện và sử dụng có đạo đức - sẽ quyết định liệu deepfake có trở thành một công cụ sáng tạo mạnh mẽ hay một vũ khí lừa dối nguy hiểm. Trong khi đó, chúng ta phải cố gắng và luôn cảnh giác, đặt câu hỏi về những gì chúng ta nhìn thấy, lắng nghe, tin tưởng và thực hiện các bước để bảo vệ cả quyền riêng tư và sự thật của chúng ta.

Điều bắt buộc là chúng ta phải hành động ngay bây giờ để thiết lập các quy định toàn diện hướng dẫn phát triển và triển khai AI có trách nhiệm. Bằng cách đó, chúng ta có thể đảm bảo rằng các công nghệ AI đóng góp tích cực vào cuộc sống của chúng ta và ngăn chặn chúng trở thành công cụ thao túng và kiểm soát.

Tài liệu tham khảo:
1. https://newsroom.cisco.com/c/r/newsroom/en/us/a/y2024/
m05/cyber-criminals-have-a-new-target-your-mind.html
2. https://www.linkedin.com/pulse/have-you-heard-risk-ai
manipulation-naima-al-falasi-pmp-icbb--6cjrf
3. https://www.linkedin.com/pulse/deepfakes-threat-truth
creative-tool-patrick-mutabazi-yvl9

(Bài đăng ấn phẩm in Tạp chí TT&TT số 12 tháng 12/2024)

Hoàng Yến