Truyền thông

Từ DeepSeek đến các mô hình AI nguồn mở: Nguy cơ AI trở thành vũ khí "quyền lực mềm"

Tâm An 31/03/2025 13:35

Sự xuất hiện của DeepSeek - mô hình AI nguồn mở do Trung Quốc phát triển - đặt ra nhiều lo ngại về nguy cơ trở thành công cụ tuyên truyền tinh vi. Khi AI ngày càng phổ biến, liệu các công cụ có thể bị lợi dụng để định hình các quan điểm chính trị trên toàn cầu?

deepseek.jpeg

DeepSeek có thể trở thành công cụ truyền bá tư tưởng?

Việc phát hành DeepSeek đã gây ra nhiều tranh cãi, nhưng phần lớn các nhà phân tích tập trung vào các vấn đề như an ninh mạng, quyền riêng tư và sở hữu trí tuệ, mà bỏ qua một khía cạnh quan trọng hơn: mô hình có khả năng bị sử dụng để thúc đẩy một chương trình nghị sự văn hóa và chính trị trên phạm vi toàn cầu.

DeepSeek được công ty khởi nghiệp về AI của Trung Quốc công bố vào tháng 1, với mục tiêu trở thành một dạng bách khoa toàn thư để đào tạo thế hệ mô hình AI tiếp theo. Tuy nhiên, một số chuyên gia AI lo ngại mô hình này có thể được sử dụng như một công cụ tuyên truyền tinh vi.

Mặc dù thành kiến trong AI không phải là vấn đề mới, nhưng trong nhiều trường hợp trước đây, nó thường mang tính vô tình hơn là có chủ đích. Trong khi đó, nhiều chuyên gia lo ngại các mô hình AI như DeepSeek có thể được thiết kế để phản ánh một góc nhìn chính trị nhất định.

DeepSeek không phải là mô hình ngôn ngữ lớn (LLM) duy nhất có thể được sử dụng để huấn luyện các mô hình AI trong tương lai, và Trung Quốc cũng không phải quốc gia duy nhất xem AI như một công cụ tuyên truyền. Tuy nhiên, quyết định phát hành DeepSeek theo giấy phép sử dụng mã nguồn mở khiến nó trở thành một mô hình hấp dẫn để sử dụng trong quá trình chưng cất nhằm đào tạo các mô hình AI nhỏ hơn trên toàn cầu.

Quá trình chưng cất dễ dàng

Một số chuyên gia nhận định DeepSeek được thiết kế nhằm tạo ra các mô hình AI nhỏ hơn với chi phí thấp hơn, giúp chúng trở nên dễ tiếp cận hơn. Điều này đặc biệt có lợi cho các tổ chức tại các quốc gia đang phát triển - những nơi có thể không đủ nguồn lực để tự xây dựng mô hình AI từ đầu. Tuy nhiên, rủi ro nằm ở chỗ những AI này có thể mang theo định kiến văn hóa và chính trị của mô hình gốc.

Hiện tại, công ty DeepSeek chưa đưa ra phản hồi trước những lo ngại này. Trong khi đó, Dhaval Moogimane, lãnh đạo mảng công nghệ cao và phần mềm tại công ty tư vấn kinh doanh West Monroe, cho rằng việc DeepSeek sử dụng phần cứng giá rẻ để phát triển mô hình phản ánh một xu hướng mới: AI đang dần trở nên phổ biến và dễ tiếp cận hơn bao giờ hết.

Những gì DeepSeek đã làm là chứng minh rằng AI có thể đạt được những bước tiến lớn với chi phí thấp”, ông nhận xét.

Theo Adnan Masood, kiến trúc sư trưởng về AI tại công ty chuyển đổi số UST, công ty khởi nghiệp Trung Quốc này đã phát triển DeepSeek bất chấp các biện pháp kiểm soát xuất khẩu của Mỹ đối với chip hiệu suất cao - loại thường được sử dụng để thiết kế và thử nghiệm các mô hình AI. Điều này cho thấy các mô hình AI tiên tiến vẫn có thể ra đời nhanh chóng, ngay cả khi đối mặt với những rào cản công nghệ.

Với chi phí đầu vào thấp hơn, các tổ chức giờ đây có thể dễ dàng phát triển các mô hình AI mạnh mẽ - nhưng cũng tiềm ẩn nguy cơ tích hợp sẵn những định kiến văn hóa và chính trị.

Điều này đồng nghĩa với việc một bộ phận lớn dân số có thể vô tình tiếp nhận những quan điểm được định hình bởi một bộ máy chính sách đối ngoại”, Masood nhận định. “Khi các nhà hoạch định chính sách nhận thức được vấn đề này, có thể những câu chuyện đó đã ăn sâu vào nhận thức công chúng"

Công nghệ như một công cụ tuyên truyền

Moogimane nhận định dù ít người nhắc đến AI như một công cụ tuyên truyền, nhưng điều này không có gì đáng ngạc nhiên. Trên thực tế, nhiều công nghệ - từ truyền hình, Internet đến mạng xã hội - đều đã trở thành phương tiện thúc đẩy các chương trình nghị sự chính trị và văn hóa khi tiếp cận thị trường đại chúng.

Ông cho rằng các giám đốc công nghệ thông tin (CIO) và các nhà lãnh đạo CNTT khác cần nhận thức được nguy cơ các mô hình AI bị sử dụng để truyền bá các quan điểm theo ý đồ riêng.

"Những mô hình AI này có thể tác động đến câu chuyện, tư duy và kết quả của thông tin được chia sẻ theo nhiều cách khác nhau", Moogimane nhấn mạnh.

Ông cũng lưu ý AI đang dần trở thành một công cụ mới trong chiến lược “quyền lực mềm”, và nhiều khả năng sẽ có quốc gia đi tiên phong trong lĩnh vực này. Xu hướng này càng trở nên rõ ràng hơn khi chính quyền Tổng thống Mỹ Donald Trump cắt giảm tài trợ cho các công cụ quyền lực mềm truyền thống, như viện trợ nước ngoài và truyền thông do nhà nước tài trợ.

Masood bổ sung rằng nếu DeepSeek và các mô hình AI khác hạn chế đề cập đến những sự kiện lịch sử nhạy cảm hoặc chỉ phản ánh quan điểm do nhà nước chấp thuận về các vùng lãnh thổ tranh chấp – hai dạng thiên kiến có thể xuất hiện trong các mô hình AI do Trung Quốc phát triển – thì chúng có thể tác động đáng kể đến các cuộc tranh luận văn hóa toàn cầu.

“Ngày nay, AI không chỉ là một công cụ hỗ trợ tư tưởng mà còn là phương tiện mở rộng và xuất khẩu “quyền lực mềm” quốc gia”, Masood nhận xét. “Với deepfake và chatbot tự động tràn ngập các cuộc thảo luận công khai, rõ ràng AI đã trở thành một công cụ có sức ảnh hưởng lớn trong việc định hình văn hóa và chính trị”.

Moogimane cũng cảnh báo AI có khả năng đánh lừa nhiều người khi được sử dụng để tạo ra deepfake và các nội dung giả mạo khác, nhưng thiên kiến trong một công cụ huấn luyện AI thậm chí có thể tinh vi và nguy hiểm hơn.

“Để đảm bảo mô hình AI không bị chi phối bởi định kiến văn hóa và duy trì tính khách quan trong đầu ra, cần có quá trình thử nghiệm và giám sát chặt chẽ – một nhiệm vụ không hề đơn giản”, ông nhấn mạnh.

Cẩn trọng khi lựa chọn mô hình AI

Moogimane khuyến nghị các tổ chức nên xây dựng kiến trúc AI theo mô-đun để dễ dàng tích hợp các mô hình mới khi chúng được phát hành.

“Sẽ luôn có sự đổi mới liên tục trong các mô hình AI”, ông nhấn mạnh. “Do đó, hãy đảm bảo rằng hệ thống của bạn có khả năng mở rộng linh hoạt, cho phép thay thế và cập nhật mô hình theo thời gian”.

Masood bổ sung rằng bên cạnh việc xây dựng cơ sở hạ tầng AI theo mô-đun, các CIO cũng cần đánh giá kỹ lưỡng các công cụ và nền tảng AI dựa trên các tiêu chí như khả năng mở rộng, bảo mật, tuân thủ quy định và tính công bằng trước khi đưa vào sử dụng.

Ông cũng khuyến nghị các nhà lãnh đạo CNTT có thể sử dụng các tiêu chuẩn quốc tế đã được thiết lập, như Khung Quản lý rủi ro AI của NIST (Mỹ), Nguyên tắc AI của OECD và Hướng dẫn AI đáng tin cậy của EU, để đánh giá mức độ minh bạch và đáng tin cậy của mô hình. Đồng thời, các CIO cần liên tục giám sát hệ thống AI của mình và thực hiện quản trị vòng đời có trách nhiệm.

“Điều này không chỉ giúp AI mang lại giá trị kinh doanh thông qua hiệu suất và năng suất, mà còn duy trì niềm tin của các bên liên quan và đảm bảo tuân thủ các nguyên tắc AI có trách nhiệm”, Masood nhấn mạnh.

Stepan Solovev, CEO kiêm đồng sáng lập SOAX – một nền tảng khai thác dữ liệu, cho rằng các CIO và những người ra quyết định về AI cần xem xét kỹ lưỡng đầu ra của các mô hình, tương tự như cách người dùng mạng xã hội nên đánh giá độ chính xác của thông tin mà họ tiếp nhận.

“Một số người cố gắng phân biệt giữa sự thật và thông tin sai lệch, nhưng nhiều người chỉ tiếp nhận thông tin mà không kiểm chứng”, ông nói. “Đây là vấn đề đáng lo ngại nhất trong các cuộc cách mạng công nghệ: Con người thường không suy xét kỹ lưỡng, đặc biệt khi tiếp nhận những kết quả tìm kiếm đầu tiên từ AI hoặc công cụ tìm kiếm”.

Trong một số trường hợp, các lãnh đạo CNTT có thể không sử dụng các mô hình LLM như DeepSeek để đào tạo AI chuyên biệt, mà thay vào đó lựa chọn các mô hình AI theo lĩnh vực hẹp. Điều này giúp giảm nguy cơ gặp phải thiên kiến văn hóa trong mô hình.

Tuy nhiên, Solovev khuyến nghị các CIO nên so sánh kết quả giữa các mô hình AI hoặc áp dụng các phương pháp khác nhau để kiểm tra độ chính xác của đầu ra.

Cạnh tranh - Giải pháp khắc phục thiên kiến

Solovev thừa nhận AI có thể bị sử dụng như một công cụ tuyên truyền, nhưng ông tin rằng nhiều người sẽ ưu tiên các mô hình có tính minh bạch cao về dữ liệu huấn luyện và cung cấp kết quả khách quan. Tuy nhiên, một số lãnh đạo CNTT có thể đặt yếu tố chi phí lên trên độ chính xác và tính minh bạch.

Với sự xuất hiện ngày càng nhiều của các mô hình AI, Solovev dự đoán sẽ có sự cạnh tranh mạnh mẽ giữa chúng trên nhiều phương diện. “Thách thức đặt ra là làm sao đảm bảo cuộc cạnh tranh này diễn ra công bằng, đồng thời giúp cả doanh nghiệp lẫn cá nhân có quyền tiếp cận nhiều mô hình để so sánh”, ông nhấn mạnh.

Tương tự như Solovev, Manuj Aggarwal – nhà sáng lập kiêm CIO của công ty giải pháp CNTT và AI TetraNoodle Technologies cho rằng sự mở rộng nhanh chóng của thị trường AI sẽ giúp giảm thiểu nguy cơ thiên kiến từ DeepSeek và các mô hình ngôn ngữ lớn khác.

“Rất khó để một mô hình duy nhất có thể tạo ra ảnh hưởng toàn cầu”, ông nhận định. “DeepSeek chỉ là một trong vô số mô hình, và trong thời gian tới, chúng ta sẽ chứng kiến sự ra đời của hàng nghìn mô hình từ khắp nơi trên thế giới. Không một AI nào có thể kiểm soát hoàn toàn thông tin khi có quá nhiều hệ thống đa dạng cùng hoạt động”.

Aggarwal và các chuyên gia AI khác cũng lưu ý rằng kể từ khi DeepSeek ra mắt, Mistral AI đã chuyển mô hình của mình sang giấy phép mã nguồn mở, trong khi các mô hình như Llama của Meta và Grok của xAI hiện đã có sẵn dưới dạng phần mềm nguồn mở.

Dù vậy, Aggarwal vẫn khuyến nghị các CIO nên lựa chọn những thương hiệu AI tin cậy khi sử dụng LLM để huấn luyện AI nội bộ./.

Theo Cio.com
Copy Link
Bài liên quan
Nổi bật Tạp chí Thông tin & Truyền thông
Đừng bỏ lỡ
Từ DeepSeek đến các mô hình AI nguồn mở: Nguy cơ AI trở thành vũ khí "quyền lực mềm"
POWERED BY ONECMS - A PRODUCT OF NEKO