Gắn nhãn nội dung mới của TikTok có ngăn chặn thông tin sai lệch về AI?
Truyền thông - Ngày đăng : 09:54, 20/05/2024
Gắn nhãn nội dung mới của TikTok có ngăn chặn thông tin sai lệch về AI?
Việc tự động gắn nhãn những nội dung do AI tạo ra trên TikTok là một bước nhỏ trong cuộc chiến khó khăn chống lại việc lạm dụng AI.
Thử nghiệm gắn cờ nội dung do AI tạo ra
TikTok đã triển khai một hệ thống mới để tự động gắn cờ nội dung do AI tạo ra. Cụ thể, TikTok sẽ áp dụng tính năng "Thông tin xác thực nội dung" (Content Credentials), một hình mờ kỹ thuật số được chèn vào nội dung hình ảnh hoặc video, để xác định và gắn nhãn nội dung do AI tạo ra.
Song song đó, TikTok cũng đã giới thiệu một tính năng mới để người sáng tạo thông báo cho những người theo dõi họ mỗi khi họ đăng nội dung do AI tạo ra. Để nâng cao tính minh bạch, các hiệu ứng AI của nền tảng cũng sẽ được gắn nhãn rõ ràng với chữ “AI” trong các tên của hiệu ứng và các nhãn hiệu ứng tương ứng. Các nguyên tắc đã được chia sẻ với những người sáng tạo thuộc TikTok Effect House để đảm bảo tính nhất quán trong việc ghi nhãn.
Trong khi đó, đối thủ của TikTok, Douyin, đang thực hiện một sáng kiến tương tự ở Trung Quốc. Douyin đã công bố tiêu chuẩn để thêm nhãn và siêu dữ liệu vào nội dung AI vào tháng 5/2023, nhưng tiêu chuẩn này vẫn chưa được áp dụng trên toàn ngành.
Tiêu chuẩn hình mờ kỹ thuật số mà TikTok sử dụng được Liên minh Chứng minh và Xác thực nội dung (C2PA) cung cấp. Content Credentials được thiết kế để chống giả mạo, nghĩa là mọi thay đổi không đáng có sẽ được ghi lại rõ ràng trong siêu dữ liệu. Hơn nữa, việc xóa hoặc thay đổi các thông tin xác thực này sẽ làm mất hiệu lực các chữ ký mật mã được sử dụng để xác minh tính xác thực. Do đó, các chữ ký cung cấp cho các nền tảng một phương tiện đơn giản và đáng tin cậy để xác minh nguồn gốc của tài liệu trực tuyến.
Vì các lần lặp lại hình mờ kỹ thuật số trước đây có xu hướng dựa vào cảm giác hoài nghi của chính người dùng để xác minh thông tin, khả năng hiển thị của nhãn nội dung của TikTok sẽ quyết định tính hiệu quả của chúng trong việc giải quyết các hạn chế trước đây của hình mờ kỹ thuật số.
Tuy nhiên, việc sử dụng các hình mờ này để phát hiện nội dung do AI tạo ra chỉ giới hạn ở tài liệu được tạo bởi các nền tảng mà cũng là thành viên của C2PA, chẳng hạn như OpenAI, Adobe Creative Cloud và Midjourney. Do đó, nội dung được tạo bằng AI trên các nền tảng không thuộc C2PA có thể thoát khỏi sự phát hiện.
Hơn nữa, Content Credentials không thể bị các tác nhân độc hại thao túng. Theo một nghiên cứu của Đại học Maryland, việc ứng dụng nhiễu Gaussian để làm biến dạng mẫu hình mờ của hình ảnh có thể vượt qua thuật toán phát hiện như vậy một cách hiệu quả. Ảnh chụp màn hình các hình ảnh do AI tạo ra cũng không giữ lại siêu dữ liệu của phiên bản gốc.
Việc nhúng thông tin nhận dạng cá nhân vào siêu dữ liệu nội dung cũng có thể làm gia tăng mối lo ngại về quyền riêng tư của người dùng trên TikTok. Ứng dụng này trước đây đã phải đối mặt với những lời chỉ trích vì các hoạt động thu thập dữ liệu.
Nhiều gã khổng lồ công nghệ triển khai Content Credentials
Trong nỗ lực ngăn chặn làn sóng thông tin sai lệch về AI trực tuyến, nhiều gã khổng lồ công nghệ bao gồm Meta và Google đã công bố kế hoạch triển khai “Content Credentials” của C2PA.
Meta sẽ bắt đầu áp dụng nhãn “Được tạo bằng AI” (Make with AI) theo tiêu chuẩn C2PA vào tháng 5 cho các video, hình ảnh và âm thanh do AI tạo ra đăng trên Facebook và Instagram. Điều này mở rộng chính sách ban đầu từ tháng 2 vốn chỉ giải quyết một phần nhỏ các video được thay đổi kỹ thuật số.
Google đã gia nhập ban chỉ đạo C2PA vào tháng 2 và sẽ khám phá việc kết hợp “Content Credentials” vào các nền tảng như YouTube và Google Images. Đồng thời, Google đang phát triển bộ công cụ tạo hình mờ kỹ thuật số của riêng mình, SynthID, để xác định các hình ảnh, âm thanh, văn bản và video do AI tạo ra.
Mặc dù hệ thống dựa trên hình mờ của TikTok vẫn chưa phải là một giải pháp hoàn hảo nhưng đây là một chỉ báo hữu ích trong bối cảnh có sự hoài nghi ngày càng tăng đối với những gì mọi người nhìn thấy trực tuyến. Dòng nghi ngờ tiềm ẩn như vậy đã được X khai thác, X đã tránh các hoạt động ghi nhãn như vậy để dựa vào “Ghi chú cộng đồng” (Community Notes) do người dùng tạo để nêu bật thông tin sai lệch hoặc gây hiểu lầm trên nền tảng.
Điểm mấu chốt là việc tạo ra một hệ thống thực sự đáng tin cậy để xác thực nội dung do AI tạo ra sẽ mất thời gian. Trong khi đó, các kế hoạch như Content Credentials tạo ra một lớp giám sát kỹ lưỡng về việc sử dụng AI là một bước quan trọng đi đúng hướng./.