OpenAI triển khai các công cụ mới để ngăn chặn thông tin sai lệch về bầu cử
Nếu chúng ta không cẩn thận, các công cụ của OpenAI có thể gây ảnh hưởng to lớn đến các kết quả bầu cử năm trong 2024. Để giải quyết vấn đề này, OpenAI sẽ đưa ra một loạt những công cụ mới nhằm ngăn chặn thông tin sai lệch về bầu cử.
Tin giả do AI tạo ra sẽ là mối đe dọa lớn nhất trong năm 2024
Dù năm 2023 đã chứng kiến những bước tiến mang tính bước ngoặt trong lĩnh vực trí tuệ nhân tạo (AI), nhưng đó chỉ là mở đầu cho những điều còn lớn lao hơn. Năm 2024 được dự đoán sẽ là một năm bùng nổ của công nghệ này với nhiều đột phá mới.
Hầu hết những đổi mới trong lĩnh vực AI đều hướng đến mục đích cải thiện các lĩnh vực như chẩn đoán y tế và khám phá khoa học. Tuy nhiên, sự phát triển nhanh chóng của công nghệ AI cũng sẽ gây ra mối đe dọa hiện hữu cho thế giới nếu không được kiểm soát bởi các quy định chặt chẽ từ các chính phủ, cơ quan quốc tế và doanh nghiệp (DN) công nghệ.
Theo "Báo cáo Rủi ro toàn cầu 2024" của Diễn đàn Kinh tế thế giới (WEF), mối lo ngại về việc AI gây sai lệch kết quả bầu cử đứng đầu danh sách những rủi ro lớn nhất trong năm nay. Báo cáo cho thấy mối lo ngại trên nổi cộm trong bối cảnh gần 3 tỷ người, tương đương gần 50% dân số trưởng thành trên toàn cầu, sẽ tham gia bỏ phiếu trong năm 2024, một năm có rất nhiều cuộc bầu cử như tại Mỹ, Nga, Ấn Độ, Nam Phi, Mexico...
Để thực hiện báo cáo trên, WEF đã phối hợp với Tập đoàn Bảo hiểm Zurich khảo sát hơn 1.400 chuyên gia nghiên cứu rủi ro toàn cầu, các nhà hoạch định chính sách và các nhà lãnh đạo ngành vào tháng 9/2023 về những mối quan ngại lớn nhất trên thế giới theo đánh giá của họ.
Trong 10 rủi ro lớn nhất được dự báo trong cả năm nay và thậm chí vào năm 2025, báo cáo của WEF xếp thông tin gây hiểu lầm và tin giả do AI gây ra mối đe dọa lớn hơn cả các vấn đề biến đổi khí hậu, sự phân cực trong xã hội, mất an ninh mạng, xung đột vũ trang, thiếu cơ hội kinh tế, lạm phát, di cư miễn cưỡng, kinh tế suy giảm và ô nhiễm.
Theo báo cáo, việc lan truyền thông tin sai lệch đang trở nên vô cùng dễ dàng và phổ biến nhờ sử dụng công nghệ AI, dẫn đến việc tạo ra thông tin giả mạo và nội dung ảo. Báo cáo cho biết thông tin sai lệch có nguy cơ trở nên nghiêm trọng hơn khi một số quốc gia tổ chức bầu cử vào năm 2024.
“AI có thể xây dựng các mô hình gây ảnh hưởng đến số lượng lớn cử tri theo cách chúng ta chưa từng thấy trước đây”, Carolina Klint, Giám đốc thương mại châu Âu tại hãng tư vấn Marsh McLennan - đơn vị đồng sản xuất báo cáo, chia sẻ. Bà cho biết các chuyên gia đang theo dõi sát vấn đề này để đưa ra những đánh giá kịp thời.
Những nỗ lực của OpenAI để chống lại thông tin sai lệch về bầu cử
Để giải quyết vấn đề này, OpenAI đang triển khai một loạt sáng kiến nhằm ngăn chặn việc các sản phẩm của mình có thể bị sử dụng cho thông tin sai lệch trong năm 2024 - năm bầu cử toàn cầu lớn nhất lịch sử.
Theo đó, ngày 15/1, công ty này đã công bố những thay đổi mới về chính sách, trong bối cảnh các mối lo ngại về deepfake gia tăng và các nội dung khác do AI tạo ra có thể gây nhầm lẫn cho cử tri trong các chiến dịch bầu cử. Cụ thể, các tổ chức và người dùng hiện bị cấm sử dụng các công cụ của OpenAI để mạo danh ứng cử viên hoặc chính quyền địa phương và người dùng cũng không thể sử dụng các công cụ của OpenAI cho các chiến dịch hoặc vận động hành lang. Người dùng cũng không được phép sử dụng các công cụ của OpenAI để ngăn cản việc bỏ phiếu hoặc xuyên tạc về quy trình bỏ phiếu.
OpenAI cũng triển khai các công cụ mới để cung cấp thông tin về các sự kiện hiện có bởi chatbot ChatGPT của mình và giúp người dùng xác định xem hình ảnh có được tạo bởi phần mềm AI hay không.
“Bảo vệ tính toàn vẹn của bầu cử đòi hỏi thực hiện đúng và đầy đủ quy trình dân chủ và chúng tôi muốn đảm bảo rằng công nghệ của chúng tôi không bị sử dụng theo cách có thể làm suy yếu quy trình này”, công ty viết trong một bài đăng tải trên blog.
Ngoài ra, OpenAI sẽ bắt đầu mã hóa các hình ảnh do công cụ tạo hình ảnh Dall-E 3 tạo ra với thông tin về nguồn gốc - đề cập đến dữ liệu về nguồn gốc của một phần nội dung, chẳng hạn như ai đã tạo ra hình ảnh và thời điểm nó được tạo ra. Điều đó có thể giúp cử tri hiểu rõ hơn về hình ảnh họ nhìn thấy trên trang web có phải do AI tạo ra hay không.
Ngoài việc kiên quyết hơn trong các chính sách của mình về thông tin sai lệch về bầu cử, OpenAI còn có kế hoạch sử dụng tiêu chuẩn mật mã được thiết lập bởi Liên minh Chứng minh và Xác thực Nội dung (C2PA) trong các hình ảnh do Dall-E vào đầu năm nay. Năm 2021, Adobe, Microsoft, Intel và một số công ty khác đã đồng sáng lập liên minh này nhằm phát triển các tiêu chuẩn kỹ thuật có thể hỗ trợ xác định nguồn gốc của nội dung phương tiện bao gồm hình ảnh, âm thanh, video và tài liệu.
Bên cạnh đó, OpenAI cho biết họ sẽ phát hành một công cụ phát hiện hình ảnh mà mọi người có thể sử dụng để tra cứu xem hình ảnh có phải do Dall-E tạo ra hay không. Trước tiên, công ty sẽ triển khai công cụ này cho các nhà báo, các nền tảng và nhà nghiên cứu để lấy phản hồi.
Trong lịch sử, nhiều công cụ phát hiện cố gắng xác định hình ảnh hoặc văn bản cụ thể nào đó có phải do AI tạo ra hay không thường gặp phải các vấn đề liên quan tới độ chính xác. Tuy nhiên, Giám đốc Công nghệ OpenAI Mira Murati cho biết vào tháng 10/2023 rằng công cụ phát hiện hình ảnh mà công ty đang phát triển có độ chính xác 99% trong thử nghiệm nội bộ.
Đối với ChatGPT, OpenAI sẽ cho phép mọi người nhận thông tin theo thời gian thực về các sự kiện hiện tại bằng cách sử dụng chatbot. Các kết quả sẽ cung cấp thuộc tính và các liên kết đến các bài báo, những tính năng theo mặc định hiện không hiển thị trong ứng dụng. Công ty cho biết họ đang “ngày càng tích hợp với các nguồn thông tin hiện có”.
OpenAI hiện cũng đang đàm phán với hàng chục công ty truyền thông để thực hiện các thỏa thuận cấp phép nội dung, bao gồm các hãng truyền thông lớn như CNN, Fox và Time, Bloomberg. Công ty khởi nghiệp đã đạt được thỏa thuận với Axel Springer và Associated Press để sử dụng nội dung của họ cho ChatGPT.
OpenAI cho biết trong một bài đăng tải: “Cũng như hình ảnh, tính minh bạch về nguồn gốc thông tin có thể giúp cử tri đánh giá thông tin tốt hơn và tự quyết định những gì mà họ tin tưởng”./.