Các nền tảng xã hội cần thay đổi Khung kiểm duyệt nội dung tiêu chuẩn?
Khối lượng khổng lồ nội dung trên mạng xã hội khiến việc thực hiện đánh giá đối với mọi trường hợp gỡ xuống trở nên không thực tế.
Vào tháng 1/2023, một số chuyên gia của Liên Hợp Quốc, bao gồm Báo cáo viên đặc biệt về các hình thức phân biệt chủng tộc và Báo cáo viên đặc biệt về bạo lực đối với phụ nữ, đã công khai chỉ trích các nhà lãnh đạo của các tập đoàn truyền thông xã hội lớn về cách xử lý ngôn từ kích động thù địch trên nền tảng của họ.
Cho đến nay, các công ty truyền thông xã hội đã giải quyết được phần lớn những lo ngại xung quanh những nội dung nhạy cảm thông qua kiểm duyệt nội dung. Và hình thức kiểm duyệt phổ biến đó là xem xét sau sự cố, thông qua thông báo và gỡ bỏ nội dung vi phạm điều khoản dịch vụ của một nền tảng nhất định.
Tuy nhiên, hình thức này đã không tính đến các cân nhắc khác nhau, bao gồm các lựa chọn thiết kế có ảnh hưởng đến nội dung trực tuyến. Khi đóng khung kiểm duyệt nội dung trong phạm vi đánh giá hậu kiểm, trọng tâm sẽ chuyển từ các phương pháp thực hành nền tảng có thể đóng vai trò phòng ngừa.
Bức tranh tiêu chuẩn về kiểm duyệt nội dung
Trong những năm qua, các cuộc thảo luận xung quanh việc kiểm duyệt nội dung đã tập trung vào việc áp dụng các cơ chế thủ tục liên quan đến sự công bằng và thủ tục tố tụng hợp pháp được tòa án thông qua, đồng thời cố gắng áp dụng những cơ chế này cho từng trường hợp riêng lẻ về việc các công ty truyền thông xã hội gỡ bỏ nội dung.
Trong một bài báo gần đây có tiêu đề “Kiểm duyệt nội dung như tư duy hệ thống”, học giả pháp lý Evelyn Douek lập luận rằng do mối bận tâm này, diễn ngôn mang tính học thuật và quy định về việc tăng cường trách nhiệm giải trình và giảm thiểu sai sót trong kiểm duyệt nội dung đã tập trung quá mức vào các quyền thủ tục cá nhân như thông báo, đánh giá và kháng cáo. Thật không may, việc nhấn mạnh vào các trường hợp riêng lẻ có thể làm mất tập trung vào các vấn đề mang tính hệ thống trong hệ sinh thái của nền tảng vốn góp phần gây ra các vấn đề như sự phổ biến của giới tính và dựa trên chủng tộc.
Các nền tảng kỹ thuật số đã tập trung vào các nhu cầu xoay quanh việc bồi thường cá nhân và nhân rộng các quy trình tư pháp. Ví dụ điển hình là Ban giám sát được Facebook thành lập vào năm 2018, thường được gọi là Tòa án tối cao. Hội đồng đóng vai trò là cơ quan có thẩm quyền cao nhất trong việc khiếu nại và sửa đổi (trong hệ sinh thái của nền tảng) chống lại việc thực thi “Tiêu chuẩn cộng đồng” của Facebook và Instagram, trong đó nêu rõ các điều khoản dịch vụ của nền tảng.
Như Thomas Kadri, Giáo sư Luật và Công nghệ tại Trường Luật Đại học Georgia nhận xét, những nền tảng này đã chấp nhận “thương hiệu theo chủ đề tòa án”, vì nó cho phép họ đưa ra các quyết định của mình một cách công bằng và trung lập trong khi hạ thấp những cân nhắc cuối cùng về “Lợi nhuận, hiệu quả, tốc độ và quy mô.”
Trên thực tế, khối lượng nội dung khổng lồ mà các công ty truyền thông xã hội xử lý khiến việc thực hiện hậu kiểm đối với mọi trường hợp gỡ xuống là không thực tế. Ngoài ra, nhóm kiểm duyệt nội dung không làm việc riêng lẻ. Họ thường hoạt động hợp tác, tích cực tham gia và tính đến các mục tiêu của các nhóm khác trong tổ chức, chẳng hạn như những người làm việc về an ninh mạng, thông tin sai lệch, v.v..
Một điểm bất cập nghiêm trọng của việc chỉ dựa vào đánh giá của từng cá nhân là nó khiến việc phát hiện các vấn đề mang tính hệ thống trong hệ sinh thái của nền tảng trở nên khó khăn. Việc xuất hiện nội dung lời nói trái với điều khoản dịch vụ trên nền tảng mạng xã hội không chỉ do lỗi cá nhân do người kiểm duyệt nội dung hoặc do hệ thống trí tuệ nhân tạo (AI) gây ra. Thay vào đó, nội dung đó cũng có thể tồn tại do sự cố hệ thống hoặc sự cố trong hoạt động nội bộ của nền tảng.
Nhưng thật đáng tiếc, các nền tảng không phải lúc nào cũng sẵn sàng thừa nhận hoặc thừa nhận những lỗi hệ thống trong hệ sinh thái của họ.
Kiểm duyệt nội dung - không chỉ là phiên bản thông báo và gỡ xuống
Các công ty truyền thông xã hội định kỳ xuất bản các báo cáo minh bạch cung cấp cái nhìn tổng quan về việc kiểm duyệt nội dung trên nền tảng của họ. Douek, Giáo sư Luật tại Trường Luật Stanford, tin rằng những báo cáo minh bạch này có thể được sử dụng để khám phá các cơ chế kiểm duyệt nội dung đa dạng và phức tạp mà công chúng hiện chưa biết đến. Hiệu quả của các biện pháp này cũng có thể được công bố trong các báo cáo này.
Ví dụ, các công ty truyền thông xã hội đã phản ứng trước áp lực giải quyết sự lan truyền của tin tức giả bằng cách thực hiện các thay đổi trong thiết kế nền tảng của họ để ngăn chặn hoặc làm chậm quá trình lưu hành của chúng. Những sửa đổi này phải được coi là một phần trong chính sách kiểm duyệt nội dung lớn hơn của công ty. Ví dụ: vào năm 2018, WhatsApp đã đưa ra giới hạn về số lần một cá nhân ở Ấn Độ có thể chuyển tiếp một tin nhắn, nhằm kiểm tra sự lan truyền của những tin đồn dẫn đến nhiều vụ hành hình đám đông trên khắp đất nước.
Trong nỗ lực hạn chế thông tin sai lệch, YouTube đã bắt đầu đặt thông tin của bên thứ ba đã được kiểm tra và xác minh bên cạnh nội dung liên quan đến các chủ đề thường xuyên có tin tức giả mạo và thuyết âm mưu. Twitter (nay là X) đã cân nhắc việc thêm lời nhắc cho người dùng, khuyến khích họ đọc trước khi đăng lại các bài viết mà họ chưa thực sự nhấp qua, để thúc đẩy các cuộc trò chuyện đầy đủ thông tin. Báo cáo minh bạch có thể được sử dụng để cung cấp chi tiết về các biện pháp thiết kế đó và đánh giá mức độ thành công hay không thành công của chúng.
Các học giả khác như Julie E. Cohen, Giáo sư Luật và Công nghệ tại Trung tâm Luật Georgetown, đề xuất nên nhìn xa hơn mô hình quản trị nội dung thông thường để giải quyết sự lây lan của ngôn từ kích động thù địch và tin tức giả. Cam kết như vậy có thể làm sáng tỏ mức độ ảnh hưởng của các tính năng, khả năng và khả năng chi trả của nền tảng kỹ thuật số đến loại nội dung chúng ta xem trực tuyến. Cohen lưu ý, một tính năng quan trọng là khả năng nhắm mục tiêu vi mô vào các quảng cáo trên nền tảng kỹ thuật số trên cơ sở mối quan hệ chính trị và xã hội của người dùng.
Hơn nữa, một số nền tảng nhất định cho phép nhà quảng cáo sử dụng các chỉ số xã hội, nhân khẩu học và địa lý cũng như dữ liệu hồ sơ hành vi để xác định và tiếp cận đối tượng mục tiêu của họ. Ví dụ: các nhà quảng cáo đặc biệt cũng như các nhà vận động chính trị có thể sử dụng dữ liệu duyệt web để nhắm mục tiêu vi mô vào các quảng cáo chính trị.
Ngược lại, các nền tảng sẽ thưởng cho những nhà quảng cáo tạo ra mức độ tương tác cao hơn bằng vị trí đặt quảng cáo tốt hơn. Việc điều chỉnh cách thực hiện quảng cáo có mục tiêu trên mạng xã hội có thể có giá trị trong việc ngăn chặn sự khuếch đại của nội dung phân cực.
Cải thiện cơ chế thông báo sau xuất bản và gỡ bỏ nội dung có hại mà không giải quyết được các tính năng và khả năng chấp nhận của nền tảng kỹ thuật số cho phép tạo và truyền bá nội dung đó ngay từ đầu là một việc làm không giải quyết tận gốc. Việc kiểm duyệt nội dung chỉ có thể có tác động trong cuộc chiến thúc đẩy quyền của các cộng đồng bị thiệt thòi và ủng hộ quyền con người khi chúng ta tìm cách cải thiện toàn bộ hệ sinh thái nền tảng.
Tài liệu tham khảo:
https://getstream.io/blog/cont...
https://readwrite.com/a-guide-...
https://www.cigionline.org