Hãy trung thực và minh bạch với người đọc khi sử dụng AI trong báo chí
Vẫn còn nhiều tranh cãi về niềm tin của độc giả đối với những nội dung được sản xuất bởi trí tuệ nhân tạo (AI). Nhưng có một điều chắc chắn rằng, nếu các tòa soạn báo, các nhà xuất bản không minh bạch trong việc sử dụng AI thì độc giả sẽ quay lưng vì mất niềm tin vào họ
Dán nhãn hay không dán nhãn AI
Việc sử dụng AI tạo sinh trong ngành tin tức đã tăng trưởng đáng kể trong những năm gần đây. Kể từ khi ra mắt công chúng ChatGPT, một mô hình ngôn ngữ lớn (LLM), vào tháng 11 năm 2022 bởi OpenAI và các LLM tương tự như "Bard" của Google và LLaMA của Meta, nhiều tổ chức tin tức đã thể hiện sự quan tâm mạnh mẽ đến nhánh phụ này của trí tuệ nhân tạo.
Các LLM được trang bị chức năng tạo nội dung xác thực, đa phương thức bao gồm các yếu tố văn bản và hình ảnh được coi là có tiềm năng định hình lại sâu sắc động lực của sản xuất, phân phối và tiêu thụ tin tức cũng như hệ sinh thái thông tin và mô hình kinh doanh của nhà xuất bản (Simon & Isaza-Ibarra, 2023).
Nhiều nhà xuất bản trong nhiều năm đã sử dụng AI và các công nghệ tương tự cho các nhiệm vụ hậu trường như theo dõi các chủ đề thịnh hành trực tuyến, ghi lại các cuộc phỏng vấn và cá nhân hóa các khuyến nghị cho độc giả (Beckett 2019).
Tuy nhiên, mối quan tâm về các rào cản và thông lệ tốt nhất đã trở nên nổi bật khi ngày càng nhiều tòa soạn khám phá việc sử dụng AI tạo sinh cho các ứng dụng ngày càng hướng đến công chúng.
Ví dụ, tại Mỹ, Men's Journal đã sử dụng AI để giúp viết các bài tóm tắt dựa trên các bài báo trước đó. Ở Mexico và Vương quốc Anh, các kênh phát thanh và truyền hình đã thử nghiệm các trình đọc tin tức tổng hợp. Những kênh khác đã thử nghiệm các ứng dụng như thử nghiệm tiêu đề, dấu đầu dòng tóm tắt, chatbot, tạo hình ảnh và dịch bài viết.
Tuy nhiên, hầu hết các nhà xuất bản đang hành động thận trọng, học hỏi từ những rủi ro của những người khác đã bị giám sát vì tiết lộ và giám sát không đầy đủ, trong một số trường hợp dẫn đến thông tin không chính xác xuất hiện trên các trang web tin tức.
Việc áp dụng công nghệ trí tuệ nhân tạo (AI) trong sản xuất và phân phối tin tức đã tạo ra những lo ngại về mặt lý thuyết, chuẩn mực và thực tiễn xung quanh sự xói mòn thẩm quyền và quyền tự chủ của báo chí và sự lan truyền thông tin sai lệch.
Với niềm tin vào tin tức vốn đã thấp ở nhiều nơi trên thế giới, cả học giả và người thực hành đều cảnh giác về cách công chúng sẽ phản ứng với tin tức được tạo ra thông qua các phương pháp tự động, thúc đẩy các lời kêu gọi dán nhãn nội dung do AI tạo ra.
Một nghiên cứu với nội dung “Họ có thể hay không sử dụng nó?”: Nghịch lý của việc tiết lộ AI để khán giả tin tưởng vào tin tức - do hai nhà nghiên cứu thực hiên là Benjamin Toff (Trường Báo chí & Truyền thông đại chúng Hubbard, Đại học Minnesota, Mỹ) và Felix M. Simon (Viện Internet Oxford, Đại học Oxford, Oxford, Vương quốc Anh).
Trong nghiên cứu này, hai tác giả trình bày kết quả từ một cuộc khảo sát - thí nghiệm mới được tiến hành bằng cách sử dụng nội dung báo chí thực tế do AI tạo ra. Họ kiểm tra xem công chúng ở Mỹ, nơi niềm tin đặc biệt bị phân cực theo các đường lối đảng phái, có coi tin tức được dán nhãn là do AI tạo ra là đáng tin cậy hơn hay ít hơn không.
Hai nhà nghiên cứu thấy rằng trung bình khán giả coi tin tức được dán nhãn là do AI tạo ra là ít đáng tin cậy hơn, ngay cả khi bản thân các bài báo không được đánh giá là kém chính xác hoặc không công bằng. Hơn nữa, họ thấy rằng những tác động này chủ yếu tập trung ở những người có mức độ tin tưởng vào tin tức từ trước cao hơn ngay từ đầu và ở những người thể hiện mức độ hiểu biết cao hơn về báo chí.
Các nhà nghiên cứu cũng thấy rằng các tác động tiêu cực liên quan đến độ tin cậy được nhận thức phần lớn được phản tác dụng khi các bài viết tiết lộ danh sách các nguồn được sử dụng để tạo ra nội dung. Khi các tổ chức tin tức ngày càng hướng đến việc áp dụng các công nghệ AI trong phòng tin tức của họ, kết quả của nghiên cứu có ý nghĩa về cách tiết lộ về các kỹ thuật này có thể góp phần hoặc làm suy yếu thêm lòng tin của khán giả vào thể chế báo chí tại thời điểm mà vị thế của nó với công chúng đặc biệt mong manh.
Một mối quan tâm chính đối với các nhà xuất bản thử nghiệm AI là cách sử dụng các công nghệ này có thể ảnh hưởng đến niềm tin của công chúng vào tin tức, dữ liệu của Digital News Report cho thấy điều này đã giảm ở nhiều quốc gia trong những năm gần đây. Nhiều người lo lắng về khả năng AI tạo ra thông tin thiên vị, không chính xác hoặc sai lệch.
Tuy nhiên, ngoài việc đảm bảo chất lượng thông tin, một số đang vật lộn với các thông lệ tốt nhất xung quanh việc tiết lộ việc sử dụng AI. Một mặt, việc cung cấp sự minh bạch về cách họ sử dụng AI có thể giúp quản lý kỳ vọng và thể hiện thiện chí. Mặt khác, trong phạm vi mà khán giả không tin tưởng vào các công nghệ AI, chỉ cần biết các tổ chức tin tức đang sử dụng chúng cũng có thể làm giảm lòng tin.
Nghiên cứu thử nghiệm ban đầu cho thấy rằng công chúng xem tin tức được gắn nhãn là do AI tạo ra là kém đáng tin cậy hơn so với tin tức do con người tạo ra. Sự căng thẳng này có nghĩa là các tổ chức tin tức sẽ muốn suy nghĩ cẩn thận về thời điểm cần tiết lộ và cách truyền đạt thông tin đó.
Hãy thành thật với người đọc
Khi được hỏi về việc tiết lộ thông tin nói chung, những người tham gia nghiên cứu của nhóm 2 tác giả nêu trên, hoan nghênh và thường yêu cầu sự minh bạch hoàn toàn về việc sử dụng AI trong báo chí. Tuy nhiên, khi tìm hiểu sâu hơn về các ứng dụng AI đa dạng, không phải ai cũng thấy cần thiết trong mọi trường hợp sử dụng.
Một số người cho rằng việc dán nhãn ít quan trọng hơn khi nói đến việc sử dụng hậu trường, nơi các nhà báo sử dụng AI để đẩy nhanh công việc của họ nhưng lại bắt buộc đối với các đầu ra hướng đến công chúng, đặc biệt là những đầu ra chủ yếu được tạo ra bởi AI, vì nó có thể định hình cách họ tiếp cận thông tin hoặc liệu họ có muốn sử dụng thông tin đó ngay từ đầu hay không.
Những cá nhân tin tưởng vào các tổ chức tin tức cụ thể, đặc biệt là những tổ chức mà họ mô tả là có uy tín hoặc danh tiếng, cũng có xu hướng cởi mở hơn với việc họ sử dụng AI. Cho dù đó là vì họ coi các kênh truyền thông như vậy là nhân từ hơn, tin tưởng hơn vào năng lực giám sát của họ hay chỉ đơn giản là nghĩ rằng họ sẽ mất nhiều nhất nếu họ làm điều đó một cách bất cẩn, thì những phân khúc khán giả này dường như ít khó chịu hơn với các nhà báo sử dụng AI.
Mặt khác, những khán giả vốn đã hoài nghi hoặc chỉ trích các tổ chức tin tức có thể thấy lòng tin của họ bị xói mòn hơn nữa do việc triển khai các công nghệ này.
Sports Illustrated là công ty truyền thông mới nhất chứng kiến danh tiếng của mình bị tổn hại vì không trung thực về việc ai hoặc điều gì đang viết bài cho mình vào buổi bình minh của kỷ nguyên trí tuệ nhân tạo. Sports Illustrated, điều hành như một trang web và là ấn phẩm hàng tháng của Arena Group, trước đây từng là một tuần báo trong danh mục tạp chí của Time Inc.
Ấn phẩm từng rất quyền lực này cho biết họ đã chấm dứt hợp đồng với một công ty đã sản xuất các bài viết cho trang web của mình được viết dưới tên của những tác giả dường như không tồn tại. Nhưng họ đã phủ nhận một báo cáo đã công bố rằng các câu chuyện được viết bởi một công cụ trí tuệ nhân tạo.
Mới đây, các thử nghiệm với AI đã đi chệch hướng tại cả chuỗi báo Gannett và trang web công nghệ CNET. Nhiều công ty đang thử nghiệm công nghệ mới vào thời điểm mà người lao động lo ngại rằng nó có thể làm mất việc làm. Nhưng quá trình này rất căng thẳng trong báo chí, nơi xây dựng và tiếp thị các sản phẩm dựa trên giá trị của mình xung quanh các khái niệm về sự thật và minh bạch.
Tom Rosenstiel, giáo sư tại Đại học Maryland, người giảng dạy đạo đức báo chí, cho biết: "Mặc dù không có gì sai khi các công ty truyền thông thử nghiệm trí tuệ nhân tạo, nhưng sai lầm nằm ở việc cố gắng che giấu nó và thực hiện nó một cách kém cỏi".
Rosenstiel cho biết: "Nếu bạn muốn tham gia vào ngành kinh doanh nói sự thật, mà các nhà báo tuyên bố là họ làm, bạn không nên nói dối. Bí mật là một hình thức nói dối".
Các công ty khác đã thẳng thắn hơn về các thử nghiệm của họ. Ví dụ: Buzzfeed đã ghi nhận một bài viết về du lịch ở Santa Barbara, California, cho nhà văn Emma Heegar và Buzzy the Robot, "trợ lý AI sáng tạo của chúng tôi".
Buzzfeed cho biết trong một lưu ý gửi tới độc giả rằng: "Chúng tôi sẽ phát triển nội dung gốc AI - những điều mới mẻ thú vị mà bạn không thể làm được nếu không có AI - và những thứ được AI cải tiến nhưng lại do con người tạo ra".
Không có quan điểm đơn lẻ nào từ khán giả về việc liệu việc sử dụng AI của các tổ chức tin tức có được chấp nhận hay không. Mặc dù điểm khởi đầu chủ yếu là sự phản kháng, nhưng khi xem xét các cách sử dụng cụ thể, khán giả bày tỏ ý kiến sắc thái trên nhiều ứng dụng khác nhau và những phát hiện này làm nổi bật các lĩnh vực mà họ có vẻ thoải mái chấp nhận hơn cũng như những lĩnh vực có nhiều khả năng là khu vực nguy hiểm, nơi các tổ chức tin tức sẽ muốn bước nhẹ nhàng hoặc hoàn toàn tránh xa.
Mới đây, Ủy ban châu Âu kêu gọi các công ty công nghệ "dán nhãn rõ ràng nội dung là sản phẩm của trí tuệ nhân tạo để tránh việc truyền bá thông tin sai lệch". Việc dán nhãn là để người dùng có thể dễ dàng nhận biết các sản phẩm này không phải con người tạo ra.
Phó Chủ tịch Ủy ban châu Âu (EC), bà Vera Jourova cho rằng, các công ty công nghệ đã tham gia Bộ quy tắc thực hành tự nguyện của Liên minh châu Âu (EU) về chống thông tin sai lệch (trong đó có TikTok, Microsoft và Meta) cần cảnh báo người dùng về nội dung do AI tạo ra.
Số liệu từ nghiên cứu cho thấy khán giả cởi mở nhất với việc sử dụng AI ở hậu trường và các lĩnh vực mà AI có thể giúp cải thiện trải nghiệm của họ khi sử dụng tin tức, cung cấp thông tin được cá nhân hóa và dễ tiếp cận hơn. Họ ít thoải mái hơn khi nói đến nội dung công khai, các chủ đề nhạy cảm hoặc quan trọng và video hoặc hình ảnh tổng hợp có thể được coi là thật và hậu quả của lỗi được coi là hậu quả nghiêm trọng nhất. Nhìn chung, có sự đồng thuận rằng con người luôn phải tham gia và tự động hóa hoàn toàn nên bị hạn chế.
Việc cẩn trọng khi tiết lộ việc sử dụng AI sẽ rất quan trọng đối với các nhà xuất bản quan tâm đến lòng tin của độc giả, cũng như việc giải thích cho độc giả biết việc sử dụng AI trong báo chí trông như thế nào. Việc dán nhãn quá mức hoặc mơ hồ có thể khiến những cá nhân vốn đã ít tin tưởng và/hoặc những người có kiến thức hạn chế về những việc sử dụng này sợ hãi, những người có khả năng sẽ mặc định đưa ra những giả định tiêu cực. Nhưng việc không cung cấp cho độc giả thông tin mà họ có thể muốn quyết định tin tức nào nên sử dụng và tin tưởng cũng có thể gây ra thiệt hại tương tự.
Bất chấp sự không chắc chắn xung quanh việc khán giả có thể có khuynh hướng thuận lợi hay bất lợi đối với báo chí được tạo ra với sự trợ giúp của AI hay không, thậm chí còn ít rõ ràng hơn là cách các tổ chức tin tức nên xử lý câu hỏi về việc tiết lộ cách thức và thời điểm họ sử dụng các công nghệ này trong quy trình làm việc của riêng họ.
Ngày càng nhiều tổ chức tin tức đang cân nhắc hoặc bắt buộc phải tiết lộ như vậy khi họ sử dụng các công cụ AI để hỗ trợ tạo nội dung (Becker, Simon, Crum, 2023). Nhiều tổ chức làm như vậy vì các chuẩn mực nghề nghiệp lâu đời về tính minh bạch (Deuze, 2005; Karlsson, 2010) và mong muốn công chúng có thể nhận biết được các hoạt động báo chí (Tuchman, 1972).
Tương tự như vậy, bên ngoài báo chí, ngày càng có nhiều lời kêu gọi tiết lộ xung quanh việc sử dụng AI nói chung là do bản chất không minh bạch của các hệ thống AI và cách thức các hệ thống này đạt được kết quả (Grant và cộng sự, 2023). Tuy nhiên, hiện tại, tài liệu có sẵn về các phương thức tiết lộ nội dung do AI tạo ra còn hạn chế. Thậm chí còn ít nghiên cứu hơn xem xét các tác động của việc tiết lộ này./.
Tài liệu tham khảo:
1-See ONS and Pew Research Center.
2-See AP.
3-https://ora.ox.ac.uk/objects/uuid:5f3db236-dd1c-4822-aa02-ce2d03fc61f7/files/s9306t097c