Truyền thông

Cần cẩn trọng khi ứng dụng AI trong Báo chí

PV 15/12/2023 06:26

Các phần mềm ứng dụng AI có thể trở thành trợ lý ảo cho các nhà báo và cơ quan báo chí trong sáng tạo nội dung, tổ chức sản xuất nội dung và phân phối nội dung báo chí số.

Những lợi thế mà AI mang lại cho báo chí

AI và các nhà báo có thể bổ sung cho nhau. Dưới đây là ví dụ về các công cụ AI hỗ trợ các nhà báo trong công việc của họ:

Phân tích dữ liệu: Các công cụ AI như Tableau, IBM Watson Analytics và BigQuery của Google Cloud xử lý các bộ dữ liệu lớn, cho phép các nhà báo khám phá các xu hướng và mô hình. Người dùng: Nhà báo dữ liệu, phóng viên điều tra và tổ chức tin tức đang tìm kiếm thông tin chi tiết dựa trên dữ liệu.

Kiểm tra thông tin tự động: Các công cụ kiểm tra thông tin được hỗ trợ bởi AI như Factmata và Full Fact xác minh thông tin và xác định thông tin sai lệch. Người dùng: Người xác minh sự thật, tổ chức tin tức và nhà báo đảm bảo tính chính xác và độ tin cậy.

Phân tích tình cảm: Các nền tảng như IBM Watson và Lexalytics cung cấp các công cụ AI để phân tích tình cảm nhằm hiểu được dư luận về các vấn đề xã hội thông qua phân tích nội dung trực tuyến. Người dùng: Các nhà báo đưa tin về bầu cử, dư luận hoặc các vấn đề xã hội.

Sáng tạo nội dung: Các nền tảng nội dung do AI tạo ra như GPT-3 của OpenAI giúp các nhà báo soạn thảo các bản tóm tắt hoặc báo cáo tin tức. Người dùng: Các nhà báo đang tìm kiếm nguồn cảm hứng viết nội dung hoặc viết hiệu quả.

Dịch ngôn ngữ: Các công cụ dịch dựa trên AI như Google Translate và DeepL tạo điều kiện thuận lợi cho báo chí toàn cầu bằng cách dịch chính xác các cuộc phỏng vấn, tài liệu và nguồn tin tức. Đối tượng: Nhà báo đưa tin về các sự kiện quốc tế hoặc các khu vực đa ngôn ngữ.

Hoàn toàn có thể, các nhà báo và AI có thể cùng tồn tại cộng sinh. Trong khi AI mang lại lợi thế cho ngành báo chí thì các nhà báo vẫn không thể thiếu nhờ tư duy phê phán, phán đoán đạo đức và khả năng sáng tạo của họ. AI, bao gồm các Mô hình ngôn ngữ như GPT-4, vượt trội trong việc xử lý ngôn ngữ tự nhiên.

Như vậy, có thể thấy trong khi AI hỗ trợ các nhà báo thực hiện các nhiệm vụ phân tích dữ liệu và ngôn ngữ, thì sức mạnh cốt lõi của tư duy phản biện, sự đồng cảm, tính sáng tạo và việc ra quyết định có đạo đức chỉ nằm ở con người các nhà báo. AI hợp lý hóa một số nhiệm vụ và xử lý dữ liệu nhất định, nhưng khả năng của các nhà báo vẫn đảm bảo việc đưa tin có tác động và đáng tin cậy, góp phần tạo nên một xã hội đầy đủ thông tin và đồng cảm trong bối cảnh truyền thông và công nghệ đang phát triển.

article.jpg
Ảnh minh họa

Cần tình táo khi đánh giá thông tin

Những tiện ích khi sử dụng AI trong báo chí là rất rõ ràng, tuy nhiên vấn đề nảy sinh khi chúng ta không thể phân biệt AI với thực tế. Hoặc khi nội dung do AI tạo ra được cố tình tạo ra để đánh lừa mọi người - không chỉ là thông tin sai lệch (thông tin sai lệch hoặc gây hiểu lầm) mà còn là thông tin xuyên tạc hoặc nguy hại (sự giả dối nhằm mục đích đánh lừa hoặc gây hại).

Những người nhằm mục đích truyền bá tin giả có thể sử dụng AI tạo sinh để tạo ra nội dung giả mạo với chi phí thấp và các chuyên gia cho rằng đầu ra có thể đánh lừa công chúng tốt hơn nội dung do con người tạo ra.

Khi nói đến việc chống lại thông tin sai lệch do AI tạo ra và sự nguy hiểm của AI nói chung, các nhà phát triển các công cụ này cho biết họ đang nỗ lực giảm thiểu mọi tác hại mà công nghệ này có thể gây ra: Microsoft, công ty đã đầu tư hàng tỷ đô la vào OpenAI, người tạo ra ChatGPT, đã sa thải 10.000 nhân viên vào tháng 3, bao gồm cả nhóm chịu trách nhiệm đảm bảo các nguyên tắc đạo đức được áp dụng khi sử dụng AI trong các sản phẩm của Microsoft.

Khi được hỏi về việc sa thải trong một tập của podcast Freakonomics Radio, Giám đốc điều hành Microsoft Satya Nadella nói rằng an toàn AI là một phần quan trọng trong quá trình tạo ra sản phẩm.

Nadella cho biết: “Công việc mà các nhóm an toàn AI đang thực hiện hiện đang trở nên phổ biến. Thực ra, chúng tôi đang tăng cường gấp đôi vấn đề này… Đối với tôi, an toàn AI giống như nói về “hiệu suất” hoặc “chất lượng” của bất kỳ dự án phần mềm nào”.

Các công ty tạo ra công nghệ này cho biết họ đang nỗ lực giảm thiểu rủi ro từ AI. Google, Microsoft, OpenAI và Anthropic, một công ty nghiên cứu và an toàn AI, đã thành lập Diễn đàn Frontier Model Forum - một cơ quan trong ngành tập trung vào việc đảm bảo sự phát triển an toàn và có trách nhiệm của các mô hình AI. Mục tiêu của nhóm này là thúc đẩy nghiên cứu về an toàn AI, xác định các phương pháp hay nhất và cộng tác với các nhà hoạch định chính sách, học giả và các công ty khác.

Các quan chức chính phủ Mỹ cũng đang tìm cách giải quyết vấn đề an toàn AI. Phó Tổng thống Mỹ Kamala Harris đã gặp lãnh đạo Google, Microsoft và OpenAI vào tháng 5 về mối nguy hiểm tiềm tàng của AI. Hai tháng sau, những nhà lãnh đạo đó đưa ra “cam kết tự nguyện” với chính quyền Biden về việc giảm thiểu rủi ro của AI. Liên minh châu Âu cho biết họ muốn các công ty công nghệ bắt đầu dán nhãn nội dung do AI tạo ra trước khi thông qua luật thực hiện điều đó.

Nội dung do AI tạo ra, mặc dù tiên tiến nhưng thường có những điểm kỳ quặc hoặc mâu thuẫn tinh tế. Những dấu hiệu này có thể không phải lúc nào cũng hiện diện hoặc dễ nhận thấy, nhưng đôi khi chúng có thể tiết lộ nội dung do AI tạo ra. Có bốn điều cần cân nhắc khi cố gắng xác định xem thứ gì đó có phải do AI tạo ra hay không:

Tìm kiếm những điểm kỳ quặc của AI: Những cụm từ kỳ quặc, những câu tiếp nối không liên quan hoặc những câu không hoàn toàn phù hợp với câu chuyện tổng thể là những dấu hiệu của văn bản do AI viết. Với hình ảnh và video, những thay đổi về ánh sáng, chuyển động kỳ lạ trên khuôn mặt hoặc sự pha trộn kỳ lạ của nền có thể là những dấu hiệu cho thấy nó được tạo ra bằng AI.

Hãy xem xét nguồn: Đây có phải là nguồn có uy tín như Associated Press, BBC hay New York Times hay nguồn này đến từ một trang web mà bạn chưa từng nghe đến?

Hãy tự nghiên cứu: Nếu một bài đăng bạn thấy trên mạng có vẻ quá điên rồ để có thể tin là sự thật, thì hãy xem nó trước. Google những gì bạn thấy trong bài đăng và xem liệu nó có thật hay chỉ là nội dung AI được lan truyền rộng rãi hơn.

Kiểm tra thực tế: Dành thời gian chờ và nói chuyện với những người bạn tin tưởng về nội dung bạn đang xem. Việc giữ mình trong bong bóng trực tuyến có thể có hại, nơi việc phân biệt đâu là thật và đâu là giả trở nên khó khăn hơn.

Điều tiếp tục có hiệu quả nhất khi chống lại bất kỳ loại thông tin sai lệch nào, cho dù nó do con người hay AI tạo ra, là phải “cực kỳ cẩn trọng” khi chia sẻ nó.

Để “sống sót” trong "thời kỳ rối loạn thông tin", mỗi người cần có trách nhiệm tự lọc những gì mình đọc và chia sẻ, bên cạnh trách nhiệm kiểm soát của các công ty công nghệ. Một cách lọc cơ bản là kiểm tra, xác minh, đặt câu hỏi về động cơ của người viết, thay vì chỉ đọc những tiêu đề và sau đó chia sẻ trên các trang mạng xã hội. Những hành vi tưởng chừng vô hại có thể để lại hậu quả lớn vì khuếch đại thông tin đã ở một tầm mức cao hơn.

Bằng cách nhận thức được những lời khuyên này, chúng ta có thể bảo vệ bản thân và những người khác khỏi bị lừa bởi những thông tin sai lệch. Ngoài ra, hãy trở thành một người dùng Internet hiểu biết và thông minh.

Tài liệu tham khảo:
https://blogs.deakin.edu.au/ar...
https://tuoitre.vn/vu-khi-cam-...
http://vjes.vnies.edu.vn/sites...
https://www.cnet.com/news/misi...

Bài liên quan
Nổi bật Tạp chí Thông tin & Truyền thông
Đừng bỏ lỡ
Cần cẩn trọng khi ứng dụng AI trong Báo chí
POWERED BY ONECMS - A PRODUCT OF NEKO