Truyền tải thông tin và yêu cầu thực tiễn đối với nhà báo trong kỷ nguyên AI
Báo chí - Ngày đăng : 08:24, 23/08/2023
Truyền tải thông tin và yêu cầu thực tiễn đối với nhà báo trong kỷ nguyên AI
Bạn có tin vào câu trả lời của ChatGPT? Bạn có hiểu cách mà mô hình ngôn ngữ lớn đằng sau ChatGPT hoạt động? Đối với phần đông độc giả, câu trả lời hẳn là “Có” và “Không”.
Tóm tắt
- Mục tiêu của Generative AI (trí tuệ nhân tạo sản sinh) như ChatGPT là tạo ra câu trả lời tự nhiên, không phải đưa ra câu trả lời chính xác và được kiểm chứng.
- Nội dung sản sinh từ AI duy trì vấn nạn tin giả và chuyên gia giả. Người tiêu thụ thông tin bị ảnh hưởng trực tiếp từ mặt trái này của công nghệ AI mới.
- Truyền thông khoa học là một mô hình hữu ích để truyền tải thông tin và các cách hiểu đúng về công nghệ AI và các công nghệ thông tin mới tới công chúng.
- Trong kỷ nguyên công nghệ AI, chúng ta cần xây dựng những giá trị văn hóa mới trong tiêu thụ và truyền tải thông tin. Bao gồm viết báo về công nghệ với góc nhìn xen lẫn cả yếu tố kinh tế, văn hóa, chính trị; báo cáo các vấn đề từ góc độ đa chiều; và tiếp cận với người tiêu thụ thông tin qua mô hình mới, điển hình là truyền thông khoa học.
Trong thời đại công nghệ AI trở nên phức tạp hơn bao giờ hết, chúng ta khó mà có thể hiểu được cơ chế của các công nghệ thông tin mới. Tuy nhiên, đây là một hiểm họa vô hình với người tiêu thụ thông tin. Generative AI (trí tuệ nhân tạo sản sinh) như ChatGPT không hề có cam kết với việc đưa ra thông tin đúng với sự thật, và nội dung sản sinh tự động từ AI sẽ làm trầm trọng thêm vấn nạn tin giả, thậm chí tạo nên chuyên gia giả trên mạng xã hội.
Bởi vậy, người làm báo cần sử dụng công cụ AI và truyền tải thông tin về công nghệ thông tin mới với trách nhiệm. Chúng tôi đưa ra 3 đề xuất chính: Truyền tải thông tin khách quan, trung thực và đa chiều về các công nghệ thông tin mới; Xác định các xu hướng mới trong việc sử dụng công nghệ thông tin mới; Cung cấp bài viết truyền thông khoa học cập nhật về các công nghệ thông tin mới cho công chúng.
“ChatGPT hoạt động như thế nào?”, sự phức tạp trong truyền thông về bản chất của công nghệ và truyền thông khoa học
“Tóm lại, ChatGPT hoạt động như một mô hình ngôn ngữ lớn được đào tạo trước trên một lượng lớn dữ liệu văn bản và được tinh chỉnh trên các bộ dữ liệu cụ thể hơn. Cơ chế của nó dựa trên Transformer Neural Network (mạng nơ ron Transformer), cho phép nó nắm bắt các thuộc tính thống kê và các mối quan hệ ngữ nghĩa có trong ngôn ngữ. Mặc dù nó có thể tạo ra văn bản giống con người, nhưng nó thiếu sự hiểu biết thực sự và phải được sử dụng một cách thận trọng, đặc biệt là trong các tình huống mà tính chính xác và kiểm tra thực tế là rất quan trọng”.
Đoạn văn trên là kết quả tóm tắt chúng tôi nhận được sau khi hỏi chính ChatGPT về cơ chế hoạt động của mô hình này, sau khoảng 1.000 chữ chi tiết và mạch lạc hơn về các bước luyện dữ liệu của OpenAI - công ty phát triển mô hình ChatGPT, về mạng nơ ron Transformer, và các bước tiếp của OpenAI để cải thiện sự tự nhiên trong câu trả lời từ ChatGPT.
Bởi vậy, ChatGPT không phải một ứng dụng biết tuốt, và hiểu rõ bản chất của câu hỏi cũng không phải là nhiệm vụ chính của mô hình này. Nhiệm vụ chính của ChatGPT là tạo ra những câu trả lời tự nhiên và thuyết phục nhất. Nó không hề có cam kết đối với sự thật, và nó cũng không hề khẳng định với người dùng như vậy.
Theo như diễn giải của tác giả Ted Chiang trên báo The New Yorker, ChatGPT và các mô hình ngôn ngữ lớn khác giống như thuật toán nén ảnh dạng jpeg mờ cho các văn bản trên Web [1]. Nó giữ lại nhiều thông tin trên Web giống như cách jpeg giữ lại nhiều thông tin của hình ảnh có độ phân giải cao, nhưng, nếu bạn zoom sâu vào thì ảnh sẽ vỡ dần ra những gì nhận được là mức độ thông tin ở độ nét vừa phải, chấp nhận được.
Theo Ted Chiang, thông tin chúng ta nhận được từ ChatGPT là một bản nén từ bộ dữ liệu khổng lồ trên Web, và ChatGPT được “huấn luyện” để tạo ra văn bản có sự tự nhiên trong ngữ pháp và dùng từ. Sự tự nhiên đó khiến nó trở nên có vẻ đáng tin và giống người đến kinh ngạc, điều đó khiến người dùng nhanh chóng nhân hóa công cụ chatbot này. Đây vừa là sức mạnh và cũng là điều tạo nên những điểm bất cập đến từ công nghệ Generative AI.
Những ví dụ tương tự cho thấy sự phức tạp mà các nhà báo sẽ gặp phải trong việc đưa những cách hiểu đúng về công nghệ AI và các công nghệ thông tin mới tới công chúng: Cách dữ liệu được tạo ra, cách dữ liệu được lọc và xử lí, cách thuật toán được tạo ra và điều chỉnh, phép so sánh nào giúp ta hình dung về dữ liệu tốt hơn v.v..
Đây là một bài toán lớn mà truyền thông về khoa học công nghệ cần giải quyết nhằm tạo ra cầu nối tốt giữa các cộng đồng khoa học, giới công nghệ và độc giả phổ thông. Truyền thông khoa học là quá trình truyền đạt thông tin, kiến thức và khái niệm khoa học đến đối tượng không chuyên môn một cách rõ ràng, dễ hiểu và hấp dẫn. Nó giúp thu hẹp khoảng cách giữa cộng đồng khoa học và công chúng bằng cách giới thiệu các khái niệm khoa học phức tạp thành ngôn ngữ và định dạng dễ hiểu và gần gũi với mọi người từ mọi nền văn hóa [2].
Nội dung sản sinh tự động từ AI: Đương đầu thế nào với tình trạng chuyên gia giả?
Bên cạnh việc phải truyền tải cách hiểu đúng và cập nhật về bản chất các công nghệ AI đang được phát triển tới chóng mặt, nhà báo cũng cần thấy rằng một trong những tính năng đáng lo ngại nhất của Generative AI như ChatGPT hay Bard chính là các nội dung được tự động tạo ra dựa trên AI.
Với các công nghệ này, các bài viết trên được tạo ra tự động trên từng phút, đạt đến một số lượng lớn khó có thể kiểm soát hết trên các nền tảng xã hội khác nhau.
Với các đối tượng ít kinh nghiệm, dễ bị ấn tượng với thông tin trực tuyến như trẻ nhỏ, trẻ vị thành niên, và người già, các nội dung giả mạo, có tính giật gân này vẫn có sức hút lớn. Việc chatbot càng ngày càng sản xuất văn bản giống người hơn càng khiến vấn đề phân biệt nội dung nào là thật sự có căn cứ, ai thực sự là người có chuyên môn, trở nên khó khăn hơn.
Việc tiêu thụ thông tin của công chúng ngày càng cần có sự tỉnh thức, chọn lọc hơn và vai trò của giới truyền thông trong việc giúp nâng cao nhận thức về tính xác thực, khách quan của các luồng thông tin, các nội dung, các trào lưu trên không gian mạng là ngày càng cấp thiết.
Do đó, vấn đề về các chuyên gia giả, tình trạng lắm thầy nhiều ma sẽ vẫn là chủ đề lớn cần được quan tâm và đề phòng. Đối mặt với tình trạng này, thiết nghĩ việc tiêu thụ thông tin của công chúng ngày càng cần có sự tỉnh thức, chọn lọc hơn [3] và vai trò của giới truyền thông trong việc giúp nâng cao nhận thức về tính xác thực, khách quan của các luồng thông tin, các nội dung, các trào lưu trên không gian mạng là ngày càng cấp thiết [4, 5].
Sử dụng công cụ AI có trách nhiệm: Xây dựng những giá trị văn hóa mới trong tiêu thụ và truyền tải thông tin
Việc tích hợp AI trong báo chí không phải là mới, trên thế giới, nhiều tòa soạn đã sử dụng AI cho nhiều mục đích khác nhau. Từ việc thúc đẩy người đọc quyên góp hoặc trả tiền cho các bài viết đến quảng cáo được cá nhân hóa, AI đã trở thành một phần không thể thiếu trong ngành tin tức.
Trang thông tin công nghệ CNET của Mỹ đã chủ động sử dụng “nhân viên AI” để viết và xây dựng nội dung của các bài viết, với kết cục là các nhân viên “người” phải đính chính và viết bài sửa sai ngay sau đó [6]. Đây là một cách dùng công cụ AI dễ thấy, dễ hiểu, và khó có thể ngăn chặn. Bởi vậy, chúng ta cần chủ động xây dựng và phát triển những giá trị văn hóa mới trong cách tiêu thụ và truyền tải thông tin từ truyền thông báo chí.
Truyền tải thông tin công nghệ qua con đường báo chí có tính chất đặc trưng so với các kênh truyền thông khác, đó là góc nhìn xen lẫn cả yếu tố kinh tế, văn hóa, và chính trị.
Truyền tải thông tin công nghệ qua con đường báo chí có tính chất đặc trưng so với các kênh truyền thông khác, đó là góc nhìn xen lẫn cả yếu tố kinh tế, văn hóa, và chính trị. Khi tiếp xúc với những xu hướng công nghệ thông tin mới, độc giả không chỉ thu nhận thêm thông tin về sự vật hiện tượng đang xảy ra, mà có thể hiểu rộng được các yếu tố vĩ mô định hình sự phát triển của công nghệ đó. Đây là vũ khí của các nhà báo trước sự lan rộng của các nội dung tạo tự động từ AI. Độc giả chắc chắn sẽ phân biệt và chọn lọc các bài báo có ý kiến và góc nhìn xã hội của tác giả, thay vì các nội dung tự động mà AI được huấn luyện để cho câu trả lời trung lập và khách quan.
Bản thân các công ty công nghệ cũng không được miễn trừ các vấn đề đạo đức. Một bài báo của Time tiết lộ rằng OpenAI, công ty đứng sau ChatGPT, đã trả cho công nhân ở Kenya chưa đến 2 đô la một giờ để sàng lọc nội dung phản cảm và có hại, bao gồm lạm dụng trẻ em, tự tử, và tra tấn, nhằm huấn luyện ChatGPT nhận ra tài liệu bạo lực hoặc kích động [7]. Người dùng không có quyền kiểm soát đối với các hoạt động này, làm dấy lên mối lo ngại về đạo đức của công nghệ và việc triển khai nó.
Hay như phương tiện báo đài Nhật Bản đưa tin về công ty khổng lồ Amazon sử dụng AI để theo dõi và kiểm soát công nhân, gây ra nhiều bất cập và xung đột văn hóa trong môi trường công sở tại Nhật Bản [8, 9]. Các cuộc tranh luận trên là vô cùng cần thiết để tạo ra nguồn ngôn luận khách quan về công nghệ.
Cuối cùng, chúng tôi xin nhắc lại về mô hình truyền thông khoa học. Được kết nối và hỗ trợ bởi tòa soạn, các nhà nghiên cứu khoa học sẽ có cơ hội chia sẻ kiến thức và góc nhìn về công nghệ thông tin mới cho độc giả.
Qua mô hình này, thông tin về công nghệ sẽ trở nên dễ tiếp thu và được lan truyền rộng rãi đến công chúng. Hơn nữa, thông tin về công nghệ sẽ được cập nhật nhanh nhất, khi các kết quả sơ bộ trong nghiên cứu của chuyên gia có thể được chia sẻ nhanh chóng thay vì tốn hàng năm để được biết đến theo con đường khoa học truyền thống.
Hiện nay, kênh Podcast, một loại chương trình âm thanh hoặc âm thanh kết hợp, đang trở nên phổ biến và được nghe bởi hàng trăm triệu người trên toàn thế giới. Tại Việt Nam, nền tảng này đang dần phát triển và được đánh giá với nhiều tiềm năng [10].
Trong giới truyền thông khoa học qua Podcast, chúng ta không thể không nhắc đến The Huberman Lab, một kênh Podcast của tiến sĩ Andrew Huberman tại Viện Đại học Y Stanford. Kênh podcast của ông tổng hợp các kiến thức về khoa học thần kinh để đưa ra các phương pháp sinh hoạt và tập luyện có ích lợi cho mọi người, tất cả đều được dựa trên các bài báo khoa học uy tín. Hiện tại, kênh Podcast của ông đứng thứ 6 trên nền tảng Spotify Podcast, và thứ 1 về lĩnh vực Sức khỏe và Thể thao. Điều đó cho thấy, truyền thông khoa học, nếu được làm đúng cách, sẽ thu hút một lượng lớn khán giả mặc dù chủ đề có phức tạp hay trừu tượng đến đâu. Truyền thông khoa học về công nghệ thông tin mới qua Podcast chắc chắn sẽ là một công cụ mới và hữu ích cho các tòa soạn.
Qua đó, chúng tôi xin đưa ra 3 đề xuất đối với truyền thông về công nghệ cao đối với người làm báo:
- Truyền tải khách quan, trung thực, và đa chiều về các công nghệ thông tin mới. Các đề mục cơ bản bao gồm: cơ chế, tiềm năng/lợi ích, tiềm tàng/nguy hiểm, các vấn đề kinh tế - xã hội gắn liền với việc sử dụng và phát triển của công nghệ thông tin mới v.v.. Các bài viết với đầy đủ thông tin và dễ hiểu cho đa số độc giả sẽ khuyến khích các thảo luận đa chiều về công nghệ thông tin mới trong tương lai.
- Xác định các xu hướng mới trong sử dụng công nghệ thông tin mới. Các tính năng hay công cụ nào đang được sử dụng để nâng cao năng suất hiệu quả làm việc của doanh nghiệp? Rủi ro nào đang bắt nguồn từ các công nghệ thông tin mới như ChatGPT và AI sản sinh nội dung? Có những câu chuyện nào mới gắn liền với sự phát triển của công nghệ thông tin mới nên được bàn luận vì tính chất xã hội nhân văn?
- Cung cấp các bài viết truyền thông khoa học về công nghệ thông tin mới cho công chúng, đồng thời tiếp cận với độc giả qua các nền tảng xã hội khác nhau. Các loại hình như Podcast là công cụ phù hợp để thu hút sự quan tâm của độc giả trực tuyến cũng như truyền tải các nội dung quan trọng về các loại công nghệ mới./.
Tài liệu tham khảo:
1. Ted Chiang. ChatGPT Is a Blurry JPEG of the Web. The New Yorker 2023 [cited 2023 July 7]; Available from: https://www. newyorker.com/tech/annals-of-technology/chatgpt-is-ablurry-jpeg-of-the-web.
2. Ho, M.-T., M.-T. Ho, and Q.-H. Vuong Total SciComm: A Strategy for Communicating Open Science. Publications, 2021. 9, DOI: 10.3390/publications9030031.
3. Vuong, Q.H., Meadering Sobriety. 2023: https://www. amazon.com/dp/B0C2TXNX6L/.
4. Vuong, Q.-H., The (ir)rational consideration of the cost of science in transition economies. Nature Human Behaviour, 2018. 2(1): p. 5-5.
5 Mantello, P. and M.-T. Ho, Losing the information war to adversarial AI. AI & SOCIETY, 2023.
6. Farhi, P., A news site used AI to write articles. It was a journalistic disaster, in The Washington Post. 2023.
7. Perrigo, B., Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic, in TIME. 2023.
8. Ishibushi, K. and L. Matsakis. Masafumi Ito, leader of the Amazon Japan Union, sues for wrongful termination Rest of the world 2021 [cited 2022 October 03]; Available from: https://restofworld.org/2021/lawsuit-amazon-japan-union/.
9. Soper, S. Fired by Bot at Amazon: ‘It’s You Against the Machine’. Bloomberg 2021 [cited 2022 July 29]; Available from: https://www.bloomberg.com/news... features/2021-06-28/fired-by-bot-amazon-turns-to-machinemanagers-and-workers-are-losing-out.
10. Luong, S., Podcasting begins gaining traction in Vietnam, in Tuoi Tre News. 2020
(Bài đăng ấn phẩm in Tạp chí TT&TT số 7 tháng 7/2023)