AI cảm xúc

và đạo đức nhà báo

  Tóm tắt

Tin giả không phải là một vấn đề mới. Tuy nhiên, với sự phát triển của công nghệ trí tuệ nhân tạo (AI) như ChatGPT, chúng ta đang sống trong một thời đại nơi mà tin giả có thể được tạo ra một cách tự động, mang đến nhiều tiềm tàng rủi ro cho không gian mạng và gây ra ô nhiễm thông tin. Nếu như ChatGPT hay các loại Generative AI (AI tạo sinh) có khả năng tạo ra các đề mục tin giả một cách tự động, thì một nhánh của công nghệ AI mang tên Emotional AI (AI cảm xúc) có khả năng chi phối và khơi gợi cảm xúc thông qua thông tin đó. Người làm báo, đứng trước những thay đổi này, cần có hiểu biết đúng đắn về công nghệ AI và mô hình cảm xúc, không lạm dụng AI cảm xúc để tác động cảm xúc của người đọc, sử dụng công nghệ một cách minh bạch và đạo đức, và bảo vệ dữ liệu của độc giả.


Câu chuyện về tin giả và nền kinh tế cảm xúc

Đã bao giờ bạn tự hỏi “Tại sao trên Facebook nhiều tin báo lá cải đến vậy?” vào năm 2016, cuộc bầu cử tổng thống Mỹ diễn ra giữa 2 ứng cử viên Donald Trump và Hilary Clinton. Đây là thời điểm bùng nổ của tin giả trên mạng xã hội Facebook, với mục đích ủng hộ cho ứng cử viên Donald Trump. Theo như nghiên cứu của công ty phân tích EzyInsights, trong 9 tháng trước cuộc bầu cử tổng thống Mỹ, mật độ tương tác của chiến dịch ủng hộ ứng cử viên Donald Trump trên mạng xã hội Facebook áp đảo so với Hilary Clinton. Điều đáng nói rằng, những tin giả mạo có mật độ tương tác nhiều hơn đáng kể so với tin tức thật về cuộc tuyển cử và các ứng cử viên.

Điều này đã thúc đẩy Facebook, các nền tảng truyền thông, các cơ quan và hãng tin truyền thống và kỹ thuật số cũng như các tổ chức phi lợi nhuận tìm giải pháp chống lại tin giả. Vào tháng 1/2017, Ủy ban Văn hóa, Truyền thông và Thể thao của Quốc hội Vương quốc Anh đã khởi động cuộc điều tra về tin tức giả mạo để xác định các giải pháp tốt nhất. Vào tháng 4/2017, Chính phủ Đức đã lên kế hoạch đưa ra luật cho phép phạt lên tới 50 triệu euro nếu các mạng truyền thông xã hội từ chối xóa tin tức giả mạo, các bài viết có tính đả kích và nhiều nội dung bất hợp pháp khác.

Tin lá cải rất dễ thu hút sự quan tâm của người đọc vì 2 lý do. Thứ nhất, các thông tin chính thống và xác thực xoay quanh một sự kiện cần nhiều thời gian để được kiểm chứng và xuất bản, trong khi nhu cầu thông tin của người đọc luôn ở mức cao nhất. Chính vì vậy, tin giả dễ dàng lợi dụng mong muốn thông tin nhanh chóng và thu được một lượng lớn các độc giả.

Thứ hai, các chi tiết tin tức tại đây thường được phóng đại, thổi phồng, nhằm khơi dậy cảm xúc mạnh của người đọc. GS. Andrew McStay (Đại học Bangor, Wales) đã tranh luận rằng bản chất của sự phát triển tin giả chính là vì chúng ta đang sống trong thời đại nơi mà cảm xúc được khai thác như một nguồn kinh tế (economic of emotions) [1]. Các nội dung giả mạo mang tính cảm xúc cao dễ dàng thu hút một lượng lớn truy cập, và điều này dẫn đến một lượng doanh thu đáng kể từ quảng cáo trực tuyến trên các trang web báo lá cải đó.

Một nhóm các sinh viên đứng sau các trang thông tin tin tức giả mạo liên quan đến chính trị tại Mỹ vào cuộc tuyển cử năm 2016 đã kiếm hàng nghìn euro mỗi ngày từ số lượng truy cập cũng như doanh thu quảng cáo khổng lồ. Các bài viết đều mang rõ nét chính trị cánh hữu, ca ngợi các giá trị bảo thủ và ủng hộ ứng cử viên Donald Trump.


Công nghệ AI cảm xúc là gì?

Với sự phát triển của khả năng lưu trữ dữ liệu và điện toán tinh vi, công nghệ AI đã trở nên mạnh mẽ hơn rất nhiều và phát triển nhiều khả năng mới. Gần đây, sự quảng bá của Chat-GPT 4 và các loại hình Generative AI đã giúp con người có thể tự động viết các bài báo, tóm tắt, cũng như các loại nội dung khác nhau. Nói cách khác, đây là một bước đi lớn của AI với khả năng tạo ra nội dung như con người. Vậy, bạn sẽ phản ứng như thế nào nếu biết đang có một lĩnh vực AI được phát triển để chi phối, mô phỏng, và tương tác với cảm xúc của con người?

Trên thực tế, Emotional AI (AI cảm xúc) đã và đang được ứng dụng trong các sản phẩm kinh doanh, giáo dục và y tế. Các sản phẩm công nghệ này có khả năng nhận biết, diễn giải, mô phỏng và phản ứng với cảm xúc con người. Trong giới học thuật, AI cảm xúc Emotional AI được biết đến với cái tên Affective Computing [2]. Là một lĩnh vực đa ngành nổi lên ở sự giao thoa giữa khoa học máy tính, tâm lý học và khoa học nhận thức, Affective Computing được đặt tên bởi Rosalind Picard, một Giáo sư tại Viện Công nghệ Massachusetts (MIT) vào những năm 1990.

Giáo sư Picard nhận ra nhu cầu cần thiết để công nghệ hiểu và phản ứng với cảm xúc con người tốt hơn, vì cảm xúc đóng vai trò quan trọng trong quyết định, hành vi và sự phát triển tổng thể của con người. Kể từ đó, các nhà nghiên cứu và nhà khoa học từ nhiều lĩnh vực đã phối hợp cùng nhau để phát triển các kỹ thuật và hệ thống để máy tính có thể xử lý dữ liệu về cảm xúc đến từ văn bản, giọng nói, biểu cảm khuôn mặt, nhiệt độ cơ thể, và biến đổi điện từ trên da [3].

Tại Hồng Kông, AI cảm xúc được sử dụng để theo dõi cảm xúc của học sinh trong học tập. Một ứng dụng mang tên 4 Little Trees theo dõi các thay đổi nhỏ nhất của cơ mặt và biểu cảm để đưa ra kết luận về cảm xúc của học sinh, ví dụ như buồn, vui, giận dữ, ngạc nhiên, và sợ hãi [4]. Nếu học sinh mất tập trung, ứng dụng sẽ ngay lập tức gửi thông báo để giúp học sinh quay lại bài giảng, và một báo cáo về cảm xúc của mỗi học sinh được thuật lại cho giáo viên.

Tại Nhật Bản, Công ty Empath cung cấp dịch vụ để phân tích và phán đoán cảm xúc của khách hàng qua giọng nói trên điện thoại cho nhân viên bán hàng, qua đó làm công việc phản hồi và hỗ trợ mua hàng trở nên dễ dàng hơn. Không chỉ vậy, các tương tác nói chuyện giữa nhân viên cũng được phân tích và báo cáo lại nhằm quản lý nhân viên và đánh giá năng lực cá nhân. Ứng dụng của Empath còn tính đến sự âu sầu trong thang đo cảm xúc cơ bản [5].


Tiềm năng và rủi ro của công nghệ AI cảm xúc đối với truyền thông

Quay trở lại với câu chuyện truyền thông, sự phát triển của AI cảm xúc sẽ có những ảnh hưởng gì? Hiện tại, Disney đã sử dụng phần mềm AI cảm xúc để đánh giả phản ứng của người xem đối với một loạt phim của hãng, bao gồm các phim Star Wars: The Force Awakens và Zootopia. Các công ty tiếp thị như Millward Brown đã thử nghiệm công nghệ này để đánh giá cách khán giả phản ứng với quảng cáo cho các khách hàng như Coca-Cola và Intel. Trong tương lai khi mà AI cảm xúc được công bố rộng rãi cho người dùng như ChatGPT 4 hiện tại, một người viết có thể cải thiện lối hành văn của mình dựa trên cảm xúc của người đọc.

Ảnh: Coca Cola

Các phản hồi về cảm xúc tổng thể cũng như biến động trong cảm xúc của người tiếp nhận văn bản là hai nguồn thông tin tốt để một người viết đánh giá bài văn của mình. Ví dụ, biến động liên tục trong cảm xúc có thể không phải là dấu hiệu tốt với một bài diễn văn, khi mục đích của văn bản nhằm diễn thuyết một vấn đề và truyền tải một nội dung mạch lạc cho thính giả. Đối với các tòa soạn cũng như nhà báo, công nghệ này có thể sử dụng để thăm dò ý kiến của độc giả trước các bài viết cũng như trong các trường hợp xử lý khủng hoảng truyền thông.

Mặt khác, giống như mặt trái của Generative AI trong việc viết báo mang tính quá khái quát và có thành kiến, mặt trái của AI cảm xúc chính là tiềm tàng ô nhiễm không gian thông tin: thông tin được sản xuất không phải dựa trên thực tiễn sự việc xảy ra mà AI cảm xúc đã thao túng cảm xúc của người đọc, qua đó, khiến việc xác định chất lượng thông tin trở nên khó khăn hơn. Hai người đọc có thể ngồi cạnh nhau về mặt địa lí, nhưng do thuật toán gợi ý tin tức dựa trên xu hướng cảm xúc của người đọc, mà khoảng cách về thông tin và cách hiểu thế giới có thể khác nhau một trời một vực.


Các đề xuất cho người làm báo trong thời đại AI

Đưa lại ví dụ về cuộc tuyển cử Mỹ, một số tờ báo lá cải đang phát triển tin giả hoàn toàn dựa trên lượng tương tác của người đọc. Hãy tưởng tượng các tin giả trong thời đại mới được sản xuất tự động và đánh trực tiếp vào cảm xúc tiêu cực của độc giả. Đây sẽ một hiểm họa trong cuộc chiến chống lại thông tin giả mạo, và có thể gây ra ảnh hưởng trực tiếp đến truyền thông chính thống khi mà dư luận đổ sự tập trung vào các nguồn tin giả tức thời.

Vì vậy, thiết nghĩ các nhà báo cần có những suy nghĩ sâu sắc để chuẩn bị cho một thế giới báo chí mới ngày càng xuất hiện thêm nhiều sự áp dụng của các thuật toán thông minh [6, 7]. Dưới đây là một vài đề xuất cho các nhà báo trong thời đại AI lên ngôi:

- Không lạm dụng AI cảm xúc với mục đích khơi gợi một cảm xúc bên ngoài ở người đọc. Họ cần đảm bảo rằng các phản hồi về cảm xúc của độc giả chỉ sử dụng phù hợp cho mục đích chính đáng ban đầu: đưa thông tin đúng và chính xác với sự thật.

- Phát triển hiểu biết về bản chất của công nghệ AI, tức các biến số trong sự đo lường cảm xúc và mô hình cảm xúc cơ bản đó.

- Có trách nhiệm trong quá trình bảo vệ dữ liệu của độc giả, đặc biệt là các dữ liệu có thể giúp hình thành nhận dạng hồ sơ cảm xúc của độc giả cá nhân. Các thông tin liên quan đến dữ liệu khuôn mặt và giọng nói đều có nguy cơ bị đánh cắp và sử dụng cho mục đích xấu. Với phẩm chất và đạo đức của một người làm báo, chúng ta cần có trách nghiệm sử dụng các công nghệ hỗ trợ một cách minh bạch, đặc biệt là việc bảo vệ dữ liệu của người tham gia./.


Tài liệu tham khảo

[1]. Bakir, V. and A. McStay, Fake News and The Economy of Emotions. Digital Journalism, 2018. 6(2): p. 154-175.
[2]. Ho, M.-T., et al., Affective computing scholarship and the rise of China: a view from 25 years of bibliometric data. Humanities and Social Sciences Communications, 2021. 8(1): p. 282.
[3]. Ho, M.-T., et al., Rethinking technological acceptance in the age of emotional AI: Surveying Gen Z (Zoomer) attitudes toward non-conscious data collection. Technology in Society, 2022. 70: p. 102011.
[4]. Crawford, K., Time to regulate AI that interprets human emotions. Nature, 2021. 592(167).
[5]. Mantello, P. and M.-T. Ho, Emotional AI and the future of wellbeing in the post-pandemic workplace. AI & SOCIETY, 2023.
[6]. Vuong, Q.-H., The (ir)rational consideration of the cost of science in transition economies. Nature Human Behaviour, 2018. 2(1): p. 5-5.
[7]. Vuong, Q.H., Mindsponge theory. 2022: De Gruyter. https://books.google.com/books?id=OSiGEAAAQBAJ.


TS. Hồ Mạnh Tùng
Viện Triết học, Viện Hàn lâm Khoa học Xã hội Việt Nam
Lê Bùi Ngọc Thăng
ĐH Ritsumeikan Asia Pacific University

(Bài viết đăng ấn phẩm in Tạp chí TT&TT số 6 tháng 6/2023)