Europol cảnh báo ChatGPT "tiếp tay" cho tội phạm mạng và những dấu hỏi lớn

Diễn đàn - Ngày đăng : 17:55, 28/03/2023

Ngày 27/3, Cơ quan cảnh sát châu Âu (Europol) đã lên tiếng cảnh báo về khả năng lạm dụng ChatGPT trong các nỗ lực lừa đảo, đưa thông tin sai lệch và tội phạm mạng, làm tăng thêm mối lo ngại từ các vấn đề pháp lý đến đạo đức.
Diễn đàn

Europol cảnh báo ChatGPT "tiếp tay" cho tội phạm mạng và những dấu hỏi lớn 

Ngọc Diệp {Ngày xuất bản}

Ngày 27/3, Cơ quan cảnh sát châu Âu (Europol) đã lên tiếng cảnh báo về khả năng lạm dụng ChatGPT trong các nỗ lực lừa đảo, đưa thông tin sai lệch và tội phạm mạng, làm tăng thêm mối lo ngại từ các vấn đề pháp lý đến đạo đức.

shutterstock_2248479607-800x450.jpeg

ChatGPT bị lợi dụng cho mục đích xấu

Kể từ khi ra mắt công chúng hồi cuối năm ngoái, công cụ ChatGPT của OpenAI đã gây ra một cơn sốt công nghệ trên phạm vi toàn cầu, khiến các công ty chạy đua tung ra các sản phẩm tương tự cũng như tích hợp chatbot này vào các ứng dụng và sản phẩm của họ. Tuy nhiên, nó cũng có thể bị lạm dụng để thực hiện các hành vi lừa đảo cũng như những hoạt động tội phạm mạng khác.

Báo cáo công nghệ của Europol ngày 27/3 nêu rõ, khi các khả năng của các mô hình ngôn ngữ lớn (LLM) như ChatGPT đang được tích cực cải thiện, việc khai thác tiềm năng của những loại hệ thống AI này bởi tội phạm ngày càng trở nên rõ nét.

"Tội phạm thường nhanh chóng khai thác các công nghệ mới và đưa ra các cách thức thực hiện tấn công cụ thể, với các ví dụ thực tế đầu tiên chỉ vài tuần sau khi ChatGPT được phát hành công khai”, báo cáo cho hay.

Cũng theo Europol, đối với một tên tội phạm không biết gì về một lĩnh vực tội phạm cụ thể, ChatGPT có thể tăng tốc đáng kể quá trình nghiên cứu bằng cách cung cấp thông tin chính một cách nhanh chóng. Như vậy, ChatGPT có thể được sử dụng để tìm hiểu về các lĩnh vực tiềm ẩn đối với tội phạm mà không có kiến thức trước, từ cách đột nhập vào nhà, khủng bố, tội phạm mạng và lạm dụng tình dục trẻ em.

Cụ thể, báo cáo chỉ ra 3 lĩnh vực tội phạm mà ChatGPT có thể bị lạm dụng. Đầu tiên là khả năng soạn thảo văn bản có tính thực tế cao của ChatGPT khiến nó trở thành một công cụ hữu ích cho các mục đích lừa đảo. Cơ quan thực thi pháp luật của Liên minh châu Âu (EU) thông tin thêm, với khả năng tái tạo các mẫu ngôn ngữ bắt chước phong cách phát ngôn của các cá nhân hoặc các nhóm cụ thể, chatGPT có thể được tội phạm sử dụng để nhắm mục tiêu vào các nạn nhân.

Thứ hai, khả năng chuyển giọng nói thành văn bản có độ chính xác cao cũng khiến ChatGPT trở thành một công cụ lý tưởng phục vụ mục đích tuyên truyền và đưa thông tin sai lệch chỉ với tương đối ít nỗ lực

Cuối cùng, theo Europol, tội phạm không hiểu nhiều về mặt kỹ thuật nhưng cũng có thể sử dụng ChatGPT để viết mã độc. Đối với một tên tội phạm có chút ít kiến thức kỹ thuật, đây là một nguồn tài nguyên vô giá để sản xuất mã độc.

Những vấn đề khác của hệ thống

Cơ quan EU cũng chỉ ra thực tế rằng các quy tắc kiểm duyệt của ChatGPT có thể bị phá vỡ. Để ChatGPT hoạt động an toàn, OpenAI có chính sách lọc nội dung, hạn chế thông tin nhạy cảm, kích động, độc hại. Tuy nhiên, theo hãng bảo mật Check Point Research, tội phạm mạng không khó vượt qua rào cản kiểm duyệt và lợi dụng điều này để kiếm tiền. Cụ thể, một số tin tặc sử dụng giao diện lập trình ứng dụng (API) của OpenAI và tạo các bot đặc biệt, không bị giới hạn nội dung và có thể tích hợp vào ứng dụng nhắn tin Telegram. Sau đó, tin tặc bán cho những người có nhu cầu với giá thấp nhất 5,5 USD cho 100 truy vấn. Một số tin tặc cũng tìm cách qua mặt hệ thống kiểm duyệt của ChatGPT bằng cách tạo ra một tập lệnh đặc biệt và công khai trên nền tảng GitHub. Phiên bản ChatGPT độc hại này có thể mạo danh doanh nghiệp và ngân hàng để tạo mẫu email lừa đảo. 

Mặt khác, ChatGPT là một công nghệ tương đối mới, các lỗ hổng liên tục được phát hiện mặc dù các bản vá được triển khai liên tục. 

Những dấu hỏi lớn cho tương lai

Theo Europol, mục đích của báo cáo này là nâng cao nhận thức về khả năng lạm dụng mô hình ngôn ngữ lớn LLM, mở ra cuộc đối thoại với các công ty AI để giúp họ xây dựng các biện pháp bảo vệ tốt hơn và thúc đẩy sự phát triển của các hệ thống AI an toàn và đáng tin cậy.

Rõ ràng, khi công nghệ phát triển và các mô hình mới trở nên sẵn có, việc cơ quan thực thi pháp luật luôn phải đi đầu trong những vấn đề này để dự đoán và ngăn chặn việc sử dụng với mục đích xấu sẽ ngày càng trở nên quan trọng.

Trong khi, Ủy ban châu Âu đang hợp tác chặt chẽ với Hội đồng EU và Nghị viện châu Âu để hoàn thiện các quy định trong dự luật AI nhằm giải quyết rủi ro liên quan đến ChatGPT và AI nói chung thì các thành viên của Nghị viện châu Âu đã thảo luận về việc đưa ra một số yêu cầu nghiêm ngặt đối với mô hình nền tảng này như quản lý rủi ro, kiểm soát chất lượng,...

Tuy nhiên, theo Europol, những thách thức do các hệ thống này tạo ra sẽ chỉ tăng lên khi chúng ngày càng trở nên phổ biến và tinh vi, chẳng hạn như với việc tạo ra các tin giả có sức thuyết phục cao.

Một rủi ro khác là các mô hình ngôn ngữ lớn này có thể xuất hiện trên web đen mà không có bất kỳ biện pháp bảo vệ nào hay việc chúng được đào tạo bằng dữ liệu độc hại. Loại dữ liệu sẽ cung cấp cho các hệ thống này và cách chúng có thể được kiểm soát là những dấu hỏi lớn cho tương lai./.

Ngọc Diệp