Nghiên cứu “Tiềm năng của robot xã hội thuyết phục và thao túng: Chứng minh khái niệm” (Tạm dịch: The potential of social robots for persuasion and manipulation: a proof of concept study) do Kaspersky và Đại học Ghent, Bỉ thực hiện đã phát hiện ra rằng robot có thể trích xuất hiệu quả những thông tin nhạy cảm từ những người dùng đặt niềm tin đối với robot, bằng cách thuyết phục những người này thực hiện những hành động bất cẩn.
Ví dụ, trong một số tình huống, sự hiện diện của robot có ảnh hưởng mạnh mẽ đến việc người dùng sẵn sàng cho phép robot quyền ra vào các tòa nhà có an ninh bảo vệ.
Thế giới đang nhanh chóng hướng đến tăng cường việc số hóa và tính linh động của các dịch vụ. Nhiều ngành công nghiệp và hộ gia đình đang phụ thuộc nhiều vào sự tự động hóa và sử dụng hệ thống robot.
Theo một số đánh giá, việc sử dụng hệ thống robot sẽ trở thành chuyện bình thường đối với các hộ gia đình khá giả trước năm 2040. Hiện tại, đa số các hệ thống robot này vẫn đang trong giai đoạn nghiên cứu hàn lâm và vẫn còn quá sớm để thảo luận về cách tích hợp các biện pháp an ninh mạng.
Tuy nhiên, nghiên cứu của Kaspersky và Đại học Ghent đã tìm ra một khía cạnh mới và khá bất ngờ về những rủi ro liên quan đến ngành robot - ảnh hưởng xã hội lên hành vi của con người cũng như những nguy hiểm cùng đường hướng tấn công tiềm ẩn mà ngành robot mang lại.
Nghiên cứu này tập trung vào tác động của một robot xã hội cụ thể - được thiết kế và lập trình để tương tác với con người thông qua kênh giao tiếp như con người, ví dụ như giọng nói hoặc giao tiếp phi ngôn ngữ, và với khoảng 50 người tham gia.
Giả định rằng robot xã hội có thể bị tấn công, và kẻ tấn công đã nắm thế chủ động trong trường hợp này, thì bài nghiên cứu đã tiên liệu được những nguy cơ tiềm ẩn về an ninh liên quan đến việc robot tác động mạnh mẽ đến người dùng để thực hiện những hành vi như:
Ra vào những khu vực hạn chế tiếp cận
Robot được đặt gần cửa an ninh của một tòa nhà đa chức năng tại trung tâm thành phố Ghent, Bỉ, và đã tiến hành dò hỏi nhân viên về việc liệu nó có thể theo nhân viên này qua cửa an ninh được hay không.
Khu vực này mặc định chỉ có thể ra vào bằng cách chạm thẻ an ninh vào máy đọc thẻ được trang bị tại cửa ra vào. Xuyên suốt quá trình thực nghiệm, không phải tất cả nhân viên đều nghe theo yêu cầu của robot, nhưng có tới 40% nhân viên đã mở và để cửa mở cho robot vào khu vực an ninh.
Tuy nhiên, khi robot được bố trí với vai trò là nhân viên giao bánh pizza, cầm hộp bánh pizza có tên của một nhãn hiệu thức ăn mang đi nổi tiếng trên toàn cầu, các nhân viên sẵn sàng chấp nhận vai trò của robot và có vẻ như ít khi nghi ngờ về sự hiện diện cũng như lý do robot cần vào khu vực an ninh.
Khai thác những thông tin nhạy cảm
Phần thứ hai của nghiên cứu tập trung vào việc lấy các thông tin cá nhân thường được sử dụng để khôi phục mật khẩu (bao gồm ngày sinh, nhãn hiệu của chiếc xe đầu tiên, màu sắc yêu thích, v.v…).
Một lần nữa, robot xã hội đã được sử dụng, và lần này đã mời một số người đến để trò chuyện thân mật. Trong tất cả người tham gia, ngoại trừ một người, các nhà nghiên cứu đã có thể có được thông tin cá nhân của tất cả người tham gia còn lại với tần suất khoảng một câu trong một phút.
Bình luận về các kết quả của cuộc thực nghiệm, ông Dmitry Galov, nhà nghiên cứu bảo mật của Kaspersky, cho biết: “Khi bắt đầu nghiên cứu, chúng tôi đã kiểm tra phần mềm được sử dụng để phát triển hệ thống robot. Điều thú vị là chúng tôi phát hiện ra các nhà thiết kế đã có chủ ý loại trừ cơ chế bảo mật và thay vào đó chú trọng việc phát triển sự thuận tiện và hiệu quả”.
Tuy nhiên, dựa trên những kết quả cho thấy từ thực nghiệm, ông Dmitry Galov cho biết: “Tốt nhất các nhà phát triển robot không nên bỏ qua tính bảo mật khi giai đoạn nghiên cứu hoàn thành. Bên cạnh các đặc tính kỹ thuật, có những khía cạnh chủ chốt đáng lo ngại khi đến bước nghiên cứu về tính bảo mật của ngành robot. Chúng tôi mong muốn dự án liên kết và bước đột phá của chúng tôi trong lĩnh vực robot an ninh mạng cùng các đồng nghiệp tại Đại học Ghent sẽ khuyến khích mọi người theo dõi những minh chứng chúng tôi đưa ra và nâng cao nhận thức công chúng và cộng đồng về vấn đề này.”
Ông Tony Belpaeme, Giáo sư trong ngành trí tuệ nhân tạo (AI) và Robot của Đại học Ghent bổ sung thêm: “Tài liệu khoa học chỉ ra rằng sự tin tưởng đối với robot và cụ thể là robot xã hội là có thật và niềm tin này có thể được sử dụng để thuyết phục mọi người hành động hoặc tiết lộ thông tin. Nhìn chung, robot càng được lập trình giống con người, nó càng có khả năng thuyết phục và thu phục”.
“Thực nghiệm của chúng tôi cho thấy điều này có thể đem lại những rủi ro bảo mật rất lớn: Mọi người có xu hướng không để tâm đến những vấn đề này, cho rằng robot thì thân thiện và đáng tin cậy”.
Tuy nhiên, ông Tony Belpaeme cho hay: "Điều này dẫn đến những rủi ro tiềm năng đối với những đợt tấn công bằng mã độc và ba tình huống thực tế được đề cập trong báo cáo chỉ là một phần nhỏ về các rủi ro bảo mật liên quan đến robot xã hội. Đây là lý do vì sao việc cấp thiết bây giờ là phải cùng nhau hiểu và giải quyết những rủi ro và lỗ hổng mới phát sinh - vì những cố gắng bây giờ sẽ được đền đáp trong tương lai".