Tấn công mạng nhắm vào ngành y tế có thể đánh lừa AI và bác sĩ
An toàn thông tin - Ngày đăng : 11:50, 28/12/2021
Các nhà nghiên cứu đã mô phỏng một "cuộc tấn công", trong đó hình ảnh chụp X-quang vú bị thay đổi theo cách có thể ảnh hưởng đến chẩn đoán ung thư vú, và cuộc tấn công mô phỏng này đã đánh lừa được cả mô hình trí tuệ nhân tạo (AI) cũng như các bác sĩ X-quang có kinh nghiệm. Những phát hiện này đã được công bố trên tạp chí Nature Communications.
Các nhà nghiên cứu giải thích, mặc dù một số mô hình chẩn đoán dựa trên sự hỗ trợ của máy tính AI (CAD) đã cho thấy hiệu suất đầy hứa hẹn trong việc ứng dụng nhưng những công nghệ như vậy rất dễ bị tấn công mạng.
Để tìm hiểu xem mô hình chẩn đoán AI sẽ hoạt động như thế nào nếu bị tấn công, các nhà nghiên cứu đã sử dụng 4.346 hình ảnh chụp X-quang tuyến vú từ 1.284 phụ nữ. Nhóm này bao gồm 918 bệnh nhân âm tính với ung thư vú và 366 bệnh nhân ung thư vú được chứng minh bằng sinh thiết.
Trong phần đầu của nghiên cứu, các nhà khoa học đã xây dựng một mô hình AI-CAD học sâu, có khả năng phân biệt các trường hợp ung thư vú với các trường hợp lành tính với độ chính xác hơn 80%.
Sau đó, nhóm nghiên cứu đã sử dụng GAN (Generative Adversarial Network) để tạo ra các hình ảnh chụp nhũ ảnh giả bằng cách chèn hoặc loại bỏ các vùng ung thư khỏi hình ảnh.
Khi các nhà nghiên cứu thử nghiệm các hình ảnh do GAN tạo ra trên mô hình AI-CAD, mô hình này đã bị đánh lừa bởi 69,1% các hình ảnh giả mạo. Cụ thể, 44 hình ảnh tích cực được GAN làm cho tiêu cực đã được mô hình phân loại là tiêu cực. Trong số 319 hình ảnh tiêu cực được tạo ra để có vẻ tích cực, 209 hình ảnh được mô hình phân loại là tích cực.
Trong phần thứ hai của nghiên cứu, các nhà nghiên cứu đã phối hợp với 5 bác sĩ X-quang hình ảnh vú có kinh nghiệm và đánh giá mức độ họ có thể phát hiện ra hình ảnh đối nghịch.
Trong 5 phiên khác nhau, các bác sĩ X quang được yêu cầu đọc 100 đến 440 hình ảnh là thật, giả, hoặc hỗn hợp của cả hai, có và không có sự can thiệp. Kết quả, các bác sĩ X- quang có thể xác định được 29% đến 71% hình ảnh giả mạo.
Tác giả nghiên cứu Shandong Wu, tiến sĩ, tại Đại học Pittsburgh, Pennsylvania, cho biết trong một tuyên bố: "Một số hình ảnh giả mạo đánh lừa AI có thể dễ dàng bị phát hiện bởi các bác sĩ X-quang. Tuy nhiên, nhiều hình ảnh đối nghịch trong nghiên cứu này không chỉ đánh lừa mô hình AI mà còn đánh lừa những bác sĩ có kinh nghiệm".
Ông cho biết thêm: "Những cuộc tấn công như vậy có thể có gây hại cho bệnh nhân nếu chúng dẫn đến chẩn đoán ung thư không chính xác. Chúng tôi hy vọng, nghiên cứu này giúp mọi người suy nghĩ về sự an toàn của mô hình AI trong y tế và những gì chúng ta có thể làm là để bảo vệ, chống lại các cuộc tấn công tiềm ẩn, đảm bảo các hệ thống AI hoạt động một cách an toàn để cải thiện việc chăm sóc sức khoẻ của người bệnh"./.