Mặc dù không phải là không có rủi ro, nhưng mọi người ngày càng sẵn sàng từ bỏ một số quyền riêng tư của họ để đổi lấy thông tin được cá nhân hóa hơn. Trí tuệ nhân tạo vốn được thiết kế để giải quyết những thách thức. Vì vậy, nếu chúng ta đang thiết kế một công cụ điều khiển bởi trí tuệ nhân tạo và làm một công việc tồi tệ trong việc chỉ định vấn đề cần giải quyết, điều đó có thể sẽ không mang lại kết quả như mong đợi hoặc như chúng ta mong muốn. Trí tuệ nhân tạo không nhận thức được ngữ pháp hay các vấn đề đạo đức ngoài những gì chúng ta đã lập trình, vì vậy con người chúng ta phải chịu trách nhiệm trong việc tạo và triển khai nó một cách cẩn thận.
Fintech – viết tắt của từ Financial Technology – có nghĩa là Công nghệ tài chính. Fintech đề cập đến việc tận dụng sáng tạo công nghệ trong các hoạt động và dịch vụ tài chính.
Fintech là các ứng dụng, qui trình, sản phẩm, mô hình kinh doanh mới trong ngành dịch vụ tài chính, bao gồm một hay nhiều dịch vụ tài chính bổ sung và được cung cấp như một qui trình ‘từ đầu cuối tới đầu cuối’ qua mạng internet.
Trí tuệ nhân tạo có một điểm yếu vốn có, trong đó chúng ta có thể đưa vào nó những thành kiến riêng của chúng ta, dù vô tình hay cố ý. Sự thiên vị, thành kiến có thể nằm trong định nghĩa về sự cố khi được gửi tới các máy móc trí tuệ nhân tạo hoặc dữ liệu mà chúng ta nhập để thúc đẩy việc ra quyết định của mình. Lấy ví dụ này áp dụng cho fintech: Nếu dữ liệu cho thấy rằng các cư dân của một thị trấn thường quá hạn trong việc chi trả các khoản vay, trí tuệ nhân tạo có thể kết luận tất cả cư dân của thị trấn đó có một rủi ro tín dụng. Tuy nhiên, dữ liệu chi tiết hơn sẽ cho thấy đây là một trường hợp tương quan chứ không phải là quan hệ nhân quả.
Những rủi ro như vậy không chỉ đơn thuần là về mặt lý thuyết. Đã có những trường hợp trong đó các hệ thống trí tuệ nhân tạo và học máy có thể phân biệt đối xử một cách dễ dàng với các đối tượng bởi vì các vấn đề của họ đã không được xác định một cách đúng đắn hoặc bởi vì các hệ thống được đào tạo bằng cách sử dụng dữ liệu có thành kiến hoặc không đầy đủ.
Dưới đây là một ví dụ thực tế khác: Vào năm 2016, Tòa án tối cao New York đã phán quyết ủng hộ các giáo viên tuyên bố rằng họ đã bị đánh giá không công bằng bởi phần mềm phân loại giáo viên dựa trên trí tuệ nhân tạo. Trong số các vấn đề khác, các nhà điều tra phát hiện ra rằng phần mềm có tỷ lệ lỗi 35%; hệ thống xếp hạng của nó không ảnh hưởng đến các trình điều khiển hiệu suất như quy mô lớp học và phương sai về khả năng của học sinh trong các lớp học.
Fintech đã bắt đầu tận dụng trí tuệ nhân tạo ở một số lĩnh vực, đáng chú ý nhất là để giải quyết vấn đề an ninh, ngăn chặn người đăng ký gian lận cho các khoản vay và các dịch vụ tài chính khác. Trí tuệ nhân tạo đang được sử dụng để tìm hiểu các mẫu thanh toán hợp pháp và gian lận, xây dựng các quy tắc xác định các mẫu đó và sau đó áp dụng các quy tắc để xác định các giao dịch đáng ngờ. Càng nhiều giao dịch được đưa vào máy phát hiện gian lận AI fintech, các quy tắc trở nên rộng hơn đồng thời (để xác định các giao dịch đáng ngờ hơn) tinh vi hơn (để xác định ít các vấn đề sai sót hơn).
Trong khi nó được hưởng lợi từ trí tuệ nhân tạo, fintech không miễn dịch với những vấn đề này hơn bất kỳ lĩnh vực nào khác. Để quay trở lại ví dụ trước đây của chúng tôi, nếu các ngân hàng không trung hòa sự thiên vị trong các thuật toán được sử dụng để xác định đối tượng được tiếp cận với các khoản vay, và về những điều khoản nào, mọi người sẽ bị đối xử một cách bất bình đẳng. Hậu quả cho những người bị ảnh hưởng và cho ngành công nghiệp tài chính có thể là rất nghiêm trọng.
Các công ty tin tưởng fintech trong việc cung cấp sự đối xử công bằng, không thiên vị cho người tiêu dùng, và chúng tôi có thể nói hầu hết các thành viên của ngành công nghiệp fintech cũng muốn làm điều tương tư như vậy. Trí tuệ nhân tạo có thể hỗ trợ hoặc phá hủy mục tiêu đó. Vì vậy, như một ngành công nghiệp, chúng ta cần phải chấp nhận rủi ro của việc thiết kế trí tuệ nhân tạo một cách không phù hợp và các thuật toán thiên vị một cách nghiêm túc.