Làm thế nào để dạy AI một số nhận thức phổ biến

Thanh Hương, Trương Khánh Hợp| 17/11/2018 16:18
Theo dõi ICTVietnam trên

Năm năm trước, các lập trình viên tại DeepMind, một công ty trí tuệ nhân tạo có trụ sở tại Luân Đôn, đã theo dõi một AI tự dạy mình chơi một trò chơi Arcade cổ điển một cách hào hứng. Họ đã sử dụng kỹ thuật “hot” nhất ngày nay, Deep Learning- học sâu, trong một nhiệm vụ quái dị: chiến thắng trò Breakout, 1 trò chơi của Atari trong đó bạn ném bóng vào tường gạch bằng tấm đỡ, cố gắng làm cho các viên gạch biến mất.

Kết quả hình ảnh cho HOW TO TEACH ARTIFICIAL INTELLIGENCE SOME COMMON SENSE

Deep Learning là quá trình tự học của máy móc; bạn nạp một lượng lớn dữ liệu vào AI và nó sẽ bắt đầu tự mình phân biệt các mẫu. Trong trường hợp này, dữ liệu là hoạt động trên màn hình — các pixel khối ô vuông đại diện cho các viên gạch, quả bóng và tấm đỡ. AI DeepMind, một mạng nơron được tạo thành từ các thuật toán phân lớp, không được lập trình với bất kỳ kiến ​​thức nào về cách Breakout hoạt động, các quy tắc, mục tiêu, thậm chí cả cách chơi nó. Các lập trình viên chỉ cho phép mạng neural kiểm tra kết quả của mỗi hành động, mỗi lần nảy bóng. Điều này sẽ dẫn đến đâu?

Nó đã trình diễn một số kỹ năng rất ấn tượng. Trong một vài game đầu tiên, AI đã thất bại. Nhưng sau khi chơi vài trăm lần, nó đã bắt đầu nảy bóng chính xác. Đến trò chơi thứ 600, mạng neural đã sử dụng một di chuyển chuyên nghiệp hơn bất cứ người chơi Breakout nào, xóa sổ toàn bộ một cột gạch và nảy bóng dọc theo phần trên cùng của tường.

AI đã thể hiện khả năng của bản thân trong những thứ có vẻ như là một phần tư duy của con người, nắm bắt các thiết kế ẩn đằng sau Breakout. Bởi vì các mạng thần kinh phản chiếu cấu trúc của bộ não con người, lý thuyết là chúng nên bắt chước, ở một số khía cạnh, phong cách nhận thức riêng của chúng ta. Khoảnh khắc này dường như là bằng chứng cho thấy lý thuyết đã đúng.

Sau đó, năm ngoái, các nhà khoa học máy tính tại Vicarious, một công ty AI ở San Francisco, đã có một kiểm tra thực tế thú vị. Họ lấy một AI giống như AI được DeepMind sử dụng và huấn luyện nó với Breakout. Nó chơi tuyệt vời. Nhưng sau đó họ hơi chỉnh cách bố trí của trò chơi. Họ nâng tấm đỡ lên cao hơn, thêm một khu vực không thể phá vỡ ở trung tâm bức tường.

Một người chơi binh thường sẽ có thể nhanh chóng thích ứng với những thay đổi này nhưng mạng thần kinh không thể. AI dường như siêu thông minh này chỉ có thể chơi với phiên bản Breakout giống như phiên bản mà nó đã thắng hàng trăm lượt. Nó không thể xử lý một cái gì đó mới.

Deep Learning là vị vua trị vì của AI. Trong vòng sáu năm kể từ khi nó bùng nổ, nó đã trở thành cách thống trị để giúp các máy cảm nhận và nhận thức được thế giới xung quanh chúng. Nó hỗ trợ nhận dạng giọng nói của Alexa, xe tự lái của Waymo và các bản dịch nhanh của Google. Baidu, gã khổng lồ công nghệ Trung Quốc, đã có hơn 2.000 kỹ sư nghiên cứu mạng lưới thần kinh AI. Trong nhiều năm, có vẻ như Deep Learning sẽ chỉ tiếp tục trở nên tốt hơn, tạo ra các cỗ máy có trí thông minh linh hoạt như con người.

Nhưng một số người cho rằng Deep Learning là một nỗ lực vô nghĩa. Họ nói rằng, một mình nó sẽ không bao giờ tạo ra trí thông minh tổng quát bởi vì trí thông minh thực sự của con người không chỉ là nhận dạng mẫu. Chúng ta cần phải bắt đầu tìm ra cách để dạy AI các nhận thức phổ biến hàng ngày, những thứ mà một người bình thường phải biết. Nếu không, họ cảnh báo, chúng ta sẽ tiếp tục vấp phải các giới hạn của Deep Learning, giống như việc hệ thống nhận dạng trực quan có thể dễ dàng bị lừa bằng cách thay đổi một vài yếu tố đầu vào, làm cho một mô hình Deep Learning nghĩ rằng một con rùa là một khẩu súng . Nhưng nếu chúng ta thành công, chúng ta sẽ chứng kiến ​​sự bùng nổ của các thiết bị an toàn hơn, hữu ích hơn - các robot chăm sóc sức khỏe có thể di chuyển trong một ngôi nhà lộn xộn, hệ thống phát hiện gian lận không đưa ra các kết luận dương tính giả, các phát minh y tế quan trọng có thể đưa ra nguyên nhân và tác động của một căn bệnh.

Nhưng những lập luận chính xác sẽ trông như thế nào trong một cái máy? Và nếu Deep Learning không thể thực hiện điều đó, điều gì có thể?

GARY MARCUS Là một giáo sư tâm lý học thần kinh và khoa học thần kinh tại Đại học New York, và ông có lẽ là người phản đối Deep Learning nổi tiếng nhất.

Hồi đó, chiến lược đằng sau Deep Learning cũng giống như ngày hôm nay. Giả sử bạn muốn một cỗ máy tự dạy nó nhận ra hoa cúc. Trước tiên, bạn sẽ mã hóa một số "nơ-ron" thuật toán, kết nối chúng trong các lớp như bánh sandwich (khi bạn sử dụng nhiều lớp, bánh sandwich trở nên dày hơn hoặc sâu hơn - do đó xuất hiện cụm từ  học “sâu”). Khi bạn đưa ra một hình ảnh của hoa cúc đến lớp đầu tiên, và các nơron của nó sẽ phản ứng hoặc không phản ứng dựa vào việc hình ảnh có giống như các ví dụ về hoa cúc mà nó đã thấy trước đây hay không. Tín hiệu sẽ chuyển sang lớp tiếp theo, nơi quá trình sẽ được lặp lại. Cuối cùng, các lớp sẽ đưa ra phán quyết cuối cùng.

Ban đầu, mạng thần kinh chỉ đoán một cách mù quáng; nó bắt đầu cuộc sống không có gì cả. Điều quan trọng là thiết lập một vòng phản hồi hữu ích. Mỗi khi AI bỏ lỡ một hình ảnh hoa cúc, tập hợp các kết nối thần kinh sẽ làm suy yếu các liên kết dẫn đến một dự đoán sai; nếu nó đoán thành công, tập hợp đó sẽ tăng cường chúng. Nếu có đủ thời gian và đủ các ví dụ hoa cúc, mạng thần kinh trở nên chính xác hơn. Nó học để cảm nhận một số mô hình của không phải hoa cúc, từ đó cho phép nó phát hiện ra các hình ảnh hoa cúc (mà không phải là hướng dương hoặc cúc tây) mỗi lần. Sau nhiều năm trôi qua, ý tưởng cốt lõi này - bắt đầu bằng một mạng lưới ngây thơ và đào tạo bằng sự lặp lại - được cải thiện và dường như hữu ích ở bất cứ nơi nào nó được áp dụng.

Nhưng Marcus không bao giờ bị thuyết phục bởi điều đó. Ông lưu ý, mạng nơ-ron thần kinh dường như không hoạt động theo cách mà bộ não con người làm. Trong hầu hết các trường hợp, mỗi mạng nơ-ron thần kinh đòi hỏi hàng ngàn hoặc hàng triệu ví dụ để học hỏi. Tồi tệ hơn, mỗi lần bạn muốn có một mạng thần kinh để nhận ra một loại vật phẩm mới, bạn phải bắt đầu từ đầu. Một mạng lưới thần kinh được huấn luyện chỉ để nhận ra những chú chim hoàng yến không thể sử dụng để nhận ra, nói, tiếng chim hót hay tiếng nói của con người.

OREN ETZIONI, nhà khoa học máy tính điều hành Viện Trí tuệ Nhân tạo Allen ở Seattle và nhóm của ông đang nghiên cứu về vấn đề tri thức phổ biến trong xã hội. Ông định nghĩa nó trong bối cảnh của hai khoảnh khắc AI huyền thoại — sự trỗi dậy của Deep Blue từ IBM , đánh bại vua tướng cờ Garry Kasparovvào năm 1997 và thất bại đáng kinh ngạc của cầu thủ cờ vây hàng đầu thế giới trước AlphaGo của DeepMind.

Con người, nói cách khác, có một cơ sở kiến ​​thức về thế giới kết hợp với khả năng lý luận về nó. Để AI thực sự nghĩ như mọi người, chúng ta cần dạy mọi thứ mà mọi người đều biết, như vật lý hoặc kích thước tương đối của vật. Cho đến khi AI sở hữu những khái niệm cơ bản, Etzioni chỉ ra, thì nó mới có thể lý luận được như vậy.

Một cách để có được những kiến ​​thức này là trích xuất nó từ mọi người. Phòng thí nghiệm của Etzioni đang trả tiền cho những người đóng góp trên Amazon Mechanical Turk để giúp đưa ra những tuyên bố thông thường. Sau đó, nhóm nghiên cứu sử dụng các kỹ thuật học máy khác nhau - một số phân tích thống kê cũ, một số lưới thần kinh học sâu — để rút ra bài học từ những phát biểu đó. Nếu làm đúng, Etzioni tin rằng họ có thể tạo ra các viên gạch đầu tiên trong lý luận máy tính.

Yejin Choi, một trong những nhà khoa học về lý luận thông thường hàng đầu của Etzioni, người lãnh đạo một số dự án từ đóng góp cộng đồng này. Trong một dự án, cô muốn phát triển một AI để hiểu được ý định hay cảm xúc được ngụ ý bởi hành động hoặc tuyên bố của một người. Cô bắt đầu bằng cách kiểm tra hàng ngàn câu chuyện trực tuyến, blog và các thành ngữ trong Wiktionary và trích xuất “các cụm từ sự kiện”, chẳng hạn như câu “Jeff đấm Roger.” Sau đó, cô sẽ ẩn danh cụm từ thành — “Người X đấm Người Y ”—và yêu cầu Turkers mô tả ý định của Người X: Tại sao họ lại làm vậy? Cô thu thập được 25.000 câu được đánh dấu, sau đó sử dụng chúng để đào tạo một hệ thống học máy phân tích các câu mà nó chưa bao giờ thấy trước đó và suy ra cảm xúc hoặc mục đích của chủ đề.

Ngay cả với kết quả tốt nhất, hệ thống mới chỉ hoạt động một nửa công suất. Nhưng nó gợi lên một số nhận thức rất giống con người: Với một câu như "Oren nấu bữa tối vào Lễ tạ ơn ", nó dự đoán rằng Oren đã cố gắng để gây ấn tượng với gia đình của mình. "Chúng ta cũng có thể đưa ra lý do về phản ứng của người khác, ngay cả khi họ không được đề cập đến" Choi lưu ý. Một hệ thống khác mà nhóm của cô xây dựng đã sử dụng Turkers để đánh dấu các trạng thái tâm lý của những người trong câu chuyện; hệ thống kết quả cũng có thể rút ra một số suy luận sắc nét khi một tình huống mới được đưa ra.

Choi, Etzioni và các đồng nghiệp của họ không từ bỏ Deep Learning. Thật vậy, họ coi nó như một công cụ rất hữu ích. Cho dù chương trình có được lập trình chính xác như thế nào, kết quả đưa ra vẫn sẽ không chính xác nếu dữ liệu đầu vào không có giá trị. Deep Learning là một chương trình như vậy. Chỉ đơn giản nạp một tấn tin tức vào mạng nơ-ron thần kinh là không đủ, bởi vì nó sẽ không nhận thức được về những kiến ​​thức không được nêu ra.

Một thách thức khác là lý luận trực quan. Các nhà khoa học khác của Viện Allen đã xây dựng ngôi nhà giống như trờ Sims, lấp đầy nó bằng các vật dụng hàng ngày - tủ bếp đầy các món ăn, ghế dài có thể được đẩy xung quanh. Sau đó, họ thiết kế robot, trông giống như một ống đựng rác màu xám đen với cánh tay, và bảo nó đi săn một số vật phẩm nhất định. Sau hàng ngàn nhiệm vụ, mạng thần kinh có được nền tảng cơ bản trong các sự kiện thực tế.

AI dựa vào hình ảnh và thử đã trở lỗi thời trong thế giới Deep Learning. Đó là một phần vì nó dễ dàng bị “vỡ”: Nếu không có các quy tắc đúng đắn về thế giới, AI có thể bị lúng túng. Đây là lý do tại sao giao tiếp với chatbot rất dễ nản lòng; nếu chúng không được nói rõ ràng cách trả lời câu hỏi, chúng không có cách nào để giải thích nó. Cyc có khả năng hơn rất nhiều so với chatbot và đã được cấp phép sử dụng trong các hệ thống chăm sóc sức khỏe, dịch vụ tài chính và các dự án quân sự. Nhưng công việc này rất chậm và tốn kém. Lenat cho biết chi phí khoảng 200 triệu USD để phát triển Cyc.

Tuy nhiên, có sự đánh đổi trong loại kỹ thuật AI này. Nó được cho là khó khăn hơn để tạo ra và phải lên kế hoạch cẩn thận để tìm ra chính xác những logic để đưa vào hệ thống. Cũng khó có thể đạt được sự cân bằng về tốc độ và độ chính xác khi thiết kế một hệ thống mới. George nói rằng ông tìm kiếm một bộ dữ liệu tối thiểu “để đưa vào mô hình giúp nó có thể học một cách nhanh chóng.”

Giống như với hệ thống Breakout, họ trao cho AI một số khả năng trước, chẳng hạn như kiến ​​thức giúp nó phân biệt các cạnh của các nhân vật. Với khả năng được trang bị trước đó, họ chỉ cần huấn luyện AI với 260 hình ảnh trước khi học cách vượt qua các captcha với độ chính xác 90,4%. Ngược lại, một mạng nơ-ro thần kinh cần được đào tạo trên hơn 2,3 triệu hình ảnh trước khi nó có thể đoán đúng một hình ảnh xác thực.

Những người khác đang xây dựng cấu trúc kiến thức thông thường vào mạng nơ-ron thần kinh theo nhiều cách khác nhau. Ví dụ, hai nhà nghiên cứu tại DeepMind gần đây đã tạo ra một hệ thống lai - một phần học sâu, một phần kỹ thuật truyền thống - được gọi là lập trình logic quy nạp. Mục đích là để tạo ra một cái gì đó có thể lý luận toán học.

Yann LeCun, một nhà tiên phong Deep Learning và là người đứng đầu nhóm nghiên cứu AI của Facebook, đồng ý với nhiều phê bình mới của lĩnh vực này. Ông thừa nhận rằng nó đòi hỏi quá nhiều dữ liệu để đào tạo và nó không thể lý luận cũng như có những kiến thức chung.

Tuy nhiên, LeCun thừa nhận rằng vẫn chưa có hướng đi rõ ràng để giúp học sâu được vượt qua các giới hạn của nó. Có thể là mạng nơ-ron “đối thủ”, một kỹ thuật tương đối mới trong đó một mạng thần kinh cố gắng đánh lừa một mạng thần kinh khác bằng dữ liệu giả - buộc AI thứ hai phát triển các biểu diễn hình ảnh, âm thanh và các yếu tố đầu vào khác cực kỳ tinh tế. Lợi thế ở đây là bạn không gặp phải vấn đề “đói dữ liệu”. Bạn không cần thu thập hàng triệu điểm dữ liệu để đào tạo mạng thần kinh bởi vì chúng đang học bằng cách nghiên cứu lẫn nhau.

Một câu hỏi triết học sâu sắc nổi lên trên toàn bộ cuộc tranh luận: Liệu AI thông minh hơn có phải là một ý tưởng tốt không? Hệ thống của Vicarious có thể phá vỡ captcha, nhưng toàn bộ mục đích của captcha là ngăn chặn các bot giả danh con người. Một số nhà tư tưởng AI lo lắng rằng khả năng nói chuyện với con người và hiểu được tâm lý của họ có thể khiến AI cực kỳ nguy hiểm. Nick Bostrom tại Đại học Oxford đã lên tiếng báo động về sự nguy hiểm của việc tạo ra một "siêu phản hồi", một AI tự cải thiện và nhanh chóng vượt qua nhân loại, có thể đánh bại và vượt qua chúng ta theo mọi cách.

Elon Musk đã bị thuyết phục về mối nguy hiểm này và ông đã tài trợ cho OpenAI, một tổ chức dành riêng cho khái niệm AI an toàn.

Tương lai này không đe dọa Etzioni. Ông không lo lắng về chuyện AI sẽ trở thành siêu thông minh độc hại. Deep Learning có thể chinh phục cờ vua, nhưng nó không có bản năng để chơi.

Đây là một phần lý do tại sao Etzioni quyết tâm cung cấp cho AI một số kiến thức, lý luận thông thường. Etzioni lưu ý rằng tầm nhìn khoa học của AI ít rủi ro hơn so với chuyển dịch kinh tế trong thời gian gần đây. AI càng trở nên thông minh hơn, việc tiếp nhận những công việc được cho là quá khó đối với mô hình học sâu hiện tại.

Nổi bật Tạp chí Thông tin & Truyền thông
Đừng bỏ lỡ
Làm thế nào để dạy AI một số nhận thức phổ biến
POWERED BY ONECMS - A PRODUCT OF NEKO