AI ảnh hưởng như thế nào tới ngành sản xuất Chip điện tử

04:34 PM 19/07/2019 In bài viết

Ngành công nghiệp máy tính phải đối mặt với sự thay đổi lớn vì nhu cầu của các hình thức học sâu của học máy bắt buộc phải có các yêu cầu mới đối với silicon, cùng lúc với Luật Moore, bộ luật tiến bộ hàng thập kỉ trong ngành kinh doanh chip bị sụp đổ.

Các trí tuệ siêu việt nhất trong ngành công nghiệp chip đã tập trung tại San Francisco để nói về ý nghĩa của nó.

Applied Materials, nhà sản xuất các công cụ hàng đầu chế tạo máy bán dẫn, đã tài trợ cho buổi họp mang tên “Diễn đàn thiết kế AI” vào thứ ba, kết hợp với cuộc triển lãm thương mại lớn hàng năm của ngành công nghiệp chip tên Semicon West.

Các bài diễn thuyết và thảo luận có cả thông tin tốt và xấu. Tin tốt là rất nhiều công cụ cần được loại bỏ của các công ty như Advanced Micro Devices và Xilinx được dùng để sắp xếp các con chip “không đồng nhất”, đáp ứng được nhu cầu của học sâu. Tin xấu là họ không chắc những gì họ làm sẽ giảm thiểu sự cạn kiệt tiềm năng của trung tâm dữ liệu dưới gánh nặng về nhu cầu điện toán.

Không có con chip mới nào được triển lãm tại Semicon, những loại mới này đã được chuyển sang các triển lãm và hội nghị thương mại khác. Nhưng cuộc thảo luận tại diễn đàn AI đã đưa ra cách mà ngành công nghiệp con chip nghĩ gì về sự bùng nổ của học máy và ý nghĩa của nó đối với máy tính.

Gary Dickerson, giám đốc của Applied Materials, bắt đầu bài nói chuyện bằng việc lưu ý đến “sự chậm lại của Luật Moore”, trích dẫn dữ liệu từ giáo sư David Patterson của UC Berkeley và chủ tịch John Hennessy của Alphabet, để chỉ ra rằng các bộ xử lý mới đang cải thiện hiệu suất chỉ 3.5% mỗi năm (Con số hơi lỗi thời, bài luận của Patterson và Hennessy vào tháng 2 đã chỉ ra sự cải thiện bị chậm lại 3% mỗi năm).

Dickerson tiếp tục nói rằng khối lượng công việc AI trong các trung tâm dữ liệu trên toàn thế giới có thể chiếm tới 80% tổng chu kì tính toán và sử dụng 10% khối lượng điện toàn cầu trong thập kỉ tới.

“Điều đó có nghĩa là ngành công nghiệp cần tìm kiếm các giải pháp, bao gồm “kiến trúc sư mới” cho thiết kế con chip và các loại thẻ nhớ mới”, Dickerson nói. Ông ta đã chỉ ra vài loại bộ nhớ, bao gồm “MRAM”, “ReRAM” (RAM điện trở), “PCRAM” (RAM thay đổi pha) và “FeRAM”. Ngành công nghiệp cũng sẽ phải khám phá các thiết kế con chip tương tự, các con chip xử lý dữ liệu dưới dạng tín hiệu liên tục, có dấu hiệu giá trị thực tiễn các đơn vị riêng biệt và các loại vật liệu mới ngoài silicon.

Cả giám đốc Lisa Su của công ty Advanced Micro Devices và CEO Victor Peng của Xilinx đều đóng vai trò tương ứng trong việc tạo ra các loại điện toán không đồng bộ.

Su đã nói về chip máy chủ Epyc của công ty đang giải quyết vấn đề “thắt cổ chai” của Luật Moore bằng cách tập trung nhiều khối silicon, gọi là “chiplet”, vào một gói duy nhất, với bộ nhớ bus tốc độ cao kết nối với chiplet để tạo nên một loại chip có hệ thống máy tính của riêng nó.

Peng kiểm tra lại các nhận xét từ nhà đầu tư của công ty ở New York và nói rằng các chip lập trình của Xilinx “FPGA” có thể xử lý không chỉ các phép nhân ma trận của AI mà còn cả phần mềm truyền thống diễn ra trước và sau các hoạt động của học máy.

Kĩ sư bậc cao của Google, Cliff Young, đi vào chi tiết của chip Tensor Processing Unit (TPU) mà Google phát triển từ năm 2013. Các nỗ lực đã được thúc đẩy, ông ta nói. Công ty nhận thấy với ngày càng nhiều các dịch vụ học máy chạy trên Google, “phép nhân ma trận sẽ trở thành phần đáng chú ý của chu kì” trong các trung tâm dữ liệu Google. “Nếu như mọi người nói chuyện điện thoại trong 2 phút mỗi ngày, hoặc muốn xem video 2 phút mỗi ngày”, hãy sử dụng học máy, ông nói. “Chúng tôi không có đủ máy tính”.

Nói về sự bùng nổ các nhu cầu về các dịch vụ AI, ông nói “có sự tiềm ẩn của thành công và thảm họa. Chúng tôi đã bắt đầu một dự án trong 15 tháng và thất bại để đạt được sự cải thiện hiệu quả gấp 10 lần của tia X”.

Dù hiện đang là lần lặp lại thứ 3 của TPU, Young ngụ ý rằng cuộc khủng hoảng vẫn chưa kết thúc. Nhu cầu tính toán đang tăng “theo khối”, ông nói về phép nhân ma trận. Google có toàn bộ các tòa nhà kho chứa đầy “pod” và TPU. Tuy nhiên, thế vẫn là chưa đủ. “Ngay cả Google cũng sẽ đạt tới giới hạn mở rộng các trung tâm dữ liệu”.

Hay nói cách khác, đây là nút cổ chai “nhà kho”.

Young cho rằng sẽ phải có nhiều sự hợp tác giữa các nhà thiết kế phần cứng và lập trình viên phần mềm. Cái mà ông ta gọi là “đồng thiết kế” cũng là đồng thiết kế với các nhà vật lý vật liệu.

“Khi bạn đồng thiết kế, đó là công việc liên ngành và bạn là người mới trong một lĩnh vực mới”, anh nói. “Chúng ta phải ra khỏi vùng an toàn của mình”.

“Chúng ta có thể sử dụng máy thu phát quang học” để điều khiển mạng lưới thần kinh không? Ông phân vân. Tính toán quang học là “phép nhân ma trận tuyệt vời” nhưng nó không tuyệt vời khi là một phần quan trọng của mạng thần kinh, đây là chức năng kích hoạt phi tuyến của mỗi nơron nhân tạo.

“Đóng gói là một việc. Chúng ta có thể làm gì nhiều hơn với đóng gói và chiplet?”, ông ta hỏi. Ngành công nghiệp cần thay thế cho CMOS, vật liệu silicon cơ bản của chip, ông nói. Điện toán trong bộ nhớ cũng rất quan trọng. Có các tính toán gần với các ô nhớ hơn là di chuyển ra sau và tiến lên phía trước, đến bộ nhớ và từ đó đến bộ xử lý rồi quay lại dọc theo bộ nhớ bus thông thường.

Young cho rằng học máy có thể mở ra cơ hội mới cho điện toán. “Thật kì lạ khi chúng ta có lớp kĩ thuật số giữa các mạng thần kinh được đánh số thực và các thiết bị tương tự phía dưới”, vẽ ra một kết nối giữa thống kê và chỉ báo tự nhiên của cả AI và silicon. “Có lẽ chúng ta không cần phải quay lại thời kì của các bit”, Young trầm tư.

Đưa ra tất cả các thử thách, đây là thời điểm tốt để hướng dẫn.

Người đứng đầu công nghệ xử lý tại công ty chip không dây khổng lồ Qualcomm, PR “Chidi” Chidambaram nói ngay sau bài phát biểu của Young. Qualcomm tuyên bố sẽ sản xuất chip trong năm nay để làm điện toán AI trên đám mây, nhưng Chidambaram tập trung vào giai đoạn “suy luận” của học máy, đưa ra dự đoán và các thiết bị “bên rìa” như điện thoại di động. Ông cũng giống Dickerson, nhấn mạnh tầm quan trọng của bộ nhớ và nói rằng cái mà ông coi là “CIM” hay tính toán trong bộ nhớ “sẽ thực hiện tính toán rất gần với những nơi có dữ liệu” và nó sẽ tạo thành một “sự thay đổi trong mô hình tính toán”.

Cuối ngày là cuộc thảo luận với 5 nhà đầu tư mạo hiểm về chủ đề làm thế nào để tài trợ cho các công ty mới trong lĩnh vực như AI. Người điều hành cuộc thảo luận là tác giả bài báo này.

Thành viên tham gia hội thảo gồm Shahin Farshchi, quản lý đối tác của Lux Capital; Laura Oliphant, đối tác chung của Spirit Ventures; Aymerik Reynard, đối tác của Hardware Club; Rajesh Swaminathan, quản lý của Applied Ventures, chi nhánh đầu tư mạo hiểm của Applied Materials; và Jennifer Ard, giám đốc đầu tư của chi nhánh Intel, Intel Capital. Mở đầu buổi thảo luận, tôi đã hỏi các thành viên liệu Luật Moore có bị hủy bỏ hay không. Dù mỗi thành viên không chắc chắn và mất thời gian suy nghĩ một lúc, khi bị thúc ép trả lời, 4 trong 5 số họ nói “có”. Luật Moore sẽ bị hủy bỏ. Farshchi, người trả lời cuối cùng nói “không”. Anh ta giải thích rằng luật Moore có thể không còn dự đoán sự phát triển của chất bán dẫn về mặt vật lý trong sự cải tiến của bóng bán dẫn, thì toàn bộ hệ sinh thái điện cuối cùng cũng có sự tăng trưởng trong hiệu suất tính toán.

Theo một nghĩa nào đó, điều này phù hợp với phần lớn những gì đã nói trong ngày, dù có chính xác hay không. Sẽ mất cả một ngành công nghiệp để điều chỉnh đáp ứng nhu cầu của AI.

Hoài Thương