Điện toán với hiệu năng cao: Có thực sự cần thiết không?

Anh Học| 09/10/2019 14:34
Theo dõi ICTVietnam trên

Khi chi phí giảm và với nhu cầu ngày càng tăng, điện toán với hiệu năng cao đang thu hút những người áp dụng mới ở tất cả các loại với tất cả kích cỡ. Các tùy chọn mở rộng bao gồm hệ thống HPC dựa trên siêu máy tính, HPC dựa trên cụm và các dịch vụ HPC trên đám mây.

supercomputer / servers / data center / network

Trong thế giới dựa trên dữ liệu ngày nay, điện toán hiệu năng cao (HPC) đang nổi lên như một nền tảng cho các doanh nghiệp muốn đạt được những hiểu biết sâu sắc về các lĩnh vực đa dạng như hệ gen, hóa học điện toán, mô hình rủi ro tài chính và hình ảnh địa chấn. Ban đầu được các nhà khoa học nghiên cứu thực hiện các phép tính toán học phức tạp, HPC hiện đang thu hút sự chú ý của một số lượng lớn hơn các doanh nghiệp trải rộng trên một loạt các lĩnh vực.

"Môi trường phát triển mạnh trong việc thu thập, phân tích và phân phối dữ liệu - và phụ thuộc vào các hệ thống để hỗ trợ quy trình công việc hợp lý với sức mạnh tính toán to lớn – thì rất cần HPC," Dale Brantly, giám đốc kỹ thuật hệ thống tại Panasas, một nhà cung cấp hệ thống lưu trữ dữ liệu HPC.

Mặc dù việc áp dụng bởi các doanh nghiệp vừa và nhỏ vẫn còn tương đối khan hiếm, công nghệ này có tiềm năng lớn đối với những doanh nghiệp sẵn sàng đầu tư vào công nghệ và chuyên môn của nhân viên.

Thông thường, các trường hợp sử dụng HPC được tập trung vào một số loại mô phỏng. Kevin Kissell, giám đốc kỹ thuật của HPC và điện toán lượng tử của CTO tại Google Cloud cho biết: "Việc mô phỏng luồng không khí qua cánh, đốt cháy động cơ, hệ thống thời tiết, phản ứng hạt nhân hoặc định giá danh mục đầu tư". Các trường hợp sử dụng khác nhắm mục tiêu phân tích, chẳng hạn như đo lường ROI, quảng cáo hoặc đánh giá hiệu suất của đơn vị kinh doanh. Các trường hợp sử dụng khác có thể được phân loại thành tịnh tiến hoặc biến đổi. "Giống như dựng phim và quay video", ông nói thêm.

Điện toán hiệu năng cao mà không cần siêu máy tính

Một quan niệm sai lầm của nhiều nhà lãnh đạo doanh nghiệp và CNTT là tất cả các hệ thống HPC đều dựa trên siêu máy tính. Trên thực tế, trong khi các siêu máy tính được sản xuất bởi các công ty như Atos, IBM, HPE/Cray và Fujitsu nằm ở trung tâm của nhiều hệ thống HPC chuyên dụng, một cách tiếp cận được sử dụng rộng rãi hơn là tích hợp nhiều máy tính nhỏ vào một cụm kết nối để cung cấp khả năng cho HPC. Theo sự sắp xếp như vậy, mỗi máy tính trong cụm phục vụ như một nhánh. Mỗi nhánh thường được trang bị nhiều bộ xử lý, được gọi là lõi tính toán, xử lý các tác vụ tính toán. Bộ xử lý, đơn vị xử lý đồ họa (GPU) và tài nguyên bộ nhớ trong mỗi nhánh được kết nối với nhau để tạo ra hệ thống HPC.

Vì chi phí để có được và vận hành một siêu máy tính và phần mềm tùy chỉnh của nó có thể dễ dàng kiếm được hàng triệu đô la, công nghệ này vẫn vượt xa khả năng tài chính của hầu hết các doanh nghiệp. Các HPC kiểu cụm, sử dụng các máy tính được kết nối tương đối rẻ tiền chạy phần mềm sẵn có, thường có giá cả phải chăng hơn để triển khai và vận hành. Tuy nhiên, ngay cả một HPC dựa trên cụm có kích thước khiêm tốn có thể sẽ là một khoản đầu tư đáng kể cho hầu hết các doanh nghiệp, đặc biệt là những doanh nghiệp chỉ có nhu cầu HPC hạn chế.

Tình trạng này hiện đang thay đổi. Các doanh nghiệp đang tìm cách có được quyền truy cập HPC mà không phá vỡ ngân sách CNTT giờ đây có tùy chọn chuyển sang các dịch vụ đám mây công cộng, như Google Cloud, Microsoft Azure, Amazon Web Services (AWS) và IBM Cloud.

"Các dịch vụ này cho phép các doanh nghiệp có quyền truy cập vào khả năng của HPC để phục vụ nhu cầu kinh doanh của họ mà không cần đầu tư nhiều vào cơ sở hạ tầng phần cứng của cụm HPC", Maksym Pavlov, lãnh đạo kỹ thuật .NET tại Ciklum, một công ty kỹ thuật số và dịch vụ kỹ thuật số nói. "Sự xuất hiện của đám mây đã khiến sân chơi san bằng ở một mức độ nhất định giữa các công ty nhỏ và các công ty lớn", David Turek, phó chủ tịch điện toán của IBM cho biết thêm.

Chuyển từ cụm HPC sang đám mây HPC

Đại học Bắc Carolina tại Đồi Chapel (UNC-Chapel Hill) từ lâu đã dựa vào cụm HPC tại chỗ để hỗ trợ các hoạt động nghiên cứu trong nhiều lĩnh vực khoa học, kỹ thuật và y tế. Tuy nhiên, khi nhu cầu điện toán nghiên cứu tiếp tục tăng lên, nhu cầu của người dùng bắt đầu vượt xa khả năng tính toán và năng lực của hệ thống hiện tại. Thay vì mở rộng đầu tư HPC, trường đại học này đã quyết định chuyển sang đám mây để cung cấp cho người dùng môi trường HPC theo yêu cầu.

Cách tiếp cận đã được chứng minh là hiệu quả cả về chi phí và có tính linh hoạt cao. "Với đám mây, chúng tôi có thể cung cấp dịch vụ điện toán cần thiết để thực hiện công việc yêu cầu và tính toán chính xác miễn là các công việc được yêu cầu", Michael Barker, CIO tạm thời của UNC-Chapel Hill nói. "Đó là một cách rất hiệu quả để cung cấp các yêu cầu chạy công việc tính toán."

Việc chuyển sang đám mây là cần thiết và đáng hoan nghênh, Jeff Roach, một cộng tác viên nghiên cứu cao cấp của UNC-Chapel Hill nói. "Chúng tôi có một cụm tại chỗ rất truyền thống," ông nói. Tuy nhiên, theo thời gian, hệ thống đã dần trở nên không theo kịp với số lượng người dùng ngày càng tăng đòi hỏi sức mạnh tính toán hàng đầu và hiệu năng nhanh hơn. "Chúng tôi phát hiện ra rằng cụm tại chỗ của chúng tôi hoạt động thực sự tốt cho những người được thiết kế cho nó, nhưng một số trường hợp cạnh thì không", ông nói.

Với các trường hợp sử dụng đòi hỏi tính toán nhanh trở thành chuẩn mực, UNC-Chapel Hill bắt đầu làm việc với Google Cloud và nhà cung cấp phần mềm mô phỏng và phân tích Techila Technologies để vạch ra hành trình vào HPC trên đám mây. Bước đầu tiên sau khi lập kế hoạch là việc đánh giá khái niệm. Roach nói: "Chúng tôi đã lấy một trong những nhà nghiên cứu trong trường, người đã làm ra rất nhiều bộ nhớ, tính toán tương tác và chúng tôi đã thử làm giảm khối lượng công việc của anh ấy". Kết quả rất thành công, ông nói. "Các nhà nghiên cứu thực sự thích nó; anh ấy đã hoàn thành công việc của mình". Nhiệm vụ tương tự có thể mất tới một tuần để chạy trên cụm HPC tại chỗ của trường đại học. "Anh ấy đã có thể hoàn thành rất nhiều hoạt động chỉ trong vài giờ," Roach nói.

Ở phía bên kia Đại Tây Dương, Đại học York cũng quyết định thực hiện phương pháp HPC dựa trên đám mây. James Chong, thành viên của Hiệp hội Công nghiệp Hoàng gia và là giáo sư tại Khoa Sinh học của Đại học York, lưu ý rằng HPC được sử dụng rộng rãi bởi các giảng viên và sinh viên trong các khoa khoa học như sinh học, vật lý, hóa học và khoa học máy tính, cũng như trong ngôn ngữ học và một số ngành học khác.

Bộ phận của Chong hiện đang sử dụng Google Cloud để phân tích dữ liệu chuỗi DNA. "Cụ thể, nhóm của tôi quan tâm đến các hệ vi sinh vật, các cộng đồng vi sinh vật hỗn hợp có liên quan đến việc chuyển đổi vật liệu thải trong trường hợp của chúng tôi, nước thải, bùn thải thành khí sinh học", ông giải thích. "Chúng tôi sử dụng HPC cho các chuỗi DNA ngắn cưa ghép lại với nhau thành một metagenome và sau đó tách ra bộ gen của các vi khuẩn khác nhau để chúng tôi có thể hiểu cách các sinh vật này phản ứng với những thay đổi trong điều kiện tăng trưởng của chúng."

Giống như các đối tác UNC-Chapel Hill, Chong đánh giá cao sức mạnh và tính linh hoạt mà dịch vụ đám mây HPC có thể cung cấp. "HPC của chúng tôi cần có khả năng đối phó với một loạt các yêu cầu. Một số người dùng muốn có nhiều bộ xử lý, những người khác cần máy có bộ nhớ cao," ông nói. "Là các nhà sinh vật học, một số ứng dụng chúng tôi sử dụng trở thành ràng buộc rất nhanh, vì vậy truy cập đĩa cực nhanh cũng rất hữu ích".

Đám mây HPC mà trường đại học sử dụng cũng có khả năng thích ứng với nhu cầu phát triển. "Một số người trong chúng ta đang bắt đầu sử dụng các kỹ thuật học máy và muốn có thể tận dụng các kiến ​​trúc khác nhau," Chong lưu ý. "Phạm vi người dùng rộng của trường đại học có nghĩa là chúng tôi cũng yêu cầu quyền truy cập vào một loạt các gói khác nhau", ông nói thêm. Giống như hầu hết các HPC trên đám mây, dịch vụ York sử dụng các loại nghiên cứu khác nhau di chuyển giữa các công cụ phần mềm một cách dễ dàng và nhanh chóng, không lãng phí thời gian trong các vấn đề mua lại, triển khai hoặc cấu hình.

HPC với siêu máy tính

Mặc dù các dịch vụ HPC trên đám mây cung cấp một số lợi thế nhất định, nhưng không phải lúc nào nó cũng là lựa chọn hợp lý hoặc hợp lý nhất cho các doanh nghiệp quan tâm đến bảo mật và quyền riêng tư. "Có một sự nhạy cảm lớn về nơi dữ liệu", Turek quan sát. "Đặc biệt là khi bạn nhìn vào các hạn chế GDPR ở châu Âu, ví dụ." (GDPR là Quy định bảo vệ dữ liệu chung, luật riêng tư của Liên minh châu Âu.)

Giải quyết cả quyền riêng tư và nhu cầu về sức mạnh tính toán khổng lồ, Đại học Miami gần đây đã chọn đầu tư vào một hệ thống HPC mới, tại chỗ, siêu máy tính. Quan trọng nhất, trường đại học này tin rằng các dự án nghiên cứu với bộ dữ liệu đa chiều khổng lồ có thể chạy nhanh hơn nhiều trên các siêu máy tính hiệu năng cao được thiết kế đặc biệt.

Tháng 8 năm ngoái, trường đã tiết lộ siêu máy tính IBM Triton mới, dựa trên các máy chủ AC922 của Power Systems. Hơn 2.000 sinh viên và giảng viên đã sử dụng hệ thống này để làm việc cho các dự án như dự báo khí hậu, gen, tin sinh học, thị giác máy tính và công việc AI, theo Nicholas Tsinoremas, giám đốc Trung tâm Khoa học tính toán của Đại học Miami và phó giám đốc dữ liệu và nghiên cứu tính toán.

Việc triển khai, mặc dù thành công, đã gặp phải một số trở ngại ban đầu mà hầu như bất kỳ người áp dụng HPC nào cũng có thể găp phải, bất kể quy mô, lĩnh vực hoặc nhu cầu điện toán của nó. "Các vấn đề nhân viên nghỉ việc luôn là một vấn đề", Tsinoremas nói. Vấn đề đào tạo và đào tạo lại người dùng cũng phải được giải quyết. "Việc tích hợp hệ thống mới với các hệ thống lưu trữ cũ là một thách thức khác", ông lưu ý.

Tất cả những mối quan tâm này nêu bật một thực tế rằng dù một hệ thống HPC dựa trên cơ sở hay trên đám mây, việc áp dụng đòi hỏi rất nhiều kế hoạch và chuẩn bị. "Chuyên môn nội bộ là cần thiết, và tổ chức phải có kế hoạch", Tsinoremas cảnh báo. Hiểu bản chất và yêu cầu của khối lượng công việc cũng rất quan trọng. "Nói cách khác, những người chấp nhận cần phải hiểu những vấn đề mà họ đang cố gắng giải quyết và cách họ mong đợi HPC sẽ giúp giải quyết chúng," ông nói.

Bắt đầu với khối lượng công việc HPC

Một điểm khác là tầm quan trọng của việc lựa chọn các công cụ quản lý tài nguyên phù hợp, cho phép một tổ chức truy cập và tối ưu hóa môi trường HPC. Jérémie Bourdoncle, giám đốc quản lý sản phẩm cao cấp cho biết: "Cho dù bạn đang mua môi trường phần cứng HPC truyền thống, tận dụng HPC trên đám mây hay kết hợp cả hai, việc chọn trình quản lý khối lượng công việc HPC phù hợp cho các loại công việc và yêu cầu thông lượng cho bạn là điều tối quan trọng". tại Altair, nhà cung cấp phần mềm mô phỏng và các công cụ và dịch vụ liên quan đến HPC khác. Một người quản lý khối lượng công việc có thể tự động hóa lập kế hoạch công việc, cũng như các chức năng quản lý, giám sát và báo cáo.

Kissell gợi ý một chiến lược áp dụng tập trung vào kiến ​​thức, sự đơn giản, các lựa chọn và sự thận trọng. "Đó có thể là một hành trình dài, vì vậy hãy lên kế hoạch cho chuyến đi của bạn nhưng hãy cho bản thân cơ hội sửa chữa", ông khuyên. Chọn một trường hợp thử nghiệm đơn giản nhưng mang tính đại diện và bạn có thể xác định rõ kiến ​​thức và hiểu biết sâu sắc từ mô phỏng hoặc phân tích HPC. "Sau đó chọn một danh sách ngắn các gói phần mềm được thiết kế cho các vấn đề của bạn và thử chúng."

Nổi bật Tạp chí Thông tin & Truyền thông
Đừng bỏ lỡ
Điện toán với hiệu năng cao: Có thực sự cần thiết không?
POWERED BY ONECMS - A PRODUCT OF NEKO