對于那些希望讓GPU加速的人工智能和數(shù)據(jù)科學(xué)項目更快地啟動和運(yùn)行的企業(yè)來說,生活變得更容易了。
NVIDIA和Red Hat推出了NVIDIA的GPU加速計算平臺和剛剛宣布的Red Hat OpenShift 4的組合,以加速用于AI和數(shù)據(jù)科學(xué)的本地Kubernetes部署。結(jié)果是:Kubernetes的管理任務(wù)過去常常讓IT管理員在一天中的大部分時間內(nèi)完成,現(xiàn)在不到一個小時就可以完成。
更多的GPU加速,更少的部署麻煩
這種合作是在企業(yè)依靠人工智能和數(shù)據(jù)科學(xué)將大量數(shù)據(jù)轉(zhuǎn)化為可操作智能的時候進(jìn)行的。但有意義的人工智能和數(shù)據(jù)分析工作,需要借助GPU計算加速整個企業(yè)IT軟件堆棧。從NVIDIA驅(qū)動程序到容器運(yùn)行時再到應(yīng)用程序框架,每一層軟件都需要優(yōu)化。我們的CUDA并行計算架構(gòu)和CUDA- x加速庫已經(jīng)被超過120萬名開發(fā)人員的社區(qū)所接受,他們可以在從人工智能到高性能計算到VDI的廣泛領(lǐng)域內(nèi)加速應(yīng)用程序。
而且,由于NVIDIA的通用架構(gòu)運(yùn)行在每一臺計算機(jī)設(shè)備上,從筆記本電腦到數(shù)據(jù)中心再到云計算,因此投資于GPU加速應(yīng)用程序很容易證明這一點,而且很有意義。然而,加快人工智能和數(shù)據(jù)科學(xué)的工作量只是第一步。在大規(guī)模、GPU加速的數(shù)據(jù)中心中以正確的方式部署優(yōu)化的軟件堆棧,對于IT組織來說可能是令人沮喪和耗時的。這就是我們與Red Hat合作的地方。
Red Hat Openshift是業(yè)界領(lǐng)先的企業(yè)級Kubernetes平臺。Openshift 4的改進(jìn)使得跨集群部署Kubernetes比以往任何時候都容易。Red Hat對Kubernetes運(yùn)營商的投資,尤其通過自動化許多日常數(shù)據(jù)中心管理和應(yīng)用程序生命周期管理任務(wù),降低了管理復(fù)雜性。
NVIDIA一直在開發(fā)自己的GPU操作程序,以自動化IT管理人員以前通過shell腳本完成的許多工作,比如安裝設(shè)備驅(qū)動程序,確保數(shù)據(jù)中心的所有節(jié)點上都有合適的GPU容器運(yùn)行時,以及監(jiān)控GPU。由于我們在Red Hat上的工作,一旦集群設(shè)置好,只需運(yùn)行GPU操作符就可以向集群中的工作節(jié)點添加必要的依賴項。就是這么簡單。對于一個組織來說,讓它的GPU驅(qū)動的數(shù)據(jù)中心集群使用OpenShift 4運(yùn)行起來,就像使用新的云資源一樣簡單。
原文出自:https://itbrief.com.au/story/nvidia-and-red-hat-work-together-to-accelerate-enterprise-ai
來源:itbrief