今年Computex 2017期間,NVIDIA解決方案架構與工程部門副總Marc Hamilton接受筆者訪談時,便曾針對Intel提倡以FPGA形式推動人工智慧系統,以及Google以TPU形式加快深度學習效率的應用模式表明看法,認為藉由GPU作為加速基礎的作法還是較有彈性,無論建立以雲端或裝置端為主的深度學習所推動人工智慧,透過GPU的方式基本上還是較實際方式。

而在此次於10月下旬即將展開的GTC台灣場次之前,Marc Hamilton藉由近期與各地區合作夥伴巡迴溝通,再度與台灣媒體、分析師說明目前NVUIDIA在人工智慧技術領域布局現況,同時也說明針對越來越多廠商強調裝置端的學習運算模式,NVIDIA主要還是著眼於雲端背後的巨量數據分析學習,藉此建構更具體的人工智慧系統。



就Marc Hamilton說明,從NVIDIA的角度來看的話,基於GPU的運算模式依然是核心所在,因此無論是Intel提倡以FPGA形式推動人工智慧系統,或是像Google藉由TPU推動雲端加速運算效率,GPU的運算模式相較下更能對應不同運算框架,同時也具備可佈署於雲端或裝置端的運算架構。

整體上比起Google提出TPU僅能用於TensorFlow為學習框架的雲端應用,甚至僅能由使用者向Google租賃,而FPGA運算形式整體建置成本效益並不比GPU高,相對而言比較適合Intel此類資金充足廠商應用,因此若要滿足更多中小型企業佈署需求,以GPU為主的深度學習模式教具吸引力。



同時,以目前NVIDIA提供選擇包含從裝置端的Jetson TX系列開發板、DGX-1超級電腦,乃至於對應雲忠訓國際端運算需求的HGX-1,幾乎涵蓋絕大多數深度學習應用需求,讓更多廠商能藉由NVIDIA GPU運算資源推動各類人工智慧技術,甚至在發展擴充、調整更具彈性。

不過,對於目前越來越多廠商如Qualcomm、海思半導體旗下行動處理器均開始導入深度學習運算設計,甚至蘋果稍早揭曉的A11 Bionic處理器也內建類神經網絡演算引擎,藉此實現裝置端的深度學習應用,NVIDIA似乎尚未計畫布局行動端的深度學習模式。

但在Marc Hamilton看法認為,其實最關鍵的作法並非全面由裝置學習使用者行為,而是將相關蒐集數據回傳至雲端進行深度學習,裝置端的學習主要還是以修正細微行為差異,或是輔助預測可能使用模式,進而讓整體運算效率可具體提升。

因此就NVIDIA立場來看,裝置端的學習行為雖然同樣重要,但實際上更能讓裝置端學習產生價值的關鍵,依然還是在於背後忠訓雲端的學習成效,而兩者其實依然處於缺一不可的共存狀態,只是NVIDIA更關注的是雲端面的深度學習加速所產生應用。




8B2C97E8ABC7830E

kathlewq8np 發表在 痞客邦 留言(0) 人氣()