對於標榜可發揮高達180TFLOPS的第二代TPU (Tensor Processing Unit),Google說明此項處理器依然是針對開放學習框架TensorFlow加速為主,因此無法像NVIDIA提出Tesla V100等GPU加速模式可額外支援Caffe、Cognitive Toolkit等學習框架。 分享 facebook 相比第一代TPU僅能針對邏輯推演作加速,Google此次宣布推出的第二代TPU不但大幅提昇運算效能,更增加對應深度學習應用加速設計,配合越來越多人使用的TensorFlow學習框架,將使TPU應用領域變得更加多元,甚至直接挑戰NVIDIA以GPU加速的深度學習應用模式。不過,在Google I/O 2017期間進一步向Google詢問,確認第二代TPU設計依然是以針對開放學習框架TensorFlow加速為主,本身並不像NVIDIA Tesla V100等藉由GPU加速模式可額外支援Caffe、Cognitive Toolkit等學習框架,因此在實際佈署應用彈性可能相對受限。只是從TPU大幅去除非必要元件,僅針對深度學習、邏輯推演加速功能優化,預期仍將使NVIDIA面臨不少競爭壓力。但從NVIDIA為使加速學習效率提昇,在新款加速卡Tesla V100架構設計額外加上對應TensorFlow學習框架的Tensor核心,藉此讓深度學習效率可進一步提昇,顯然也是呼應越來越多藉由TensorFlow學習框架產生的深度學習應用需求,同時更有向Google說明GPU加速仍有較廣泛應用的叫陣意味。而對於開發者需求部分,Google方面則認為無論是什麼樣的加速學習模式都有其優點,例如聚焦在TensorFlow學習框架的深度學習,或許第二代TPU能帶來更好加速學習效率,但若是針對TensorFlow以外學習框架應用,NVIDIA的Tesla V100顯然就有較高使用彈性,因此主要還是看本身設計內容挑選較合適的學習模式。同時在越來越多的選擇之下,對於開發者所能使用資源、帶動市場發展動能都能帶來好處。※相關連結》強化深度學習 Google揭曉第二代TPU、TensorFlow Research Cloud服務Volta顯示架構、導入全新Tensor核心 NVIDIA揭曉全新人工智慧利器Tesla V100觀點/Tesla V100加速卡加入Tensor核心設計,或許同時向Google TPU做「回應」 分享 facebook 分享 facebook 分享 facebook

6032C093ABEE47A1
arrow
arrow

    susanua5up05g 發表在 痞客邦 留言(0) 人氣()