fpga-systems-magazine

Обзор методов ускорения нейронных сетей от Xilinx

gmlmacrogroup
26.12.2019 09:14
1380
1
5.0
Компания Xilinx опубликовала технический документ «FPGAs in the Emerging DNN Inference Landscape», в котором подробно описала, как создавать более эффективные нейронные сети, увеличить скорость обработки данных и снизить их энергопотребление. В документе описаны такие методы, как квантование (Quantization), прунинг (Pruning) и другие. Также описаны, направления развития ускорителей нейронных сетей.

Компания Xilinx уже не первый год развивает собственную экосистему, которая позволяет использовать её ПЛИС и SoC для ускорения работы нейронных сетей. Это и интеграция поддержки сетей в собственные продукты, и адаптация существующих сетей к имеющимся аппаратным платформам. У Xilinx имеется большой банк библиотек нейронных сетей «Model Zoo», в котором содержатся уже обученные и адаптированные для применения на ПЛИС и SoC сети. Это позволяет существенно упростить развёртывание и применение сетей в самых разных устройствах.
 


 
Но у Xilinx есть решение и для ситуации, когда разработчику нужно загрузить собственную нейронную сеть, которая ещё не приспособлена для использования в устройствах с программируемой логикой. Недавно компания Xilinx опубликовала технический документ «FPGAs in the Emerging DNN Inference Landscape», в котором подробно описала, как создавать более эффективные нейронные сети, увеличить скорость обработки данных и снизить их энергопотребление. В документе описаны такие методы, как квантование (Quantization), прунинг (Pruning) и другие. Также описаны, направления развития ускорителей нейронных сетей.

Документ содержит следующие разделы:
  • Introduction
  • A Quick Introduction to Deep Neural Networks
  • Trends in DNN Models for Inference
  • Methods for Creating More Efficient DNNs
  • Efficient Topologies
  • Pruning
  • Layer Fusion and Decomposition
  • Accuracy-Computation Trade-Offs: Examples from Quantization
  • Trends in Inference Accelerator Architectures
  • The Landscape of Inference Accelerator Architectures
  • FPGA Implementation Advantages for Efficient DNNs
  • Summary
  • References
Более подробно с этим документом можно ознакомиться по ссылке.
1380
1
5.0

Всего комментариев : 1
avatar
1 aavdeev • 21:01, 26.12.2019
И ни слова об ускорении вычисления по функции активации...
avatar

FPGA-Systems – это живое, постоянно обновляемое и растущее сообщество.
Хочешь быть в курсе всех новостей и актуальных событий в области?
Подпишись на рассылку

ePN