Detail publikace
DESCNet: Developing Efficient Scratchpad Memories for Capsule Network Hardware
Capsule neural network, inference accelerator, on-chip memory, optimization
Hluboké neuronové sítě (DNN) patří mezi nejmodernější metody pro pokročilé aplikace strojového učení. Kapsulové sítě (CapsNets), které nedávno navrhl tým Google Brain, zlepšily schopnost zobecnění ve srovnání s DNN díky jejich vícerozměrným kapsulím a zachování prostorového vztahu mezi různými objekty. Mají však výrazně vyšší výpočetní a paměťové požadavky, což činí z jejich energeticky účinné inference náročný úkol. Tento článek poprvé poskytuje detailní analýzu, která se zaměřuje na problematiku v oblasti designu a aplikace pamětí nasazených v hardwarových akcelerátorech provádějících rychlou inferenci CapsNets. Abychom umožnili efektivní návrh, navrhujeme architekturu paměti specifickou pro aplikaci, nazývanou DESCNet, která minimalizuje přístupy do paměti mimo čip a zároveň efektivně přivádí data do akcelerátoru. Analyzujeme odpovídající požadavky na paměť na čipu a navrhujeme metodiku pro prozkoumání různých konfigurací paměti a požadované plochy na čipu a energie. Abychom dále snížili spotřebu energie, využíváme v závislosti na mapované architektuře CapsNet i techniku power-gatingu.
@article{BUT168539,
author="MARCHISIO, A. and MRÁZEK, V. and HANIF, M. and SHAFIQUE, M.",
title="DESCNet: Developing Efficient Scratchpad Memories for Capsule Network Hardware",
journal="IEEE TRANSACTIONS ON COMPUTER-AIDED DESIGN OF INTEGRATED CIRCUITS AND SYSTEMS",
year="2021",
volume="40",
number="9",
pages="1768--1781",
doi="10.1109/TCAD.2020.3030610",
issn="1937-4151",
url="https://ieeexplore.ieee.org/document/9222370"
}