Neurális háló architektúrára optimalizálható hardveres gyorsító tervezése

2024-2025 ősz

Nincs megadva

Téma leírása

A gépi tanulás (Machine Learning) alkalmazásoknak két fő életciklusa van: a tanulási fázis, mely során a neurális hálózatot egy adott feladat megoldására optimalizáljuk, hangoljuk, illetve az inferencia, amikor a betanult hálót a probléma megoldására felhasználjuk. A gépi tanulás tipikusan nagy számítási teljesítménnyel rendelkező, videókártyákkal felszerelt számítógépeken történik, míg az inferenciára bizonyos esetekben alacsony fogyasztású, olcsó, kis számításteljesítményű beágyazott rendszereken kerül sor. Ezek a rendszerek jellemzően speciális neurális háló gyorsító modulokkal vannak felszerelve.

Különböző gyorsítók különböző hardverarchitektúrával, ezáltal pedig különböző karakterisztikákkal és teljesítménnyel rendelkeznek. A neurális hálózat bizonyos rétegjeit, részműveleteit különböző hatékonysággal képesek végrehajtani, ezáltal különböző hálózati architektúrákra más-más végrehajtó egység lehet az ideális választás.

Beágyazott eszközökön inferáló neurális hálók tervezésekor figyelembe kell venni a hardver adottságait, annak érdekében, hogy minél optimálisabb inferencia-időt érhessünk el (pl. konvoluciónál: optimális kernel méret, optimális csatornaszám). A feladat olyan FPGA-n futó inferencia gyorsító hardver tervezése, mely szintézis során felhasznált paraméterek segítségével adott neurális háló specifikusan optimalizálható.

A feladat megoldásához a hallgató a Continental AI Development Center munkatársaitól kap segítséget.

Ha érdeklődsz a téma iránt, akkor jelentkezés előtt mindenképpen vedd fel a kapcsolatot Sik Dáviddal emailben, téma, képzési szint, szak és a tervezett projekttárgy feltüntetésével.


Külső partner: Continental Autonomous Mobility Hungary

Maximális létszám: 1 fő