Object structure

Publication Details:

Լույս է տեսնում 1948 թվականից՝ տարին 4 անգամ։

Journal or Publication Title:

ՀՀ ԳԱԱ և ՀՊՃՀ Տեղեկագիր. Տեխնիկական գիտություններ =Proceedings of the NAS RA and SEUA: Technical Sciences

Date of publication:

2023

Volume:

76

Number:

4

ISSN:

0002-306X

Official URL:


Additional Information:

Ավետիսյան Ա. Ա., Аветисян А. А.

Title:

Investgating Power Metrics Of Neural Networks After Pruning, Quantization, DPU Implementation: A Comparative Analysis

Other title:

Նեյրոնային ցանցերի զատումից, քվանտացումից, DPU-ի վրա իրականացումից հետո հզորության անջատման ուսումնասիրում։ համեմատական վերլուծություն ; Исследование показателей потребляемой мощности нейронных сетей после сокращения, квантования и реализации на DPU. Cравнительный анализ

Creator:

Avetisyan, A. A.

Contributor(s):

Պատ․ խմբ․՝ Ա․ Գ․ Նազարով (1957-1964) ; Մ․ Վ․ Կասյան (1964-1988) ; Ռ․ Մ․ Մարտիրոսյան (1989-2017 ) ; Գլխավոր խմբ․՝ Վ․ Շ․ Մելիքյան (2018-)

Subject:

Microelectronics

Uncontrolled Keywords:

FPGA ; quantization ; pruning ; DPU

Coverage:

506-513

Abstract:

The rapid proliferation of deep learning applications in various fields has highlighted the need for efficient neural network implementations, especially on resource-constrained edge devices. In response to this demand, pruning and quantization have emerged as essential techniques to reduce the computational and memory requirements of neural networks. Additionally, the deployment of dedicated hardware, such as Digital Processing Units (DPUs), has gained momentum for accelerating neural network inference. This paper presents a comprehensive comparative analysis of the power metrics of neural networks after pruning and quantization, with a particular focus on their implementation on DPUs. The objective of this research is to investigate the energy efficiency and power consumption of pruned and quantized neural networks when executed on DPU platforms. The trade-offs between model size reduction and inference accuracy, as well as the power efficiency of different DPU architectures are researched. The results reveal insights into the power efficiency of pruned and quantized neural networks on DPU platforms, offering a clear understanding of the benefits and trade-offs associated with these optimization techniques. This research provides a valuable resource for researchers, developers, and practitioners interested in optimizing neural network implementations for power efficiency. The findings contribute to the ongoing effort to make deep learning more accessible and sustainable on edge devices and other power-constrained environments, ultimately enabling a wider range of applications with reduced energy consumption.
Տարբեր ոլորտներում խոր ուսուցման կիրառությունների արագ տարածումը ցույց տվեց նեյրոնային ցանցերի արդյունավետ ներդրման անհրաժեշտությունը, հատկապես ռեսուրսներով սահմանափակ եզրային սարքերում: Ի պատասխան այս պահանջի՝ զատումը և քվանտացումը առաջացել են որպես նեյրոնային ցանցերի հաշվողական և հիշողության պահանջները էականորեն նվազեցնելու եղանակներ: Բացի այդ, մասնագիտացված սարքերի տեղակայումը, որոնցից են թվային մշակման միավորները (DPU), դարձել է նեյրոնային ցանցերի արագագործությունը մեծացնելու կիրառվող եղանակ: Աշխատանքում ներկայացվել է նեյրոնային ցանցերի հզորության չափումների համապարփակ համեմատական վերլուծություն զատումից և քվանտացումից հետո՝ հատուկ ուշադրություն դարձնելով դրանց՝ DPU սարքերի վրա իրականացմանը։ Հետազոտության նպատակն է ուսումնասիրել զատված և քվանտացված նեյրոնային ցանցերի էներգաարդյունավետությունը և հզորության սպառումը DPU հարթակներում գործելու ժամանակ: Ուսումնասիրված են մոդելի չափերի կրճատման և արդյունքի ճշգրտության փոխզիջումները, ինչպես նաև տարբեր DPU ճարտարապետությունների էներգաարդյունավետությունը: Արդյունքները DPU հարթակներում զատված և քվանտացված նեյրոնային ցանցերի էներգաարդյունավետության մասին տեղեկություններ են տրամադրում՝ և տալիս հստակ պատկերացում լավարկման այս մեթոդի առավելությունների և փոխզիջումների մասին: Հետազոտությունը էներգախնայողության համար նեյրոնային ցանցերի ներդրման լավարկմամբ հետաքրքվող հետազոտողների, մշակողների և իրագործողների համար արժեքավոր ռեսուրս է տրամադրում: Գտածոները նպաստում են եզրային սարքերում և էներգիայի սահմանափակումով այլ միջավայրերում խոր ուսուցումն ավելի մատչելի և կայուն դարձնելու շարունակական ջանքերին՝ ի վերջո ապահովելով ցածր էներգասպառմամբ սարքերի ավելի լայն կիրառությունների հնարավորություն:
Быстрое распространение приложений глубокого обучения в различных областях вызывает необходимость эффективных реализаций нейронных сетей, особенно на периферийных устройствах с ограниченными ресурсами. В ответ на этот спрос обрезка и квантование стали важными методами снижения вычислительных требований и требо- ваний к памяти нейронных сетей. Кроме того, развертывание специального оборудо- вания, такого как цифровые процессоры (DPU), набирает обороты для ускорения вы- вода нейронных сетей. Представлен всесторонний сравнительный анализ показателей потреблямой мощности нейронных сетей после обрезки и квантования с особым акцентом на их реализацию на DPU. Целью данного исследования является изучение энергоэффективности и энергопотребления сокращенных и квантованных нейронных сетей при их выполнении на платформах DPU. Исследуются компромиссы между уменьшением размера модели и точностью вывода, а также энергоэффективностью различных архитектур DPU. Результаты дают представление об энергоэффективности сокращенных и квантованных нейронных сетей на платформах DPU, предлагая четкое понимание преимуществ и компромиссов, связанных с этими методами оптимизации. Исследование предоставляет ценный ресурс для исследователей, разработчиков и практиков, заинтересованных в оптимизации реализации нейронных сетей для повышения энергоэффективности. Полученные результаты способствуют постоянным усилиям, направленным на то, чтобы сделать глубокое обучение более доступным и устойчивым на периферийных устройствах и в других средах с ограниченным энергопотреблением, что в конечном итоге позволит использовать более широкий спектр приложений с меньшим потреблением энергии.



Place of publishing:

Երևան

Publisher:

«Պոլիտեխնիկ» տպ.

Type:

Հոդված

Format:

pdf

Call number:

АЖ 413

Digitization:

ՀՀ ԳԱԱ Հիմնարար գիտական գրադարան

Location of original object:

ՀՀ ԳԱԱ Հիմնարար գիտական գրադարան