Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment

Other Title(s)

تسريع تدريب البيرسبترون متعدد الطبقات باستخدام وحدة المعالجة المركزية متعدد الأقطاب و وحدة المعالجة الرسومية في بيئة ماتلاب

Joint Authors

al-Layla, Nur Muwaffaq
Dawud, Shifa Abd al-Rahman

Source

al-Rafidain Engineering Journal

Issue

Vol. 23, Issue 3 (30 Jun. 2015), pp.1-12, 12 p.

Publisher

University of Mosul College of Engineering

Publication Date

2015-06-30

Country of Publication

Iraq

No. of Pages

12

Main Subjects

Information Technology and Computer Science

Topics

Abstract AR

يستغرق تدريب الشبكات العصبية الاصطناعية زمن كبير خاصة في حالة كون أنماط و بيانات الشبكة كبيرا، في هذا البحث تم تنفيذ تسريع تدريب الشبكات العصبية الاصطناعية عن طريق تنفيذ التدريب المتوازي للشبكة العصبية الاصطناعية باستخدام أما وحدة المعالجة المركزية المتعددة النوى أو وحدة المعالجة الرسومية للأعراض العامة، نفذ التدريب باستخدام خمسة بيانات مختلفة الأحجام و الأعداد على شبكات عصبية اصطناعية مختلفة العناصر، أظهرت النتائج زيادة في سرعة تدريب الشبكات العصبية الاصطناعية و كانت سرعة التدريب للشبكة تزداد بشكل خطي تقريبا مع زيادة عدد النوى لوحدة المعالجة المركزية للشبكات ذات البيانات المتوسطة و الكبيرة أو عند استخدام وحدة المعالجة الرسومية للشبكات العصبية ذات الأنماط و البيانات الكبيرة جدا.

بينما يفضل استخدام وحدة المعالجة المركزية وحيدة النواة مع بيانات تدريب قليلة.

عدد النوى الأمثل أو نوع منصة التوازي يجب أن توظف اعتمادا على كم الحسابات.

Abstract EN

Training of Artificial Neural Networks (ANNs) for large data sets is a time consuming mission.

In this paper, accelerating the training of artificial neural network is achieved by a parallel training using either Multicore Central Processing Unit (CPU) or General Purpose Graphics Processing Unit (GPGPU).

The training is implemented using five datasets with diverse amounts of patterns and with different neural network parameters in Multilayer Perceptron (MLP).

The results show a significant increase in computation speed, which is increased nearly linear with the number of cores in multicore processor for problems with medium and large training datasets.

Also, a considerable speed up is achieved when the GPU is used to train the MLP with the large training datasets.

While a single core processor is a better choice when the data set size is small.

The optimal number of cores or the type of the parallel platform should be employed according to the load of computation.

American Psychological Association (APA)

Dawud, Shifa Abd al-Rahman& al-Layla, Nur Muwaffaq. 2015. Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment. al-Rafidain Engineering Journal،Vol. 23, no. 3, pp.1-12.
https://search.emarefa.net/detail/BIM-579361

Modern Language Association (MLA)

Dawud, Shifa Abd al-Rahman& al-Layla, Nur Muwaffaq. Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment. al-Rafidain Engineering Journal Vol. 23, no. 3 (Jun. 2015), pp.1-12.
https://search.emarefa.net/detail/BIM-579361

American Medical Association (AMA)

Dawud, Shifa Abd al-Rahman& al-Layla, Nur Muwaffaq. Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment. al-Rafidain Engineering Journal. 2015. Vol. 23, no. 3, pp.1-12.
https://search.emarefa.net/detail/BIM-579361

Data Type

Journal Articles

Language

English

Notes

Includes bibliographical references : p. 11-12

Record ID

BIM-579361