Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment

العناوين الأخرى

تسريع تدريب البيرسبترون متعدد الطبقات باستخدام وحدة المعالجة المركزية متعدد الأقطاب و وحدة المعالجة الرسومية في بيئة ماتلاب

المؤلفون المشاركون

al-Layla, Nur Muwaffaq
Dawud, Shifa Abd al-Rahman

المصدر

al-Rafidain Engineering Journal

العدد

المجلد 23، العدد 3 (30 يونيو/حزيران 2015)، ص ص. 1-12، 12ص.

الناشر

جامعة الموصل كلية الهندسة

تاريخ النشر

2015-06-30

دولة النشر

العراق

عدد الصفحات

12

التخصصات الرئيسية

تكنولوجيا المعلومات وعلم الحاسوب

الموضوعات

الملخص AR

يستغرق تدريب الشبكات العصبية الاصطناعية زمن كبير خاصة في حالة كون أنماط و بيانات الشبكة كبيرا، في هذا البحث تم تنفيذ تسريع تدريب الشبكات العصبية الاصطناعية عن طريق تنفيذ التدريب المتوازي للشبكة العصبية الاصطناعية باستخدام أما وحدة المعالجة المركزية المتعددة النوى أو وحدة المعالجة الرسومية للأعراض العامة، نفذ التدريب باستخدام خمسة بيانات مختلفة الأحجام و الأعداد على شبكات عصبية اصطناعية مختلفة العناصر، أظهرت النتائج زيادة في سرعة تدريب الشبكات العصبية الاصطناعية و كانت سرعة التدريب للشبكة تزداد بشكل خطي تقريبا مع زيادة عدد النوى لوحدة المعالجة المركزية للشبكات ذات البيانات المتوسطة و الكبيرة أو عند استخدام وحدة المعالجة الرسومية للشبكات العصبية ذات الأنماط و البيانات الكبيرة جدا.

بينما يفضل استخدام وحدة المعالجة المركزية وحيدة النواة مع بيانات تدريب قليلة.

عدد النوى الأمثل أو نوع منصة التوازي يجب أن توظف اعتمادا على كم الحسابات.

الملخص EN

Training of Artificial Neural Networks (ANNs) for large data sets is a time consuming mission.

In this paper, accelerating the training of artificial neural network is achieved by a parallel training using either Multicore Central Processing Unit (CPU) or General Purpose Graphics Processing Unit (GPGPU).

The training is implemented using five datasets with diverse amounts of patterns and with different neural network parameters in Multilayer Perceptron (MLP).

The results show a significant increase in computation speed, which is increased nearly linear with the number of cores in multicore processor for problems with medium and large training datasets.

Also, a considerable speed up is achieved when the GPU is used to train the MLP with the large training datasets.

While a single core processor is a better choice when the data set size is small.

The optimal number of cores or the type of the parallel platform should be employed according to the load of computation.

نمط استشهاد جمعية علماء النفس الأمريكية (APA)

Dawud, Shifa Abd al-Rahman& al-Layla, Nur Muwaffaq. 2015. Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment. al-Rafidain Engineering Journal،Vol. 23, no. 3, pp.1-12.
https://search.emarefa.net/detail/BIM-579361

نمط استشهاد الجمعية الأمريكية للغات الحديثة (MLA)

Dawud, Shifa Abd al-Rahman& al-Layla, Nur Muwaffaq. Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment. al-Rafidain Engineering Journal Vol. 23, no. 3 (Jun. 2015), pp.1-12.
https://search.emarefa.net/detail/BIM-579361

نمط استشهاد الجمعية الطبية الأمريكية (AMA)

Dawud, Shifa Abd al-Rahman& al-Layla, Nur Muwaffaq. Training acceleration of multi-layer perceptron using multicore CPU and GPU under MATLAB environment. al-Rafidain Engineering Journal. 2015. Vol. 23, no. 3, pp.1-12.
https://search.emarefa.net/detail/BIM-579361

نوع البيانات

مقالات

لغة النص

الإنجليزية

الملاحظات

Includes bibliographical references : p. 11-12

رقم السجل

BIM-579361