طبقة (تعلم عميق)

الطبقة[1] في نموذج التعلم العميق هي بنية أو طوبولوجيا شبكة في بنية النموذج، والتي تأخذ المعلومات من الطبقات السابقة ثم تمررها إلى الطبقة التالية.

أنواع الطبقات عدل

النوع الأول من الطبقات هو الطبقة الكثيفة (Dense layer)[2]، وتسمى أيضًا الطبقة المتصلة بالكامل (fully-connected layer)[3][4][5][6] وتستخدم للتمثيلات المجردة لمعطيات الإدخال. في هذه الطبقة، تتصل الخلايا العصبية بكل خلية عصبية في الطبقة السابقة. تُكدس هذه الطبقات في شبكات بيرسيبترون متعددة الطبقات.

تُستخدم الطبقة الترشيحية[7] أو طبقة الطي (Convolutional layer)[8] عادةً لمهام تحليل الصور. في هذه الطبقة، تكتشف الشبكة الحواف والأنسجة والأنماط. يتم بعد ذلك تغذية مخرجات هذه الطبقة إلى طبقة متصلة بالكامل لمزيد من المعالجة. أنظر أيضا: نموذج سي إن إن .

تُستخدم طبقة التجميع[9] (Pooling layer)[10][11] لتقليل حجم المُدخلات.

تُستخدم الطبقة المتكررة أو الطبقة التكرارية[12] (Recurrent Layer) لمعالجة النص باستخدام وظيفة الذاكرة. على غرار الطبقة الترشيحية، عادةً ما تُغذى مخرجات الطبقات المتكررة إلى طبقة متصلة بالكامل لمزيد من المعالجة. أنظر أيضا: نموذج الشبكات العصبية المتكررة.[13][14][15]

تقوم طبقة التسوية (Normalization layer) بضبط بيانات الإخراج من الطبقات السابقة لتحقيق توزيع منتظم. ويؤدي هذا إلى تحسين قابلية التوسع والتدريب النموذجي.

المراجع عدل

  1. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 80، QID:Q111421033
  2. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 63، QID:Q111421033
  3. ^ "CS231n Convolutional Neural Networks for Visual Recognition". CS231n Convolutional Neural Networks for Visual Recognition. 10 مايو 2016. مؤرشف من الأصل في 2023-11-21. اطلع عليه بتاريخ 2021-04-27. Fully-connected layer: Neurons in a fully connected layer have full connections to all activations in the previous layer, as seen in regular Neural Networks.
  4. ^ "Convolutional Neural Network. In this article, we will see what are… - by Arc". Medium. 26 ديسمبر 2018. مؤرشف من الأصل في 2023-06-01. اطلع عليه بتاريخ 2021-04-27. Fully Connected Layer is simply, feed forward neural networks.
  5. ^ "Fully connected layer". MATLAB. 1 مارس 2021. مؤرشف من الأصل في 2023-02-12. اطلع عليه بتاريخ 2021-04-27. A fully connected layer multiplies the input by a weight matrix and then adds a bias vector.
  6. ^ Géron، Aurélien (2019). Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow : concepts, tools, and techniques to build intelligent systems. Sebastopol, CA: O'Reilly Media, Inc. ص. 322–323. ISBN:978-1-4920-3264-9. OCLC:1124925244.
  7. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 54، QID:Q111421033
  8. ^ Habibi، Aghdam, Hamed (30 مايو 2017). Guide to convolutional neural networks : a practical application to traffic-sign detection and classification. Heravi, Elnaz Jahani. Cham, Switzerland. ISBN:9783319575490. OCLC:987790957.{{استشهاد بكتاب}}: صيانة الاستشهاد: أسماء متعددة: قائمة المؤلفين (link) صيانة الاستشهاد: مكان بدون ناشر (link)
  9. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 93، QID:Q111421033
  10. ^ Yamaguchi، Kouichi؛ Sakamoto، Kenji؛ Akabane، Toshio؛ Fujimoto، Yoshiji (نوفمبر 1990). "A Neural Network for Speaker-Independent Isolated Word Recognition". First International Conference on Spoken Language Processing (ICSLP 90). Kobe, Japan. مؤرشف من الأصل في 2023-03-06.
  11. ^ Ciresan، Dan؛ Meier، Ueli؛ Schmidhuber، Jürgen (يونيو 2012). "Multi-column deep neural networks for image classification". 2012 IEEE Conference on Computer Vision and Pattern Recognition. New York, NY: معهد مهندسي الكهرباء والإلكترونيات (IEEE). ص. 3642–3649. arXiv:1202.2745. CiteSeerX:10.1.1.300.3283. DOI:10.1109/CVPR.2012.6248110. ISBN:978-1-4673-1226-4. OCLC:812295155. S2CID:2161592.
  12. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 99، QID:Q111421033
  13. ^ Dupond، Samuel (2019). "A thorough review on the current advance of neural network structures". Annual Reviews in Control. ج. 14: 200–230. مؤرشف من الأصل في 2023-10-15.
  14. ^ Abiodun, Oludare Isaac; Jantan, Aman; Omolara, Abiodun Esther; Dada, Kemi Victoria; Mohamed, Nachaat Abdelatif; Arshad, Humaira (1 Nov 2018). "State-of-the-art in artificial neural network applications: A survey". Heliyon (بالإنجليزية). 4 (11): e00938. Bibcode:2018Heliy...400938A. DOI:10.1016/j.heliyon.2018.e00938. ISSN:2405-8440. PMC:6260436. PMID:30519653.
  15. ^ Tealab, Ahmed (1 Dec 2018). "Time series forecasting using artificial neural networks methodologies: A systematic review". Future Computing and Informatics Journal (بالإنجليزية). 3 (2): 334–340. DOI:10.1016/j.fcij.2018.10.003. ISSN:2314-7288.