تحسين دقة اكتشاف رقم تعريف المركبة باستخدام YOLOv5 ومعادلة الرسم البياني .

محتوى المقالة الرئيسي

حسن صالح القذافي
زاهية شحات خليفة
إبراهيم السنوسي نصر

الملخص

تستعرض هذه الدراسة فعالية تقنيات المعالجة المسبقة المختلفة لنماذج الكشف عن الأجسام، باستخدام مجموعة بيانات تحتوي على 1145 صورة لرقم تعريف المركبات (VIN) من Roboflow. تم تقسيم مجموعة البيانات إلى مجموعات تدريب، تحقق، واختبار، وشملت مجموعة من الظروف مثل الضوضاء، الأمطار، اختلافات الإضاءة، والانعكاسات. تم تقييم أداء النموذج من خلال مقاييس تشمل الدقة، الاسترجاع، الدقة المتوسطة (AP)، الدقة المتوسطة العامة (mAP)، تقليل معدل الأخطاء، والإطارات في الثانية (FPS). حقق النموذج الأساسي، الذي تم تدريبه على مجموعة البيانات الأصلية، دقة قدرها 97.9% واسترجاع قدره 95.7%، مع قيمة mAP@0.5 قدرها 99.1% ولكن قيمة mAP@0.5:0.95 كانت أقل عند 62.3%. أدى تطبيق تقنية التعديل الهيستوجرام (HE) إلى تحسين الاسترجاع ولكن مع تقليل الدقة، حيث بقيت قيم mAP@0.5:0.95 مشابهة بمجموعة البيانات الأصلية. أظهرت تقنية HE+RGB تغييرات طفيفة في الأداء، مع تحسينات غير متسقة في الاسترجاع والدقة، وقدرة عامة أقل. حقق التعديل الهيستوجرام التكيفي (AHE) تحسينًا ملحوظًا في أداء النموذج، حيث وصلت الدقة إلى 98.8% والاسترجاع إلى 99.6%، مع قيم mAP@0.5:0.95 بلغت 74.3% و77.0%. أما تقنية CLAHE فقد تفوقت على جميع التقنيات الأخرى، محققة أعلى دقة (99.4%) واسترجاع (98.6%)، وقيم mAP@0.5:0.95 (75.2% في التدريب، 77.9% في التحقق، و75.2% في الاختبار)، مما يظهر أفضل توازن بين الدقة والقدرة على التعميم مع الحد الأدنى من الأخطاء. بوجه عام، برزت تقنية CLAHE كأكثر تقنيات المعالجة المسبقة فعالية، حيث قدمت أداءً ممتازًا عبر جميع مقاييس التقييم.

تفاصيل المقالة

كيفية الاقتباس
القذافي ح. ص., خليفة ز. ش., & نصر إ. ا. (2024). تحسين دقة اكتشاف رقم تعريف المركبة باستخدام YOLOv5 ومعادلة الرسم البياني . وقائع مؤتمرات جامعة سبها, 3(2), 423–428. https://doi.org/10.51984/sucp.v3i2.3409
القسم
مقالة مؤتمر

المراجع

J. Celko, “Vehicle Identification Number (VIN),” Joe Celko’s Data, Meas. Stand. SQL, pp. 175–178, 2010, doi: 10.1016/B978-0-12-374722-8.00023-2.

V. A. Adibhatla et al., “Applying deep learning to defect detection in printed circuit boards via a newest model of you-only-look-once,” Math. Biosci. Eng. 2021 44411, vol. 18, no. 4, pp. 4411–4428, 2021, doi: 10.3934/MBE.2021223.

J. Chen, K. Jia, W. Chen, Z. Lv, and R. Zhang, “A real-time and high-precision method for small traffic-signs recognition,” Neural Comput. Appl., vol. 34, no. 3, pp. 2233–2245, Feb. 2022, doi: 10.1007/S00521-021-06526-1/METRICS.

Z. Chen, K. Pawar, M. Ekanayake, C. Pain, S. Zhong, and G. F. Egan, “Deep Learning for Image Enhancement and Correction in Magnetic Resonance Imaging—State-of-the-Art and Challenges,” J. Digit. Imaging 2022 361, vol. 36, no. 1, pp. 204–230, Nov. 2022, doi: 10.1007/S10278-022-00721-9.

Y. Jiang, L. Li, J. Zhu, Y. Xue, and H. Ma, “DEANet: Decomposition Enhancement and Adjustment Network for Low-Light Image Enhancement,” Tsinghua Sci. Technol., vol. 28, no. 4, pp. 743–753, Aug. 2023, doi: 10.26599/TST.2022.9010047.

S. Agrawal, R. Panda, P. K. Mishro, and A. Abraham, “A novel joint histogram equalization based image contrast enhancement,” J. King Saud Univ. - Comput. Inf. Sci., vol. 34, no. 4, pp. 1172–1182, Apr. 2022, doi: 10.1016/J.JKSUCI.2019.05.010.

B. S. Rao, “Dynamic Histogram Equalization for contrast enhancement for digital images,” Appl. Soft Comput., vol. 89, p. 106114, Apr. 2020, doi: 10.1016/J.ASOC.2020.106114.

S. Doshvarpassand, X. Wang, and X. Zhao, “Sub-surface metal loss defect detection using cold thermography and dynamic reference reconstruction (DRR),” https://doi.org/10.1177/1475921721999599, vol. 21, no. 2, pp. 354–369, Apr. 2021, doi: 10.1177/1475921721999599.

S. H. Majeed and N. A. M. Isa, “Adaptive Entropy Index Histogram Equalization for Poor Contrast Images,” IEEE Access, vol. 9, pp. 6402–6437, 2021, doi: 10.1109/ACCESS.2020.3048148.

J. Redmon and A. Farhadi, “YOLOv3: An Incremental Improvement,” ArXiv, vol. abs/1804.0, 2018, [Online]. Available: https://api.semanticscholar.org/CorpusID:4714433

J. S. D. R. G. A. F. Redmon, “(YOLO) You Only Look Once: Unified, Real-Time Object Detection,” Cvpr, vol. 2016-Decem, pp. 779–788, Dec. 2016, doi: 10.1109/CVPR.2016.91.

K. He, X. Zhang, S. Ren, and J. Sun, “Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 37, no. 9, pp. 1904–1916, Sep. 2015, doi: 10.1109/TPAMI.2015.2389824.

S. Liu, L. Qi, H. Qin, J. Shi, and J. Jia, “Path Aggregation Network for Instance Segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 8759–8768, Dec. 2018, doi: 10.1109/CVPR.2018.00913.

A. Bochkovskiy, C.-Y. Wang, and H.-Y. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection,” Apr. 2020, Accessed: Jun. 20, 2024. [Online]. Available: https://arxiv.org/abs/2004.10934v1

C.-Y. Wang, H.-Y. M. Liao, Y.-H. Wu, P.-Y. Chen, J.-W. Hsieh, and I.-H. Yeh, “CSPNet: A new backbone that can enhance learning capability of CNN,” in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020, pp. 390–391.

K. Sergeev, “Vin detection Dataset,” Roboflow Universe. Roboflow, Feb. 2023. [Online]. Available: https://universe.roboflow.com/kirill-sergeev/vin-detection

T. Diwan, G. Anirudh, and J. V. Tembhurne, “Object detection using YOLO: challenges, architectural successors, datasets and applications,” Multimed. Tools Appl., vol. 82, no. 6, pp. 9243–9275, Mar. 2023, doi: 10.1007/S11042-022-13644-Y/TABLES/7.

I. Ahmad et al., “Deep Learning Based Detector YOLOv5 for Identifying Insect Pests,” Appl. Sci. 2022, Vol. 12, Page 10167, vol. 12, no. 19, p. 10167, Oct. 2022, doi: 10.3390/APP121910167.

Q. Su, Z. Qin, J. Mu, and H. Wu, “Rapid Detection of QR Code Based on Histogram Equalization-Yolov5,” 2023 7th Int. Conf. Electr. Mech. Comput. Eng. ICEMCE 2023, pp. 843–848, 2023, doi: 10.1109/ICEMCE60359.2023.10490796.