Lightweight and Efficient Automated Vision-based Weed Detection for Smart Precision Agriculture. Masters thesis, King Fahd University of Petroleum and Minerals.
![]() |
PDF (Master's Thesis Draft)
Omar_Hesham_Khater_Thesis.pdf - Other Restricted to Repository staff only until 25 June 2026. Download (25MB) |
Arabic Abstract
في الآونة الأخيرة، أصبحت الزراعة الذكية والدقيقة والمستدامة ضرورية لضمان الأمن الغذائي العالمي. وتُعدّ مشكلة نمو الأعشاب الضارة من أبرز التحديات التي تواجه الزراعة الدقيقة، حيث تتنافس الأعشاب مع المحاصيل على الموارد الأساسية مثل المياه، والعناصر الغذائية في التربة، وضوء الشمس، مما يؤثر بشكل ملحوظ على إنتاجية المحاصيل. في السابق، كانت تُستخدم مبيدات الأعشاب الكيميائية لمكافحة هذه المشكلة. أما الآن، فإن دمج تقنيات الرؤية الحاسوبية في الزراعة الدقيقة يوفر حلولاً مبتكرة وفعّالة من حيث التكلفة لاكتشاف الأعشاب الضارة، من خلال استخدام نماذج تعتمد على الرؤية في الطائرات المسيّرة أو الروبوتات الحقلية لالتقاط وتحليل الصور عالية الدقة، مما يقلل من استخدام المبيدات ويُحسِّن الكفاءة. ومع ذلك، لا تزال النماذج الحديثة المتقدمة تواجه بعض التحديات في تطبيقات الزمن الحقيقي، والتي تشمل متطلبات حسابية عالية وحجمًا كبيرًا، مما يجعلها غير مناسبة للاستخدام على الأجهزة الطرفية مثل الطائرات بدون طيار. تهدف دراستنا إلى تطوير نموذج فعال يعتمد على الرؤية، ومحسّن لمهام اكتشاف الأعشاب الضارة، وقابل للتنفيذ على أجهزة ذات موارد محدودة. ولتحقيق ذلك، استخدمنا وحدات انتباه خالية من المعلمات. كما بحثنا في فعالية تقنيات الضغط مثل تقليم القنوات (channel pruning) والتكميم (quantization) لتقليل تعقيد النموذج مع الحفاظ على أداء عالٍ وزيادة سرعة الاستدلال. تم إجراء التجارب على مجموعتي بيانات: CottonWeedDet12 وAerial Soybeans لمحاكاة سيناريو واقعي يتضمن استخدام الطائرات المسيّرة أو الروبوتات الحقلية. في هذا العمل، نقدّم نموذجًا مبتكرًا يُدعى EcoWeedNet، ويتميز بوحدات انتباه خالية من المعلمات، وهي SimAM وSPAB، والتي تُحسِّن بشكل كبير من تجريد السمات ودقة التصنيف دون تحميل عبء حسابي كبير. لقد تفوقنا بشكل كبير على النماذج المضغوطة المتقدمة مثل YOLO11n وYOLO12n. ففي مجموعة بيانات CottonWeedDet12، حقق نموذج EcoWeedNet متوسط دقة (mAP50) ممتاز بلغ 95.2%، متفوقًا بشكل واضح على نماذج YOLO11n وYOLO12n. وبالمثل، في مجموعة بيانات فول الصويا الجوية، تمكنا من تحقيق أداء محسّن في الكشف بدقة mAP50 بلغت 72.5%. بالإضافة إلى ذلك، أدى الدمج بين تقليم القنوات والتكميم إلى زيادة ملحوظة في كفاءة الاستدلال، حيث وصلت سرعة الاستدلال إلى 195 FPS مع تراجع طفيف في الدقة. تُبرز هذه النتائج فعالية وقوة نموذج EcoWeedNet في تطبيقات كشف الأعشاب الضارة في الزمن الحقيقي.
English Abstract
Recently, smart and sustainable precision agriculture has become crucial in ensuring global food security. One of the key challenges in precision agriculture is weed growth, as weeds compete with crops for essential resources such as water, soil nutrients, and sunlight, which significantly impacts crop yields. In the past, chemical herbicides were commonly used to address this issue. Today, the integration of automated computer vision technologies into precision agriculture offers innovative and cost-effective solutions for weed detection. By using vision-based models deployed on drones or field robots to capture and analyze high-resolution images, herbicide usage can be minimized while improving operational efficiency. However, current state-of-the-art models still face several challenges when deployed in real-time scenarios. These include high computational requirements and large model sizes, which make them unsuitable for edge devices like drones. This study aims to develop an efficient, vision-based model optimized for weed detection that is suitable for deployment on resource-constrained devices. To this end, we utilized parameter-free attention modules and explored model compression techniques such as channel pruning and quantization. These techniques help reduce the model's complexity while maintaining high accuracy and increasing inference speed. Experiments were conducted using two datasets—CottonWeedDet12 and Aerial Soybeans—to simulate real-world scenarios involving drone or field robot deployment. In this work, we present a novel model named *EcoWeedNet*, which incorporates parameter-free attention modules, namely SimAM and SPAB. These modules significantly enhance feature abstraction and classification accuracy with minimal computational overhead. Our model significantly outperformed state-of-the-art compressed models such as YOLO11n and YOLO12n. On the CottonWeedDet12 dataset, *EcoWeedNet* achieved an impressive mean average precision (mAP50) of 95.2%, clearly surpassing the performance of YOLO11n and YOLO12n. Similarly, for the Aerial Soybeans dataset, our model achieved a detection accuracy of 72.5% mAP50. Additionally, the combination of channel pruning and quantization led to a substantial increase in inference efficiency, achieving speeds up to 195 FPS with only a slight decrease in accuracy. These findings underscore the effectiveness and robustness of *EcoWeedNet* in real-time weed detection applications.
Item Type: | Thesis (Masters) |
---|---|
Subjects: | Computer |
Department: | College of Computing and Mathematics > Computer Engineering |
Committee Advisor: | Siddiqui, Abdul Jabbar |
Committee Members: | El-Maleh, Aiman H. and Ul Hassan Khan Riaz Khan, Ayaz |
Depositing User: | OMAR KHATER (g202313250) |
Date Deposited: | 25 Jun 2025 08:01 |
Last Modified: | 25 Jun 2025 08:01 |
URI: | http://eprints.kfupm.edu.sa/id/eprint/143582 |