Pruning Based Federated Unlearning for Poisoning Attack Recovery. Masters thesis, King Fahd University of Petroleum and Minerals.
|
PDF
KFUPM_Thesis_Maram_alqahtani_g202202240.pdf Restricted to Repository staff only until 25 December 2026. Download (5MB) |
Arabic Abstract
أصبح التعلم الفيدرالي FL من التقنيات الأساسية في التطبيقات التي تتطلب للمحافظه على الخصوصية، إذ يتيح تدريب النماذج بشكل تعاوني عبر أجهزة موزّعة دون الحاجة لمشاركة البيانات لكل جهاز. إلا أنّ الطبيعة اللامركزية لـ FL تجعل منه هدفًا سهلًا لهجمات التسميم ، حيث يمكن للعملاء المخترقين إرسال تحديثات نماذج خبيثة تؤدي إلى إفساد النموذج العالمي المشترك وعلى الرغم من وجود تقنيات دفاعية عديده ، إلا أنها توفر حماية جزئية فقط ولا تمنع الهجوم بالكامل، خاصةً ضد الهجمات المتقدمة أو المستهدفة. وفي حال حدوث التسميم، يبقى استرجاع النموذج العالمي تحديًا قائمًا، إذ إن إعادة التدريب الكامل من الصفر وبالرغم من فعاليته الا انه يُعد مكلفًا جداً من ناحية تكلفة و حِمل الاتصال والحوسبة، ولا يناسب الأجهزة محدودة الموارد.\\توجد دراسات محدودة فقط تناولت التعلّم اللامركزي للنسيان FU كآلية لتعافي وإسترجاع النموذج من الهجمات، إلا أنّ معظمها يعتمد على تخزين تاريخ ضخم للنماذج على مدار عمل النظام بالكامل منذ البداية إلى أن يتم إستكشاف الهجمات، مما يؤدي إلى تكلفة تشغيلية تقارب تكلفة إعادة التدريب. لمعالجة هذه التحديات، تقترح هذه الأطروحة إطارًا مناسباً وفعّالًا لإسترجاع النماذج المسمّمة، يعتمد على دمج FU مع التقليم الهيكلي المنظم. يهدف هذا الدمج إلى إزالة تأثير العملاء الخبيثين مع تقليل التكلفة الحاسوبية وتكلفة الاتصال ومساحة التخزين المرتبطة بعمليات التعافي التقليدية.\\تبدأ المنهجية بتقليص حجم النموذج المشترك باستخدام تقليم مرشّحات هيكلي، مما ينتج نموذجًا أصغر وأكثر كفاءة وأسهل في التخزين والنقل والمعالجة على الأجهزة محدودة القدرات. بعد ذلك، يتم تطبيق خوارزميات FU لإزالة مساهمات العملاء الخبيثين دون الحاجة لإعادة تدريب النموذج بالكامل. وقد شملت الدراسة تقييم ثلاث استراتيجيات للتعافي عبر FU بالإضافة إلى إعادة التدريب التقليدية، وذلك عبر نسب تقليم مختلفة ونوعي هجمات التسميم: الهجمات الخلفية و هجمات .Trim أظهرت النتائج التجريبية أنّ التقليم يحقق فائدة مزدوجة: فهو يقلّص حجم النموذج وعدد العمليات الحاسوبية وتكلفة الاتصال بنسبة تصل إلى 99%، كما يعزّز متانة النموذج عبر إزالة الأوزان من النموذج الحسّاسة للتسميم. وقد حققت نسب التقليم المتوسطة (30–60%) أفضل توازن بين الدقة والكفاءة والاستقرار. كما أظهرت النتائج أنّ دمج التقليم الهيكلي مع FU يوفر آلية تعافٍ عملية وقابلة للتطبيق ، خصوصًا في أنظمة التعلّم الفيدرالي العاملة على أجهزة ذات طاقة محدودة وقدرات اتصال ضعيفة.تؤكد هذه الدراسة أن الجمع بين التقليم المنظم و النسيان اللامركزي يوفّر إطارًا فعالًا وخفيفًا لاسترجاع النماذج المسمّمة، ويُعد خطوة مهمة نحو بناء أنظمة FL أكثر أمانًا وكفاءة في التطبيقات العملية.
English Abstract
Federated Learning (FL) has become a key enabler for privacy-sensitive applications by allowing distributed devices to collaboratively train models without sharing raw data. These devices, ranging from smartphones to wearables and IoT sensors, often operate with limited computational power, memory, and battery capacity. However, the decentralized nature of FL also makes it vulnerable to poisoning attacks, where compromised clients inject malicious updates that corrupt the global model. Existing defences such as robust aggregation, anomaly detection, and server-side verification provide partial protection but cannot fully prevent poisoning, especially under adaptive or targeted attacks. As a result, effective recovery of the global model after an attack has occurred remains an open challenge. While retraining from scratch is the most reliable recovery method, its high computational and communication cost makes it unsuitable for resource-constrained devices in real-world deployments such as Human Activity Recognition(HAR). Only limited prior work has explored federated unlearning (FU) as a recovery mechanism against poisoning attacks, and most existing FU methods rely on storing extensive historical model states, resulting in overhead comparable to retraining. To address these limitations, this research proposes a lightweight and resource-efficient framework that integrates FU with structured model pruning. The goal is to remove the influence of malicious clients while significantly reducing computation, communication, and storage requirements during recovery. The approach begins by applying one-shot structured filter pruning at initialization, compressing the global model into a smaller, more efficient version suitable for constrained devices. Federated unlearning algorithms are then applied to selectively eliminate the contributions of malicious clients without requiring full retraining. A comprehensive evaluation of three unlearning-based recovery strategies, along with standard retraining, was performed across multiple pruning ratios and two poisoning attack types: Backdoor and Trim. Additional model compression techniques were also tested. The experimental results show that structured pruning offers a dual advantage: it reduces model size, FLOPs, and communication cost by up to 99%, and strengthens robustness by removing redundant or attack-sensitive parameters. Moderate pruning ratios (30–60%) consistently achieve the best balance between accuracy, resilience, and efficiency. Overall, the findings demonstrate that integrating structured pruning with federated unlearning offers a practical, scalable, and resource-aware solution for recovering poisoned FL models, particularly in environments where devices have limited energy, storage, and bandwidth.
| Item Type: | Thesis (Masters) |
|---|---|
| Subjects: | Computer |
| Department: | College of Computing and Mathematics > Information and Computer Science |
| Thesis Advisor: |
Muhamad Felemban,
|
| Thesis Committee Members: |
Sajjad Mahmood,
Md Mahfuzur Rahman,
|
| Depositing User: | MARAM ALQAHTANI (g202202240) |
| Date Deposited: | 29 Apr 2026 06:04 |
| Last Modified: | 29 Apr 2026 06:04 |
| URI: | http://eprints.kfupm.edu.sa/id/eprint/144149 |