IMAGE FORGERY DETECTION USING FEATURE AND DEEP LEARNING BASED APPROACHES

IMAGE FORGERY DETECTION USING FEATURE AND DEEP LEARNING BASED APPROACHES. Masters thesis, King Fahd University of Petroleum and Minerals.

[img] PDF (IMAGE FORGERY DETECTION USING FEATURE AND DEEP LEARNING BASED APPROACHES)
201408760_AtifShah_MS_Thesis.pdf - Submitted Version
Restricted to Repository staff only until 30 January 2021.

Download (8MB)

Arabic Abstract

نظراً ԽԲنتشار الصور الرقمية عبر الشبكة العنكبوتية وتوفر أدوات متقدمة لتعديلها فقد ازدادت خطورة تزييفها مع صعوبة كشف التعديل بالعين المجردة ً لهذا الكم الهائل من الصور. في هذا البحث تم اقتراح وتقييم عدة نماذج بناء على طرق استخՏՄص السمات والتعلم العميق. ففي أԽԲسلوب أԽԲول تم استخՏՄص عدة سمات من خՏՄل تحويل الصور إلى القنوات اللونية YCbCrوتقسيم الصورة إلى مربعات ثم حساب سمات لكل مربع منها ودمجها بطرق مختلفة ومن ثم بناء نماذج للتعرف على الصور المزيفة. وقد استخدمنا عدة مقاييس لتقييم أԽԲداء ومقارنة النماذج المختلفة وذلك من خՏՄل مجموعتين من الصور المتوفرة لتقييم أԽԲداء CASIA v1.0و .CASIA v2.0وقد أظهرت النتائج تفوق طريقة MSLBP-DCTمع مجموعة الصور أԽԲولى CASIA v1.0وتفوق طريقة MSLPQمع مجموعة الصور الثانية ،CASIA v2.0وقد حققتا معدل تعرف % 97.33تقريباً ٕ . وقد قمنا باجراء تحليل إحصائي ٔԽԲفضل عشر طرق وأكدت النتائج أن MSLBP-DCTو MSLPQهما أԽԲفضل لكشف التزييف في مجموعتي الصور CASIA v1.0و CASIA v2.0على التوالي عند استخدام قناة لونية واحدة. لكن عند دمج السمات المختلفة من الثՏՄث قنوات لونية ومقارنة أفضل خمس طرق احصائياً في حالتي انتقاء وعدم انتقاء للسمات المميزة كانت النتائج أكثر فعالية حيث حققت طريقة MSLBP-DCTمعدل تعرف في حدود % 98.56مع مجموعة الصور CASIA v1.0وحققت طريقة MSLPQأعلى قلي ًՏՄمن % 97.4مع مجموعة الصور . CASIA v2.0 بالنسبة للتعلم العميق تم استخراج رقع ) (patchesمن الصور وتقسيمها إلى مجموعتين للتدريب والتقييم وتم تصميم شبكة عصبية تՏՄفيفية ) (CNNوكانت أفضل النتائج حوالي % 91لكن يمكن تحقيق أفضل من ذلك عند توفر مجموعة كبيرة من الصور والتدريب لفترات أطول

English Abstract

Image forensics is an active research area due to the large number of shared images online. These images can be easily manipulated with the availability of advanced image editing tools and the changes cannot be captured easily by bare human eyes. In this work, we evaluate and propose different models based on feature extraction and deep learning. In feature-based approaches, various features are extracted by applying various models based on LBP, MSLBP, CSLBP, SLBP, WLD, LPQ, MSLPQ and DCT. First, the image is divided into blocks and a feature vector is created to represent the image in a low dimensional space. SVM is used with different kernels to classify forged and authentic images. Using k-fold cross-validation, we computed several performance measures to evaluate and compare the effectiveness of the investigated models. Two publically available datasets CASIA v1.0 and CASIA v2.0 were used for evaluation. While using a single color channel, we found MSLBP-DCT outperformed the other methods on CASIA v1.0 whereas MPLPQ was the best on CASIA v2.0, with about 97.3% accuracy. We conducted statistical analysis for the top ten models and the results confirmed that MSLBP-DCT and MSLPQ are the best for CASIA v1.0 and CASIA v2.0, respectively. We also compared the top five methods, based on statistical analysis, on combined features from the three color channels Y, Cb and Cr with and without feature reduction using PCA and LLP. MSLPQ-DCT achieved better accuracy of 98.56% on CASIA v1.0 and MSLPQ achieved a slightly higher accuracy of 97.4% compared to a single color channel. For the deep learning approach, patches are generated and classified as authentic or forged using a Convolutional Neural Network (CNN) model. A ten layers CNN model is trained and achieved 91% accuracy

Item Type: Thesis (Masters)
Subjects: Computer
Department: College of Computing and Mathematics > Information and Computer Science
Committee Advisor: M. El-Alfy, El-Sayed
Committee Members: Adem Mohammed, Salahadin and Wasfi Ghassan, Wasfi Al-Khatib
Depositing User: ATIF SHAH (g201408760)
Date Deposited: 13 Mar 2019 13:08
Last Modified: 01 Nov 2019 17:44
URI: http://eprints.kfupm.edu.sa/id/eprint/140911