MULTIMODAL ARABIC SENTIMENT ANALYSIS FOR VIDEO OPINION MINING

MULTIMODAL ARABIC SENTIMENT ANALYSIS FOR VIDEO OPINION MINING. PhD thesis, King Fahd University of Petroleum and Minerals.

[img]
Preview
PDF
final-phd-thesis.pdf

Download (9MB) | Preview

Arabic Abstract

مع تزايد وسائل الإعلام وشبكات التواصل المختلفة أصبح من السهل التعبير عن الآراء والمواقف تجاه موقف أو رأي أو منتج أو منظمة أو غيرها. مما أدى إلى الحاجة الملحة إلى تطوير أنظمة لتحليل المشاعر والتنقيب عن الآراء، وقد أثبتت أهميتها وفعاليتها من خلال انتشار تطبيقاتها في معظم المجالات المختلفة. أُجريت الكثير من الأبحاث في هذا المجال في مختلف اللغات الطبيعية وخاصة الإنجليزية إلا أن الأبحاث التي أجريت على اللغة العربية محدودة ومازالت بحاجة إلى الكثير من الجهد والاهتمام. إن معظم الأبحاث التي أُجريت – حتى الآن – كانت لتطوير أنظمة لتحليل المشاعر والتنقيب عن الآراء في البيانات النصية. لكن مع تزايد انتشار الفيديو للتعبير عن المشاعر والآراء يمكن أن تكون هذه الأنظمة أكثر فعالية وكفاءة عند دمج عدة مصادر مختلفة للمحتوى كالصوت والصورة بالإضافة إلى التحليل النصي. تهدف هذه الأطروحة إلى تقديم منهجية جديدة لتحليل المشاعر والتنقيب عن الآراء متعددة الأنماط (النص والصوت والصورة) باستخدام التقنيات الذكية المتقدمة. وقد تم أولاً الاستفادة من التقنيات والمصادر المتاحة لبناء الأنظمة الفردية لتحليل المشاعر والتنقيب عن الآراء من خلال النص والصوت والصورة. ثم قمنا باختبار دمج هذه الأنظمة الفردية للحصول على نظام متعدد الأنماط. ونظراً لعدم وجود قاعدة بيانات لهذا الغرض في مجال اللغة العربية، تشمل هذه الدراسة بناء قاعدة بيانات لتحليل المشاعر والتنقيب عن الآراء. وتم إجراء العديد من التجارب لاختبار كفاءة وقدرة النظام وتأثيره ومقارنة التقنيات المستخدمة والمقترحة. كما تناولت هذه الدراسة أيضاً التعرف على خصائص المستخدمين وتشمل الجنس والفئة العمرية واللهجة ومن ثمَّ تقييم مدى ارتباطها بتحليل مشاعر المستخدمين. وقد أثبتت التجارب فعالية الطريقة المقترحة.

English Abstract

With the exponential rise of online content and social media such as blogs, twitter and TV talks, analyzing this multimodal content to identify the attitude or opinions of persons on certain topics or products has gained growing importance in a wide variety of applications, ranging from customer service, political and social debates, to cybersecurity. Although a lot of work has been done for many languages to-date, especially English, not much has been done for the Arabic language. Moreover, it is expected that more effective sentiment and opinion analysis systems can be designed when combining different modalities of a person such as textual, audio and visual data. This study aims at exploring new approaches for automating multi-modal sentiment analysis and opinion mining for the Arabic language. We present a framework and develop a prototype that incorporates different modalities. The first multimodal sentiment analysis database for Arabic is built. Several architectures and fusion methods are evaluated and a new methodology is proposed. %This dissertation presents multimodal demographic characteristics to detect gender, age-group, dialect and nationality of user using audio, textual and visual modalities. The existing approaches are based on single modalities such as text, image, speech, or sequence of images (visual) individually. This dissertation presents a new direction of sentiment analysis to detect speakers' gender, age-group and dialects with their sentiments. The experimental results demonstrate that demographic characteristics as features are able to detect sentiment with an accuracy rate of 74.63%. Incorporating demographic features with textual, audio and visual modalities has led to improving the performance in nearly all cases with achieving an accuracy rate of 94.66%. %The research findings and outcomes, including the developed linguistic resources and tools, have been shared with the international research community, both for benchmarking, and further advancing this exciting multi-disciplinary field.

Item Type: Thesis (PhD)
Subjects: Computer
Department: College Of Computer Sciences and Engineering > Information and Computer Science Dept
Committee Advisor: El-Alfy, Prof. El-sayed
Committee Members: Selim, Prof. Shokri and Hussain, Prof. Amir and El-Bassuny, Dr. Tarek and Alshayeb, Prof. Mohammad
Depositing User: AL-AZANI S HUSSEIN MOHAMMED (g201002580)
Date Deposited: 11 Dec 2019 08:26
Last Modified: 31 Dec 2020 08:16
URI: https://eprints.kfupm.edu.sa/id/eprint/141002