دانلود مقاله یادگیری عمیق برای تشخیص اخبار جعلی در توییتر
ترجمه نشده

دانلود مقاله یادگیری عمیق برای تشخیص اخبار جعلی در توییتر

عنوان فارسی مقاله: e17057
عنوان انگلیسی مقاله: Deep learning for fake news detection on Twitter regarding the 2019 Hong Kong protests
مجله/کنفرانس: محاسبات عصبی و برنامه های کاربردی - Neural Computing and Applications
رشته های تحصیلی مرتبط: مهندسی فناوری اطلاعات - مهندسی کامپیوتر
گرایش های تحصیلی مرتبط: اینترنت و شبکه های گسترده - هوش مصنوعی
کلمات کلیدی فارسی: تشخیص اخبار جعلی - پردازش زبان طبیعی - یادگیری عمیق - یادگیری ماشینی - شبکه های عصبی کانولوشنال - حافظه کوتاه مدت - XLM-RoBERTa - توییتر - اعتراضات هنگ کنگ
کلمات کلیدی انگلیسی: Fake news detection - Natural language processing - Deep learning - Machine learning - Convolutional neural networks - Long short-term memory - XLM-RoBERTa - Twitter - Hong Kong protests
نوع نگارش مقاله: مقاله پژوهشی (Research Article)
نمایه: Scopus - Master Journals List - JCR - Master ISC
شناسه دیجیتال (DOI): https://doi.org/10.1007/s00521-021-06230-0
نویسندگان: Alexandros Zervopoulos - Aikaterini Georgia Alvanou - Konstantinos Bezas - Asterios Papamichail - Manolis Maragoudakis - Katia Kermanidis
دانشگاه: Department of Informatics, Ionian University, Greece
صفحات مقاله انگلیسی: 14
ناشر: اسپرینگر - Springer
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2022
ایمپکت فاکتور: 5.599 در سال 2020
شاخص H_index: 94 در سال 2022
شاخص SJR: 1.072 در سال 2020
شناسه ISSN: 0941-0643
شاخص Quartile (چارک): Q1 در سال 2020
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه نشده است
قیمت مقاله انگلیسی: رایگان
آیا این مقاله بیس است: خیر
آیا این مقاله مدل مفهومی دارد: دارد
آیا این مقاله پرسشنامه دارد: ندارد
آیا این مقاله متغیر دارد: ندارد
آیا این مقاله فرضیه دارد: ندارد
کد محصول: e17057
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
نوع رفرنس دهی: vancouver
فهرست مطالب (ترجمه)

چکیده

مقدمه

کار مرتبط

روش شناسی

نتایج

نتیجه گیری

منابع

فهرست مطالب (انگلیسی)

Abstract

Introduction

Related work

Methodology

Results

Conclusions

References

بخشی از مقاله (ترجمه ماشینی)

چکیده

     انتشار اخبار جعلی در پلتفرم‌های رسانه‌های اجتماعی موضوعی قابل توجه است، زیرا می‌توان از آن برای اطلاع‌رسانی نادرست به مردم یا گمراه کردن آنها استفاده کرد، که به ویژه در مورد رویدادهای سیاسی نگران‌کننده است. رویداد اخیر اعتراضات هنگ‌کنگ باعث طغیان پست‌های اخبار جعلی شد که در توییتر شناسایی شدند و سپس به سرعت حذف و در مجموعه‌های داده برای ترویج تحقیقات جمع‌آوری شدند. این مجموعه داده‌ها با تمرکز بر محتوای زبانی در کارهای قبلی برای طبقه‌بندی بین توییت‌هایی که اخبار جعلی و واقعی را با استفاده از الگوریتم‌های یادگیری ماشینی سنتی منتشر می‌کنند، استفاده شده‌اند (زرووپولوس و همکاران، در: کنفرانس بین‌المللی IFIP در مورد کاربردها و نوآوری‌های هوش مصنوعی، Springer، برلین، 2020). در این مقاله، فرآیند آزمایش بر روی مجموعه داده قبلی ساخته شده با استفاده از الگوریتم‌های یادگیری عمیق همراه با مجموعه متنوعی از ویژگی‌های ورودی، از متن خام تا ویژگی‌های دست‌ساز، گسترش می‌یابد. آزمایش‌ها نشان داد که الگوریتم‌های یادگیری عمیق بهتر از رویکردهای سنتی عمل می‌کنند و به امتیازات بالای 99.3٪ امتیاز F1 می‌رسند، با مدل چندزبانه پیشرفته XLM-RoBERTa که با استفاده از متن خام ترجمه‌نشده، بهتر از سایر الگوریتم‌ها عمل می‌کند. ترکیبی از هر دو الگوریتم یادگیری سنتی و عمیق امکان افزایش عملکرد از طریق دومی را فراهم می کند، در حالی که در مورد ساختار توییت از تفسیرپذیری اولی نیز بینشی به دست می آورد.

توجه! این متن ترجمه ماشینی بوده و توسط مترجمین ای ترجمه، ترجمه نشده است.

بخشی از مقاله (انگلیسی)

Abstract

     The dissemination of fake news on social media platforms is an issue of considerable interest, as it can be used to misinform people or lead them astray, which is particularly concerning when it comes to political events. The recent event of Hong Kong protests triggered an outburst of fake news posts that were identified on Twitter, which were then promptly removed and compiled into datasets to promote research. These datasets focusing on linguistic content were used in previous work to classify between tweets spreading fake and real news using traditional machine learning algorithms (Zervopoulos et al., in: IFIP international conference on artificial intelligence applications and innovations, Springer, Berlin, 2020). In this paper, the experimentation process on the previously constructed dataset is extended using deep learning algorithms along with a diverse set of input features, ranging from raw text to handcrafted features. Experiments showed that the deep learning algorithms outperformed the traditional approaches, reaching scores as high as 99.3% F1 Score, with the multilingual state-of-the-art model XLM-RoBERTa outperforming other algorithms using raw untranslated text. The combination of both traditional and deep learning algorithms allows for increased performance through the latter, while also gaining insight regarding tweet structure from the interpretability of the former.

Introduction

     Social media is now an integral part of people’s daily lives, providing their users with direct and borderless communication. At the same time, they are a source of information for current events that take place both domestically and globally. Nevertheless, many times a news item is not cross-referenced before it is disseminated to the public and, as a consequence, its validity is not guaranteed, which may be influenced by conspiracies, political interests and expediencies. Consequently, the phenomenon of spreading false news can be observed intensely and on a daily basis, making it necessary to address it, in order to protect values and ideals.

Conclusions

     The tendency of people to use Internet technologies and, in particular, social media is undeniable. Their increasing popularity and the ever-evolving services and capabilities they offer have reinforced users’ preference for information from posts on social media. This new reality leads to a weakening of traditional measures and practices for the validity of news, which contributes to the spread of fake news. The phenomenon of fake news is heavily observed and has even concerned social media providers themselves, who advise users on ways to evaluate the news veracity.8