فيديو ستوري

هل يُمكن للذكاء الاصطناعي مواجهة الأخبار الكاذبة؟

فريق التحرير   الأربعاء 09 حزيران 2021

فريق التحرير   الأربعاء 09 حزيران 2021

باسل النيرب | تأكد

بدأ التوسع في كشف الأخبار الكاذبة مع العام 2016، وتمثلت بظهور أربع اتجاهات رئيسية، وهي التحقق من صحة الادعاءات الفردية، كشف المقالات الزائفة، تعقب مثيري التعصب والكراهية، وقياس موثوقية المصادر الإخبارية.

وعبر استغلال العديد من المنصات ومختلف وسائل النشر الرقمية والتقليدية؛ تم التلاعب عاطفياً بالجمهور نتيجة نشر القصص المختلفة، فبرزت المجموعات المناهضة للأخبار الزائفة تقوم باستخدام وسائل الدفاع تتمثل في مراجعة موثوقية المصادر الإخبارية، فهي تقيس عدد حالات التطابق والتضارب في المعلومات التي ثبت صحتها من خلال مقارنة تاريخ النشر وتعتمد على البشر في كثير من أعمالها، وقياس كل من نوع بُنية العنوان، الجُمل داخل الخبر، تنوع الكلمات، مستوى النشاط، الموقع، عدد الزيارات، وتأثير المصدر الإخباري.

هذا التحليل يُمكن القيام به اتجاه خبر أو مجموعة أخبار محددة ذات موضوع محدد وحول قضية محددة بذاتها، ولكن؛ ماذا عن ملايين الأخبار التي تُنشر كل يوم؟ هل يمكن مراقبتها والتدقيق فيها والتحقق من المنشأ والمصداقية من خلال الذكاء الاصطناعي؟

الصورة الأمثل لهذه الحالة نجدها في المنصات الاجتماعية، وصورتها الأبرز نشر تغريدات كثيرة بفواصل زمنية قصيرة، وغالباً لا تتجاوز بيع منتجات، نشر الفيروسات الرقمية، نشر عبارات ذات مدلول سياسي أو كراهية وتعصب، نشر مقاطع إباحية، والرد على مقالات وتصريحات لمسؤولين.

من الناحية النظرية، يُعد التدقيق في الحقائق من صميم هذا العمل؛ ولكن هل سيتم التدقيق في الملايين من النشرات الإخبارية والأخبار العاجلة التي تصل يومياً إلى وكالات الأنباء والصحف ومن ثم تحليل القصص والأخبار التي تحوي حقائق تظهر للمرة الأولى.

تجارب لمواجهة التضليل

التجارب العالمية متعددة، والتجربة الأولي التي أكدتها مختبرات الذكاء الاصطناعي تشير إلى نجاح الخوارزميات في صُنع ونشر وترويج أخبار كاذبة، وقد عمدت تجربة استخدمت بيانات الجمعية العامة للأمم المتحدة إلى توليد نص آلي عندما قام باحثان من "جلوبال بالس" أحد مبادرات الأمم المتحدة باستخدام بيانات مفتوحة المصدر لبناء مولدات خطابات مزيفة ورسم خرائط المخاطر في النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي [1]، فالقدرة على تجميع النصوص تنطوي على العديد من المخاطر المحتملة، بعد أن أصبح الوصول إلى التكنولوجيا المطلوبة لبناء النماذج التوليفية سهلاً مع تزايد تعّلم الآلة، وهذا مؤشر يوضح الخطر من الاستخدام الضار لبرامج إنشاء النصوص وتأثيرها المحتمل.

اقرأ أيضا:

تويتر تضع نظاماً للمخالفات للحد من انتشار المعلومات المضللة

فيسبوك تحذر: إجراءات صارمة ضد الذين ينشرون معلومات مضللة

لا يمكن اتهام أو تبرئة الآلة من التلاعب؛ فالجانب المظلم لهذا التلاعب أنها مارست دوراً محدوداً في دعم الحملات المُحوسبة للسياسيين للتأثير على الناخبين، من خلال استخدام [2] أسراب ضخمة من الروبوتات السياسية في الانتخابات العامة لعام 2017 في المملكة المتحدة لنشر معلومات مضللة وأخبار كاذبة على وسائل التواصل الاجتماعي، وذات الأمر في الانتخابات الرئاسية الفرنسية 2017، مستغلة رسائل البريد الإلكتروني المسربة من فريق حملة المرشح إيمانويل ماكرون في الفيسبوك وتويتر، وكان الهدف بناء سرد مفاده أن ماكرون محتالًا وكاذباً، وذات الأمر حدث خلال الانتخابات الرئاسية الأمريكية 2016، فقد اخترقت الروبوتات المؤيدة لترامب صفحات الفيسبوك التي يستخدمها أنصار هيلاري كلينتون لنشر المحتوى الآلي، وهو أسلوب شائع متكرر تستخدمه الروبوتات لدفع الموضوعات الشائعة والسيطرة على الخلاصات الاجتماعية.

هذه الروبوتات عبارة عن حسابات مستقلة تمت برمجتها لنشر رسائل سياسية ذات اتجاه واحد لتصنع وهم الدعم العام بتكتيك واسع الانتشار لتشكيل الخطاب العام وتشويه التوجهات السياسية ضد أحد المرشحين، ورغم حداثة نشأة هذه الحملات، فلها تأثير كبير جداً، والشكل الأساسي للاستخدام تمثل في دعم شخصيات محددة، دعم نظريات المؤامرة، تعزيز الإعجابات والمتابعات لصالح أشخاص من ذات التوجهات، نشر الكراهية والتلاعب بالتوجهات، نشر البلاغات تحت بند محتوى مزعج مما قيّد الكثير من التوجهات المعارضة لها، وضمن المقالة [3] التي نشرت في نوفمبر 2017 نكتشف ماذا ينتظرنا في المستقبل، وخاصة مع التعلم المتسارع للآلة.

وفي الجانب المشرق من الاستخدام، يُمكن استخدام الذكاء الاصطناعي لتشغيل حملات أفضل بطريقة أخلاقية، فيمكننا برمجة روبوتات سياسية للتدخل عندما يشارك أشخاص مقالات تحتوي على معلومات خاطئة معروفة، فيمكن للخوارزميات إصدار تحذير بأن المعلومات مشبوهة، مما يساعد على فضح الأكاذيب المعروفة.

ويمكننا استخدام الذكاء الاصطناعي للاستماع بشكل أفضل إلى ما يقوله الجمهور، وبناءً على هذه الأفكار يمكننا نشر حملات استهداف صغيرة تساعد على تثقيف الناخبين حول مجموعة متنوعة من القضايا السياسية لمساعدتهم على اتخاذ قرارهم بأنفسهم.

التجربة الثانية تحت مسمى SNAP R، فقد أرسلت إلى منظمة العفو الدولية تغريدات محاكاة التصيد إلى أكثر من 800 مستخدم بمعدل 6.75 تغريدة في الدقيقة، والنتيجة أنها جذبت 275 ضحية، وعلى النقيض من ذلك، فإن كاتب فريق فوربس توماس فوكس بروستر، الذي شارك في التجربة، كان قادرًا فقط على ضخ 1.75 تغريدة في الدقيقة، حيث قام بـ 129 محاولة فقط وجذب 49 مستخدمًا [4]، وقد خلصت الدراسة أن الآلة تفوقت على البشر بصياغة وتوزيع عدد كبير من التغريدات المخادعة.

هل يوجد طريقة لمواجهة التلاعب؟

صحيح أن الشركات الكُبرى تُبدع وتركز جُل جهودها في محاربة محتوى العنف والكراهية والجنس والتحريض وما يخالف سياسية الخصوصية لديها؛ ولكنها أقل قدرة في التعامل مع المحتوى الزائف أو المروج لنظريات المؤامرة، وتعلم الآلة أحد الحلول وهو المستقبل للشركات الضخمة بسبب انتشار تقنيات التلاعب الإعلامي التي فتحت سوقاً لمنع التلاعب والتضليل، فالتعلم الآلي يساعد المنصات الاجتماعية على تحديد القصص المكررة التي تم الكشف عن خداعها من قبل، وكل فعاليات التدقيق في المحتوى تتم من قبل شركاء خارجيين للمنصات الإخبارية "شركات صغيرة ومتوسطة" موجهة بشكل أساسي للحفاظ على الشركات الكبرى حتى لا تقع في فخ الأخبار الزائفة، فأطلقت الفيسبوك أداة "ديب تيسكت" لحذف المنشورات التي تعزز من الكراهية، وجوجل أطلقت "لبيرسبيكتيف"، وتويتر حظرت المنشورات الخطيرة والعنيفة.

صحيح أننا شاهدنا حوارات ما بين بشر وآلة وتقديم أعمال طبية وخدمية وغيرها من قبل روبوتات، ويشير مؤشر الذكاء الاصطناعي عالمياً إلى أن الذكاء الاصطناعي حقق خطوات مذهلة، ولكن الحقيقة لا يوجد جيوش كما درج زملائنا للقول على التلاعب بالرأي العام ومهما كانت الجيوش موجودة فهي لن تكون مؤثرة إلا بوجود إشراف بشري حتى يمكن شحن الآلة فيها وتعليمها كيفية التلاعب بالآخرين وهو ما أشار له باحثون من جامعة ستانفورد [5] "أن أسيادنا الآليين لم يصلوا بعد إلى مستوى ذكاء طفل في الخامسة" فكيف يمكن لهذه الأدوات أن تقود حملات منظمة للتلاعب بالرأي العام، لأن العنصر الأساسي لهذه الآلة هو الإنسان الذي يعلّمها، وهذا ببساطة لأن وجود الآلات في نظام تدقيق الأخبار الكاذبة يتطلب أن نُعلّم هذه الآلات قيم الصدق والحقيقة، وهي تخضع لقرارات البشر، فهل يمكن أن أثق بالذكاء الاصطناعي كثقتي في شخص مدرب على التحقق من الأخبار الكاذبة، فذكاء البشر متفوق على الآلة في هذا الموضوع، ولكن الذي يجب أن يُنظر له من الذي سيعلم الآلة الأخلاق".

الإجراءات الوقائية

لا يمكن إنكار قدرة التكنولوجيا على تزييف جميع أنواع المحتوى باستخدام تقنيات التوليد والتوليف لإنتاج محتوى صادق ظاهرياً؛ ويمكن للذكاء الاصطناعي تحديد الأخبار الزائفة وحجبها قبل انتشارها جماهيراً، ولكن الحديث يتلخص في الدور الذي يلعبه الذكاء الاصطناعي في ظاهرة الأخبار الزائفة مبالغاً فيه، وبإمكان الذكاء الاصطناعي أن يكون عاملاً مساهماً في انتشار الأخبار الزائفة وجزءاً من الحل، فمن حضر العفريت يستطيع أن يصرفه كما يقول المثل العامي المصري.. وذلك يتم من خلال الهجوم المنظم على بيانات التدريب لتغير نتائج الخوارزمية قبل أن تصبح علنية، وفهم اللغة الطبيعية قبل نقلها إلى الآلة فيتم تفكيك المكونات ودلالات الألفاظ، والتحقق من دقة القصة بمقارنتها بالمصادر ذات السمعة الجيدة، والقيام بعمليات التدقيق التحريري واللغوي، ما يجعل من السهل على خوارزميات التحقق من المحتوى، بالإضافة إلى قدرة الخوارزميات على تحديد الصور المُفبركة ضمن القصص الزائفة.

ويُمكن استخدام نماذج الذكاء الاصطناعي التنبؤية لفهم كيفية عمل الجهات الفاعلة عبر الإنترنت لاستهداف نقاط الضعف بمثابة خطوة أولى في التعامل مع المعلومات المضللة، ويمكن أن يكون تطوير هذه الأساليب لكشف التلاعب ومكافحة التضليل على نطاق واسع، وحظر القصص الإخبارية المشكوك فيها حتى يتم التحقق من صحتها ومراجعتها إنسانياً.

ختاماً، الأمر ليس حشوداً بشرية لمراقبة المحتوى والتأكد من صحة كل قصة منشورة، وإن كان جزءاً من الحل؛ ولكن الحل الأمثل في التدريب والتعليم على التربية الإعلامية الرقمية وتعزيز النقد، فمن السهل إلقاء اللوم على تكنولوجيا الذكاء الاصطناعي في أخطاء العالم، ولكن تبقى التكنولوجيا الأساسية للذكاء الاصطناعي ليست ضارة بطبيعتها؛ فاحتمال إساءة استخدام الخوارزميات يزداد كلما ازدادت دقة مخرجاتها وترابطها.

اقرأ أيضا:

تويتر يسمح لمستخدميه بتحديد المحتوى المُضلل

فيسبوك: إيران وروسيا أخطر المصادر لنشر المعلومات المضللة حول العالم

المراجع

مراجع التحقق

المصادر


لقد أدخلنا تغييرات مهمة على سياستنا المتعلقة بالخصوصية وعلى الشروط الخاصة بملفات الارتباط Cookies،
ويهمنا أن تكونوا ملمين بما قد تعني هذه التغييرات بالنسبة لكم ولبياناتكم
سياسة الخصوصية المتعلقة بنا.
اطلع على التغييرات موافق