من يملك الحقيقة؟ كيف يصنع الذكاء الاصطناعي الرأي العام على وسائل التواصل
| الخوارزميات وصناعة الحقيقة في العصر الرقمي |
![]() |
| من يملك الحقيقة؟ كيف يصنع الذكاء الاصطناعي الرأي العام على وسائل التواصل |
في الماضي، كانت الحقيقة تُصاغ في الصحف وغرف التحرير، وتخضع لقواعد مهنية وأخلاقية محددة. أما اليوم، فإن الحقيقة تُصنع في خوادم الذكاء الاصطناعي وخوارزميات التوصية، التي تقرر ما الذي يجب أن نراه، وما الذي يجب أن يُدفن في أعماق النسيان الرقمي. لم تعد الحقيقة مطلقة، بل أصبحت متغيرة حسب المنصة والمستخدم، وكأن كل واحدٍ منا يعيش في عالمٍ موازٍ من الحقائق الشخصية.
الخوارزميات كمحررٍ جديد للأخبار
لم تعد المؤسسات الإعلامية وحدها من يصوغ الخطاب العام. اليوم، تقوم خوارزميات الذكاء الاصطناعي في منصات مثل X (تويتر سابقًا)، وفيسبوك، ويوتيوب بدور المحرر الرقمي، إذ تختار ما يجب أن يظهر للمستخدم أولًا، وما الذي يستحق أن ينتشر أو يُهمَّش.
يتم ذلك بناءً على معايير رياضية: معدل التفاعل، مدة المشاهدة، احتمالية المشاركة، وغيرها من مؤشرات الأداء التي لا تعترف بالصدق أو القيمة الأخلاقية. النتيجة؟ خوارزميات لا تبحث عن الحقيقة، بل عن الاهتمام.
وهنا تبدأ المعضلة: عندما يصبح "الأكثر تفاعلًا" هو ما يُعتبر "الأكثر صدقًا"، نكون قد استبدلنا الصحافة بالتحليل الرقمي، والوعي الجمعي بخريطة بيانات.
فقاعات الرأي: كيف نحيا داخل حقائقنا الخاصة
يعمل الذكاء الاصطناعي على تخصيص المحتوى لكل مستخدم، بحيث يرى فقط ما يتوافق مع اهتماماته ومعتقداته. هذه الظاهرة المعروفة باسم فقاعة الترشيح (Filter Bubble) تجعلنا نعيش داخل غرف صدى رقمية لا نسمع فيها سوى ما نحب سماعه.
دراسة صادرة عن Stanford Media Lab عام 2024 كشفت أن أكثر من 70٪ من المستخدمين يتلقون أخبارهم من مصادر متوافقة مع آرائهم السابقة. هذا يعني أن الخوارزميات لا توسّع آفاقنا، بل تعزز تحيزاتنا.
وهكذا، يتحول الرأي العام من ساحة نقاش مفتوحة إلى جزر رقمية منعزلة، كل منها يعتقد أنه يملك الحقيقة المطلقة.
الذكاء الاصطناعي والدعاية الحديثة
لم تعد الدعاية تحتاج إلى بروباغندا تقليدية أو خطابات مباشرة. اليوم، يكفي أن تضبط الخوارزمية لتُضخِّم محتوى معينًا أو تُقلل من ظهور آخر. من خلال تحليل التفاعل والمزاج العام، تستطيع أنظمة الذكاء الاصطناعي التنبؤ بكيفية استجابة الجمهور لأي موضوع، ثم تُعدّل من توصياتها تبعًا لذلك.
في عام 2025، نشر معهد أكسفورد للإنترنت تقريرًا مفصلًا حول استخدام الذكاء الاصطناعي في إدارة "الرأي العام الموجّه"، مؤكدًا أن أكثر من 30 دولة تستخدم هذه الأدوات لتشكيل المواقف السياسية والاجتماعية عبر شبكات التواصل.
المخيف أن هذه العمليات تجري بهدوء تام. المستخدم يظن أنه يختار بحرية، بينما الحقيقة أن الخوارزميات هي من اختارت له مسبقًا ما يراه وما يعتقده.
كيف يعيد الذكاء الاصطناعي تعريف مفهوم الحقيقة؟
الذكاء الاصطناعي لا يفرّق بين الصدق والكذب، بل بين "ما يُشارك" و"ما لا يُشارك". إذا كان المحتوى جذابًا بما يكفي، فسيُعرض بغض النظر عن دقته. ومن هنا، تراجعت قيمة المعلومة أمام جاذبية التفاعل.
على سبيل المثال، في قضية انتشار الأخبار الكاذبة حول اللقاحات خلال جائحة كورونا، لعبت خوارزميات التوصية دورًا رئيسيًا في تضخيم المعلومات المضللة لأنها كانت تحصد نسب مشاهدة أكبر من المقالات العلمية الدقيقة.
إذن، الخطر لا يكمن في وجود الكذب، بل في أن المنظومة التقنية نفسها تفضل الكذب المثير على الحقيقة المملة.
صناعة الانقسام: عندما تصبح الخوارزميات سلاحًا سياسيًا
في عالم السياسة، أصبح الذكاء الاصطناعي أداةً فعالة لإثارة الانقسام. تُنشئ الجيوش الإلكترونية حسابات مزيفة تُدار بخوارزميات توليد نصوص، تُثير الجدل، وتغذي الكراهية والانقسام. هذه الحسابات قادرة على توليد آلاف المنشورات في دقائق، وكلها مصممة لتحريك العواطف لا لإقناع بالعقل.
تقرير صادر عن Reuters Institute في 2025 أشار إلى أن 22% من الحملات السياسية على وسائل التواصل تضمنت محتوى مُنشأ بالذكاء الاصطناعي، سواء في الصور أو الفيديو أو النصوص.
النتيجة: بيئة إعلامية لا يمكن الوثوق بها، وحقيقة رقمية مصنوعة في المختبر.
التأثير النفسي للمعلومات المصطنعة
لا يقتصر تأثير الذكاء الاصطناعي على ما نقرأ، بل يمتد إلى ما نشعر به. عندما يتعرض المستخدم بشكل متكرر لمحتوى موجه عاطفيًا، يبدأ تدريجيًا بتبني المواقف ذاتها دون وعي. هذه الظاهرة تُعرف باسم "التأطير العاطفي"، حيث يتم التحكم بمزاج المستخدم العام عبر ما يظهر أمامه.
بحسب دراسة Digital Psychology Journal لعام 2025، فإن التعرض المتكرر للمحتوى السلبي يولد حالة "الاحتقان الرقمي"، أي شعور دائم بالغضب أو الخوف حتى دون سبب مباشر. هذه الحالة تؤثر على السلوك الانتخابي، والقرارات الشرائية، وحتى العلاقات الاجتماعية.
هل ما زال يمكننا الوثوق بالمحتوى الذي نراه؟
في عصر "الديب فيك" (Deepfake) والفيديوهات المزيفة الواقعية، بات من الصعب تمييز الحقيقي من المصطنع. حتى الصور التي نراها على الأخبار قد تكون من إنتاج الذكاء الاصطناعي، مما يجعل الثقة بالعين نفسها أمرًا نسبيًا.
وفي ظل غياب معايير شفافية إلزامية، يظل المستخدم رهينة خوارزميات لا تشرح كيف ولماذا اختارت له هذا المحتوى بالذات. الحقيقة لم تعد تُقدَّم، بل تُصمَّم.
ما الحل؟ وعي رقمي لا خوارزميات جديدة
لن تُنقذنا الخوارزميات من الخوارزميات، بل الوعي. الحل يبدأ من التربية الإعلامية، من تعليم الأجيال القادمة كيف تميز بين المحتوى الموجّه والمحتوى الحقيقي. على المدارس والجامعات إدخال مادة "التحقق الرقمي" كما تُدرَّس الرياضيات واللغة.
كما يجب على الحكومات فرض قوانين تُلزم المنصات بالكشف عن كيفية ترتيب المحتوى، ومنع الخوارزميات من استخدام المشاعر كسلاح للتلاعب.
الأسئلة الشائعة (FAQ)
هل الذكاء الاصطناعي يشكل خطرًا على حرية الرأي؟
نعم، لأنه قد يوجه المحتوى بشكل غير مرئي، مما يجعل المستخدم يعيش داخل فقاعة فكرية محدودة.
كيف يمكن للمستخدم حماية نفسه من التلاعب الخوارزمي؟
من خلال تنويع مصادر المعلومات، ومتابعة منصات مختلفة، وعدم الاعتماد على التوصيات التلقائية فقط.
هل هناك قوانين تنظم استخدام الذكاء الاصطناعي في الإعلام؟
بدأ الاتحاد الأوروبي والولايات المتحدة بوضع تشريعات للشفافية، لكن معظم الدول لا تزال في المراحل الأولى.
هل يمكن للذكاء الاصطناعي أن يكون محايدًا؟
نظريًا نعم، لكن عمليًا لا، لأن أي خوارزمية تعكس تحيزات مبرمجيها والبيانات التي تدربت عليها.
ما مستقبل الحقيقة في عصر الذكاء الاصطناعي؟
ستظل الحقيقة موجودة، لكنها ستحتاج إلى جهد أكبر لاكتشافها، إذ لم تعد تأتي إلينا جاهزة بل مختبئة خلف كود وخوارزمية.
المصادر
- Stanford Media Lab – "Algorithmic Truth and Social Echo Chambers", 2024
- Oxford Internet Institute – "AI-Driven Opinion Management", 2025
- Reuters Institute – "Artificial Narratives in Political Communication", 2025
- Digital Psychology Journal – "Emotional Framing in AI Media", 2025
- MIT Technology Review – "The New Architects of Truth", 2025
