من يملك الحقيقة الرقمية؟ الذكاء الاصطناعي كقاضٍ للمحتوى على الإنترنت

 

 

من يملك الحقيقة الرقمية؟ الذكاء الاصطناعي كقاضٍ للمحتوى على الإنترنت




من يملك الحقيقة الرقمية؟ الذكاء الاصطناعي كقاضٍ للمحتوى على الإنترنت
من يملك الحقيقة الرقمية؟ الذكاء الاصطناعي كقاضٍ للمحتوى على الإنترنت


في عصر أصبحت فيه الخوارزميات هي الحَكَم الأعلى على ما نراه ونقرأه ونؤمن به، يثور سؤال جوهري: من يملك الحقيقة في الفضاء الرقمي؟ لم يعد الإنسان وحده هو من يقرر الصواب من الخطأ، بل دخل الذكاء الاصطناعي إلى المشهد كقاضٍ رقمي يملك سلطة الحذف والتصنيف والتأطير. هذا المقال يناقش كيف تحوّل الذكاء الاصطناعي من أداة تنظيم إلى سلطة معرفية تتحكم في ما يُعتبر "حقيقيًا".

ولادة القاضي الرقمي

بدأت القصة مع الحاجة إلى ضبط الفوضى المعلوماتية. الإنترنت، في بداياته، كان فضاءً مفتوحًا لكل صوت. ومع تضاعف المحتوى الزائف والتحريضي، ظهرت أدوات الذكاء الاصطناعي كحلٍّ مثالي للفرز والتدقيق. لكن مع مرور الوقت، لم تعد هذه الأدوات تكتفي بالمراقبة، بل أصبحت تحكم.

عندما تحذف خوارزمية منشورًا أو تُخفيه بدعوى التضليل، فهي تمارس وظيفة تشبه القضاء، دون شفافية أو حق في الدفاع. وهكذا، تحوّل النظام من فضاءٍ حرّ إلى ساحة محكومة بخوارزميات غير مرئية تحدد ما يجب أن يُقال وما لا يُقال.

الحقيقة الرقمية كمنتج خوارزمي

الذكاء الاصطناعي لا "يعرف" الحقيقة، بل "يتعلمها" من البيانات التي نغذيها به. وإذا كانت البيانات منحازة أو ناقصة، فإن نتائجه ستكون منحازة بدورها. لذلك، حين يقول النظام إن معلومةً ما "زائفة"، فهو في الواقع يعكس معايير ومصادر اختارها البشر الذين صمموه.

تقرير Reuters Institute (2025) يؤكد أن "75٪ من قرارات الحذف أو تقييد المحتوى على المنصات تعتمد على أنظمة ذكاء اصطناعي لا يمكن للمستخدمين مراجعة منطقها الداخلي". أي أن الحقيقة اليوم لم تعد تُحدد بناءً على الدليل، بل على الخوارزمية.

بين مكافحة التضليل وتكميم الأصوات

لا أحد يُنكر أن الإنترنت يغص بالأكاذيب ونظريات المؤامرة، لكن في معركة محاربة التضليل، تُستخدم أدوات الذكاء الاصطناعي أحيانًا كسلاحٍ سياسي أو تجاري. فقد تُصنّف آراء علمية مخالفة على أنها "مضللة" فقط لأنها لا تتماشى مع الرواية الرسمية.

عام 2024، أثار حذف فيسبوك لمقالات حول لقاحات كورونا جدلاً واسعًا بعد اكتشاف أن بعضها كتبها باحثون حقيقيون. هذه الحوادث تُظهر أن نية الحماية قد تتحول إلى أداة إسكات، وأن الخوارزميات قد تفرض رقابة غير مقصودة باسم "الحقيقة".

من يصنع الخوارزميات؟

المشكلة الأعمق ليست في الذكاء الاصطناعي ذاته، بل في من يصممه. فالعقول التي تبرمج الخوارزميات تحمل خلفيات ثقافية وسياسية واقتصادية معينة. ما يعتبره مهندس في وادي السيليكون "خطاب كراهية" قد يراه شخص في الشرق الأوسط "رأيًا دينيًا".

هكذا، تصبح الخوارزميات مرآة لانحيازات من صنعها. يقول باحثو Harvard Kennedy School في تقريرهم لعام 2025: "الذكاء الاصطناعي ليس محايدًا؛ إنه يعيد إنتاج قيم ومصالح القوى التي بنته".

السلطة الجديدة: من الإعلام إلى الخوارزميات

لطالما كانت وسائل الإعلام التقليدية تُتهم بالتحكم في الحقيقة، لكن الذكاء الاصطناعي تجاوزها جميعًا. فهو لا ينشر الحقيقة فحسب، بل يُقرر من يستحق أن يراها. ومن خلال التحكم في الظهور والاختفاء، يصوغ وعيًا عامًا جديدًا لا يرى إلا ما تسمح به المنصة.

إنها ليست رقابة بالمعنى القديم، بل "إدارة للرؤية". المستخدم لا يُمنع من الكلام، لكنه يُدفن رقميًا في زوايا المنصة، فيموت صوته بصمت. إنها رقابة ناعمة لكنها فعالة.

الذكاء الاصطناعي بين العلم والسياسة

تتداخل السياسة بقوة في مسألة تحديد "الحقيقة الرقمية". حين تندلع أزمة جيوسياسية، تتدخل الحكومات للضغط على المنصات من أجل حذف محتوى أو توجيه الرأي العام. وتستجيب الشركات عبر أنظمتها الذكية التي تُعيد تصنيف المحتوى بما يتوافق مع مصالحها القانونية والاقتصادية.

تقرير Business Insider (2025) يشير إلى أن شركات التكنولوجيا الكبرى باتت تمتلك مراكز تحليل سياسي تعتمد على الذكاء الاصطناعي لتقييم "درجة الخطورة الإعلامية" لأي محتوى قبل السماح بانتشاره. وهكذا، تتحول الخوارزميات إلى أدوات دبلوماسية خفية.

هل يمكن للذكاء الاصطناعي أن يكون محايدًا؟

من الناحية التقنية، يمكن للذكاء الاصطناعي أن يُدرّب على بيانات متنوعة ليقلل من الانحياز. لكن من الناحية الفلسفية، لا وجود لـ"حياد مطلق". لأن كل قرار تصممه الخوارزمية يعكس قيمًا بشرية ضمنية: ما الذي يُعتبر صحيحًا؟ من يملك الحق في النشر؟ من يقرر المعايير؟

في هذا السياق، يرى الفيلسوف "توماس ميتشل" أن "الذكاء الاصطناعي لا يُنتج الحقيقة، بل يُنتج الإجماع"، أي أنه لا يميز بين الصواب والخطأ، بل بين ما يقبله النظام وما يرفضه.

الحقيقة كسلعة رقمية

تعمل الخوارزميات ضمن بيئة تجارية هدفها الأساسي جذب الانتباه. والحقيقة في هذه البيئة تُقاس بمدى قابلية المحتوى للانتشار. المقال الدقيق قد يُهمَّش لصالح منشور مثير للعاطفة. وهكذا، تتحول الحقيقة إلى منتجٍ تسويقي يخضع لمنطق السوق.

في دراسة لـ Stanford Internet Observatory (2024)، تبين أن 63٪ من المنشورات "الأكثر تفاعلاً" في المنصات تعتمد على عناوين مبالغ فيها أو محتوى مثير، ما يعني أن الخوارزميات تكافئ الإثارة لا الدقة.

الخطر الأخلاقي: تزييف الحقيقة بالذكاء الاصطناعي

مع تطور تقنيات التزييف العميق (Deepfake)، أصبح من الصعب التمييز بين الحقيقي والمزيف. والأسوأ أن الذكاء الاصطناعي نفسه يُستخدم لإنشاء محتوى زائف يصعب كشفه حتى بواسطة أدوات الذكاء الاصطناعي الأخرى.

النتيجة؟ تضاؤل الثقة في كل شيء. ومع انعدام الثقة، تصبح "الحقيقة" مسألة نسبية تمامًا، ويصبح من يملك التكنولوجيا هو من يحددها.

نحو عدالة خوارزمية

تتصاعد المطالب حول العالم بضرورة إخضاع الخوارزميات للرقابة البشرية المستقلة. الاتحاد الأوروبي، على سبيل المثال، أقر عام 2025 أول لائحة تُلزم المنصات بنشر تقارير دورية عن كيفية تصنيفها للمحتوى. هذه الخطوات تمثل بداية طريق نحو "الشفافية الخوارزمية".

لكن العدالة الرقمية ليست ممكنة دون مشاركة المستخدم نفسه. على الأفراد أن يُطالبوا بحقهم في فهم كيف تُتخذ قرارات الحذف والترتيب، لأن الحقيقة التي لا يمكن مراجعتها ليست حقيقة، بل سلطة.

الخاتمة: من يملك الحقيقة في النهاية؟

الذكاء الاصطناعي لا يملك الحقيقة، لكنه أصبح يملك مفاتيحها. والحقيقة الرقمية اليوم ليست ثابتة، بل نتاج تفاعل بين التكنولوجيا والمصالح والوعي الجمعي. ما لم تُفتح الخوارزميات للمساءلة، سنعيش في عالمٍ تحدد فيه الآلات ما يجب أن نعرفه، لا ما نريد أن نعرفه.

الأسئلة الشائعة (FAQ)

هل يمكن للذكاء الاصطناعي أن يميز الحقيقة من الكذب؟

لا بشكل مطلق. فهو يعتمد على البيانات والأنماط وليس على الفهم المعنوي أو القيمي للحقيقة.

من يراقب الخوارزميات التي تتحكم في المحتوى؟

في الغالب، الشركات المالكة للمنصات نفسها، لكن هناك دعوات متزايدة لإنشاء هيئات مستقلة لمراجعة تلك الأنظمة.

هل يمكن للذكاء الاصطناعي أن يكون محايدًا تمامًا؟

نظريًا ممكن، عمليًا مستحيل، لأن كل نظام مبني على قرارات بشرية مسبقة تحدد أولوياته.

ما خطورة الاعتماد على الذكاء الاصطناعي في مكافحة الأخبار الزائفة؟

الخطورة تكمن في أن أدوات التصحيح قد تُصبح أدوات إسكات، إذا لم تُخضع لرقابة شفافة ومتعددة المصادر.

كيف يمكن للمستخدم الدفاع عن حقه في حرية التعبير الرقمية؟

من خلال المطالبة بالشفافية في أنظمة التوصية والحذف، ومتابعة مصادر متنوعة خارج المنصات الكبرى.

المصادر

  • Reuters Institute – "Algorithms and the New Gatekeepers", 2025
  • Harvard Kennedy School – "Bias and Power in AI Systems", 2025
  • Business Insider – "How AI Decides What’s True Online", 2025
  • Stanford Internet Observatory – "The Economics of Digital Truth", 2024
  • Forbes – "AI Ethics and the Ownership of Truth", 2025

إرسال تعليق

أحدث أقدم

نموذج الاتصال