الثورة – هبه علي:
في ظلّ التوسع المتسارع لاستخدام تقنيات الذكاء الاصطناعي في شتى مناحي الحياة، باتت تتردد تساؤلات جوهرية حول موقع هذه التقنيات في معركة الوعي، ولاسيما عندما يتعلق الأمر بالشائعات وخطابات الكراهية التي تملأ الفضاء الرقمي..
هل يمكن للذكاء الاصطناعي أن يكون سلاحاً فعّالاً في مواجهة هذه التهديدات دون أن يتحول إلى أداة رقابية تمسّ جوهر حرية التعبير وقيم التعددية؟.
هذا السؤال طرحته صحيفة الثورة على الباحثة الاجتماعية روز جبيلي، التي رأت أن التحول الرقمي السريع الذي يعيشه العالم يفرض على الباحثين والمهتمين بالشأن الاجتماعي مراجعة أدوار التقنية وأبعادها الأخلاقية في تشكيل الرأي العام.
“نحن اليوم لا نتحدث عن احتمالات مستقبلية، بل عن واقع حيّ يفرض نفسه على الفضاء العام، ويعيد تشكيل الوعي الجمعي بطرق غير مسبوقة”، تقول الجبيلي:
هل الذكاء الاصطناعي هو حامٍ للوعي أم رقيب عليه!
في إجابتها على سؤال محوري حول ما إذا كان بالإمكان الاعتماد على الذكاء الاصطناعي كأداة لحماية الوعي المجتمعي من خطر الشائعات وخطابات الكراهية، أو إذا كان في ذلك تسليم ضمني للقرار لخوارزميات قد تكون منحازة، أجابت الجبيلي: إن هذا الإشكال بات اليوم أكثر إلحاحاً من أي وقت مضى.
وقد استشهدت بالحوار الأخير الذي جمع وزير الإعلام السوري بمدير مركز البحوث “آي رايتس”، والذي نوقشت فيه آفاق توظيف الذكاء الاصطناعي في مكافحة هذه الظواهر الرقمية المقلقة.. “علينا أن نكون حذرين في ألاّ تتحول هذه الأدوات إلى وسيلة للمراقبة الناعمة أو فرض الأجندات، بدلاً من تعزيز التفكير النقدي”، تضيف الباحثة:
الشائعة.. مرض اجتماعي لا تقتله الخوارزميات وحدها..
وهنا ترى الجبيلي أن الشائعة، في جوهرها، ليست فقط معلومة زائفة يتم تداولها، بل هي تعبير عن أزمة أعمق تتعلق بالثقة، والمعرفة، والتواصل داخل المجتمع، فهي مؤشر على الفراغ المعرفي لدى الأفراد.
ورغم أن الذكاء الاصطناعي قادر على تتبع مصدر الشائعة، وتحليل أنماطها، وتحديد توقيتاتها ونقاط انتشارها، إلا أن هذا ليس كافياً- وفق رأي الجبيلي- فالتحليل الرقمي مهما بلغ من تطور، لا يمكنه أن يملأ فراغاً ثقافياً أو يعوض غياب الشفافية، فمن دون خطاب إعلامي صادق وشراكة حقيقية مع الجمهور، ستجد الشائعة ألف طريق لتعود، مهما تطورت التقنيات كما تقول الباحثة الجبيلي، إذ الكراهية بين الجذور المجتمعية وآليات الرصد الرقمي.
ولفتت إلى أن خطاب الكراهية ليس ظاهرة طارئة، بل هو نتيجة لتراكمات مجتمعية وتاريخية تنفجر غالباً عبر المنصات الرقمية كأداة “تفريغ” للغضب والإحباط.
وهنا تظهر جدوى الذكاء الاصطناعي في رصد المصطلحات التحريضية وتحليل سياقات التفاعل الجماهيري، وكشف الحملات الممنهجة التي تقف وراء هذا الخطاب، إلا أنها تحذر من التعامل مع الظاهرة كمسألة تقنية فقط، لأن المعالجة الحقيقية تتطلب تفكيك جذور التمييز الثقافي والاجتماعي، وتعزيز قيم الحوار والانفتاح.
من يراقب الرقيب؟
أحد أبرز هواجس الباحثة الجبيلي يتعلق بالشفافية في عمل أنظمة الذكاء الاصطناعي، فهي تتساءل: من يبرمج هذه الأنظمة؟ وفق أي معايير وقيم، ومن يضمن ألاّ تُوظف بطريقة منحازة أو أيديولوجية؟، وتضيف: “لا يكمن الخطر فقط في الاستخدام المسيء، بل في صمت المستخدم عن طبيعة القرارات التي تتخذها الخوارزميات دون علمه، وهذا ما يشكل خطراً داهماً على حرية التعبير والتنوع الثقافي”.
وتدعو الجبيلي إلى ألاّ يكون الذكاء الاصطناعي بديلاً عن العقل البشري الناقد، بل أداة مساعدة له، “العقول المدربة على التمييز، والتحليل، والربط، هي الحصن الحقيقي في مواجهة التشويش الرقمي”.
وحول تعزيز التربية الإعلامية، كخطوة لا بدّ منها، تؤكد الجبيلي أن تعزيز التربية الإعلامية داخل المدارس والجامعات بات ضرورة حتمية، لا مجرد خيار، لأن الأفراد المتسلحين بالوعي قادرون على كشف التزييف والتضليل، مهما كان متقنًاً.
كما ترى أن بناء الثقة مع الجمهور يجب أن يُعاد عبر إعلام مسؤول، يضع الإنسان وقيمه في قلب العملية الاتصالية.
الذكاء الاصطناعي في خدمة الإنسان لا العكس
وفي ختام حديثها، شددت الباحثة جبيلي على أن الذكاء الاصطناعي يمكن أن يكون شريكاً فعّالاً في مواجهة الشائعات وخطابات الكراهية، ولكن فقط عندما يتم توظيفه ضمن منظومة أخلاقية تحترم كرامة الإنسان، وتستند إلى قيم الشفافية والمساءلة والتنوع الثقافي.
“نحن لا نحتاج إلى خوارزميات تصنفنا وتراقبنا، بل إلى وعي نقدي يحررنا، وإلى إعلام يبني، حينها فقط، يمكن القول: إن الذكاء الاصطناعي يعمل معنا، لا علينا”.