مع دخول الذكاء الاصطناعي غرف التحرير، يتجدد الجدل حول “التحيّز الخوارزمي”، أي ميل الأنظمة الذكية لإعادة إنتاج انحيازات المجتمع بدلاً من تصحيحها.
تنبع هذه الظاهرة من تدريب النماذج على بيانات غير متوازنة أو منقوصة، أو تحيزات المعرفية، ومن أحد أشكالها الشائعات التي تتوافق مع معتقد ونظرة مسبقة وتفضيلها، ليستبعد وجهات النظر البديلة، ليتضخم التحيز التأكيدي لدى مستخدم تطبيقات الذكاء الاصطناعي، ما يؤدي إلى مخرجات تميّز بين الأجناس أو الفئات أو حتى المناطق الجغرافية.
ويحذر خبراء من “التحيّز الضار” الناتج عن تغذية الأنظمة ببيانات غير عادلة أو متحيزة بالفعل، لتعاقب وتُقصي أفراداً أو مجموعات معينة، ومنها سوريا، فمثلاً، قد يُقصي نموذج توظيف آلي مرشحين سوريين للتوظيف لصالح جنسيات أخرى بناءً على أنماط بيانات غير منصفة.
وخصصت المؤسسات الكبرى الإعلامية صحفيين لمساءلة هذه الخوارزميات، فيما تشير دراسات إلى أن 49 بالمئة من غرف الأخبار بدأت استخدام الذكاء الاصطناعي من دون أدوات رقابة كافية. نعم، لا يمكن محو التحيّز كلياً، لكن يمكن التخفيف من خطره، باعتماد فرق تطوير متعددة الخلفيات وضمان تنوع البيانات.. وفي سوريا، علينا تطوير البيانات القديمة، وتكملة البيانات المفقودة، هذا يعني بناء نماذج تعكس واقعنا، لا تُقصيه.