كشف القناع.. كيف نواجه خدعة شركات التكنولوجيا؟

هل سيسيطر الذكاء الاصطناعى على العالم؟ هل ابتكر علماء التكنولوجيا الكبار كائنًا حيًا اصطناعيًا قادرًا على التفكير بذاته؟ هل سيؤدى ذلك إلى إفلاس المؤلفين والفنانين وغيرهم؟ هل نحن على وشك دخول عصر تتفوق فيه أجهزة الكمبيوتر على البشر فى كل شىء؟
الإجابة عن هذه الأسئلة، توضحها عالمة اللغويات «إميلى م. بندر» وعالمة الاجتماع «أليكس هانا»، وهى: «لا»، «إنهم يتمنون»، «ههههه»، و«بالتأكيد لا».. هذا النوع من التفكير هو أحد أعراض ظاهرة تعرف باسم «ضجة الذكاء الاصطناعى».
حيث يبدو الضجيج مريبًا: فهو يشوه الكلمات ويساعد الأغنياء على الثراء من خلال تبرير سرقة البيانات، وتحفيز رأسمالية المراقبة، وتقليل قيمة الإبداع البشرى، بهدف استبدال العمل الهادف بوظائف تعامل الناس كآلات.
وفى كتابهما: «خدعة الذكاء الاصطناعى: كيف نواجه ضجيج شركات التكنولوجيا الكبرى ونصنع المستقبل الذى نريده»، تكشف «بندر وهانا» ضجيج الذكاء الاصطناعى على حقيقته: قناع لرغبة شركات التكنولوجيا الكبرى فى الربح، مع قليل من الاهتمام بمن يؤثر عليه.
الكتاب الذى يأتى فى ٢٨٨ صفحة، صدر فى منتصف مايو الماضى، عن دار نشر «هاربر كولينز» البريطانية الأمريكية، ويعتبر فى المرتبة الثانية للكتب الأكثر مبيعًا فى أخلاقيات الأعمال، والمرتبة التاسعة للكتب الأكثر مبيعًا فى صناعة الحاسب والتكنولوجيا.
إميلى م. بندر أستاذة فى اللغويات بجامعة واشنطن، حيث تشغل أيضًا منصب مديرة هيئة التدريس لبرنامج ماجستير علوم اللغويات الحاسوبية، وعضو هيئة تدريس منتسب فى كلية علوم وهندسة الحاسوب وكلية المعلومات.
فى عام ٢٠٢٣، أُدرجت ضمن قائمة مجلة تايم لأكثر ١٠٠ شخصية تأثيرًا فى مجال الذكاء الاصطناعى. ويلجأ إليها صانعو السياسات باستمرار، من مسئولى البلديات إلى الحكومة الفيدرالية والأمم المتحدة، لاستشارتها فى فهم ما يسمى بتقنيات الذكاء الاصطناعى.
أما أليكس هانا فهى مديرة الأبحاث فى معهد أبحاث الذكاء الاصطناعى الموزع «DAIR»، ومحاضرة فى كلية المعلومات بجامعة كاليفورنيا، بيركلى. وهى متحدثة وخبيرة بارزة، ظهرت فى العديد من وسائل الإعلام، بما فى ذلك مقالات فى صحف واشنطن بوست، وفاينانشيال تايمز، وأتلانتيك، وتايم.

عرض بضائع
تعتقد المؤلفتان أن الذكاء الاصطناعى هو مجرد فقاعة تقنية أخرى، وما يباع لنا ليس سوى «عرض بضائع»: حيث إن عددًا قليلًا من اللاعبين الرئيسيين ذوى المكانة المرموقة فى هذا المجال على استعداد لتراكم ثروات طائلة من خلال استخراج القيمة من أعمال الآخرين الإبداعية، أو بياناتهم الشخصية، أو عملهم، واستبدال الخدمات عالية الجودة بنسخ طبق الأصل اصطناعية.
تشير الكاتبتان إلى أن كل هذا هو وَهْم ودخان، لتمكين مليارديرات التكنولوجيا من زيادة ثرائهم. أو كما تقول بندر وهانا: «الذكاء الاصطناعى، إذا كنا صريحين، هو خدعة: فاتورة بضائع تباع لك لملء جيوب شخص ما».
ويجادلان بأنه يتم تضخيم فوائده، بينما يتم التقليل من تكاليفه، فنجد أن الضجة التى تقف وراءه تروج إليه باعتباره أمل المستقبل فى كل مجال تجارى واجتماعى وهندسى وفنى موجود، وهو ما ليس سوى أداة تسويقية.
ترى المؤلفتان أن التلميح إلى أن الخوارزميات المعقدة يمكن أن تستحوذ على العديد من المجالات هو انتقاص من معنى أن تكون إنسانًا. إنه يوحى بأن البشر مجرد آلات عضوية. ومع ذلك، لا يمكن اختزال التعقيد البشرى فى الخوارزميات.

جذور المصطلح
ترجع الكاتبتان جذور مصطلح الذكاء الاصطناعى إلى التعلم الآلى وخمسينيات القرن الماضى، عندما صاغ عالم الرياضيات جون مكارثى المصطلح. كان ذلك فى حقبة كانت الولايات المتحدة تتطلع فيها إلى تمويل مشاريع من شأنها مساعدتها على اكتساب أى نوع من التفوق على السوفييت عسكريًا وأيديولوجيًا وتكنولوجيًا.
تقترح بندر وهانا التعامل مع الذكاء الاصطناعى على أنه «آلات استخراج نصوص اصطناعية». ويوضحان: «كعملية صناعية بلاستيكية، تجبر قواعد بيانات النصوص على المرور عبر آليات معقدة، لإنتاج منتج يبدو كلغة تواصل، ولكن دون أى قصد أو تفكير مسبق».
وينطبق الأمر نفسه على نماذج الذكاء الاصطناعى «التوليدية» الأخرى التى تنتج صورًا وموسيقى. تضيف المؤلفتان أنها جميعًا «آلات وسائط اصطناعية»- أو كما تحب أن تسميها الكاتبتان، آلات انتحال عملاقة.
وتكتبان: «كل من نماذج اللغة ونماذج تحويل النص إلى صورة ستنتحل مدخلاتها بشكل كامل»، مشيرتان إلى أن صحيفة نيويورك تايمز تقاضى OpenAI لهذا السبب تحديدًا.
ترى بندر وهانا أن الاعتماد على الذكاء الاصطناعى ليس سيئًا للمبدعين فقط؛ بل هو سيئ للجميع. وتلفت المؤلفتان إلى أن بدء نتائج البحث على الإنترنت الآن بملخص مولد بواسطة الذكاء الاصطناعى من المرجح أن يضعف التفكير النقدى.
تدمير الوظائف
تعتقد المؤلفتان أن الجاذبية الحقيقية للذكاء الاصطناعى، بالنسبة للشركات، تكمن فى أنه يبشر بتمكين تسريح أعداد هائلة من الناس. على سبيل المثال، تشير الكاتبتان إلى أن وفقًا لتقرير المنتدى الاقتصادى العالمى لعام ٢٠٢٥، يخطط ٤٠٪ من أصحاب العمل لخفض أعداد موظفيهم مع اعتمادهم على الذكاء الاصطناعى فى السنوات القادمة.
توضح بندر وهانا أنه مع استخدامنا للغة فى جميع مجالات النشاط تقريبًا، ولأن النصوص التركيبية الصادرة عن الآلات قابلة للبرمجة لمحاكاة اللغة، فقد يبدو الأمر وكأننا على وشك الحصول على تقنية تمكننا من تقديم تشخيصات طبية، ودروس خصوصية، واتخاذ قرارات حكيمة فى تخصيص الخدمات الحكومية، والتمثيل القانونى، وغير ذلك الكثير- كل ذلك بتكلفة الكهرباء فقط «بالإضافة إلى أى رسوم تفرضها الشركات المصنعة لروبوتات الدردشة».
ولكن فى جميع هذه الحالات، ليست الكلمات هى المهمة، بل الفكرة التى تبنى عليها، والعلاقات التى تساعدنا على بنائها والحفاظ عليها.
تشير المؤلفتان إلى أن من الخطير وغير الأخلاقى أتمتة العديد من المهن، نظرًا للمخاطر التى تنطوى عليها وضرورة المساءلة البشرية «مثل الشرطة والأطباء والجنود». ماذا عن أنواع الوظائف الأخرى؟ ألن يعنى الارتفاع المستمر لروبوتات الدردشة ومولدات الصور أننا لسنا بحاجة إلى عدد كبير من البشر الذين يستخدمون أدمغتهم؟
نعم، ولكن وجهة نظر بندر وهانا: فى جميع الحالات تقريبًا، لن يحل الذكاء الاصطناعى محل الوظائف، بل سيجعلها «أسوأ»، مع تحويل الكثير من وقتنا إلى «رعاية» الآلات.
وتروى الكاتبتان ما أشار إليه جون لوبيز، عضو مجموعة عمل الذكاء الاصطناعى فى نقابة الكتاب الأمريكية، من حيث إمكانية حصول الكتاب على أجر إعادة الكتابة، مقابل التعامل مع محتوى مولد بواسطة الذكاء الاصطناعى، وهو أجر أقل بكثير من أجر النص الأصلى.
وحسب لوبيز، فإن تهديد مولدات الصور والنصوص الذى يقلل بشكل كبير من فرص العمل لمصممى الجرافيك وفنانى ألعاب الفيديو والصحفيين. هذا ليس لأن هذه الأدوات قادرة على أداء مهام هؤلاء المحترفين بكفاءة، بل لأن أداءها جيد بما يكفى لتقصير مسيرتهم المهنية وإعادة توظيفهم بأجر زهيد مقارنة بأجورهم السابقة، فقط ليتمكنوا من إصلاح أخطاء الذكاء الاصطناعى.
تعترف المؤلفتان بوجود حالات استخدام معقولة لتقنيات الذكاء الاصطناعى، مثل معالجة الصور التى تساعد إخصائى الأشعة، لكن فى المقابل هناك خطورة لتسلل ذلك إلى ملاحظات الأطباء، حيث يمكن للآلات الآن نسخ ملاحظات الأطباء تلقائيًا.
تؤكد بندر وهانا فى النهاية أن الذكاء الاصطناعى لن يكلف آلاف الناس وظائفهم فحسب، إن لم يكن الملايين. بل سيجعل مجتمعاتنا أكثر غباءً على المستوى الجماعى، لأنه- على الرغم من إصرار أقطاب التكنولوجيا على أن الذكاء الاصطناعى هو «الذكاء»- فإن النص المنتج منه، دون استثناء، أغبى من النص الذى ينتجه البشر.
فعندما لا يرضى الذكاء الاصطناعى أسوأنا بإخفاء نرجسيته، يغذيه بمعلومات مضللة.

وهم التفكير
تنتقل بندر إلى تفنيد فكرة الذكاء التى تتمتع بها الآلات والتى يتم الترويج لها، حيث تؤكد ورقة بحثية شهيرة، شاركت فى كتابتها، أن نماذج اللغة الكبيرة هى ببساطة «ببغاوات عشوائية»، تعتمد على بيانات التدريب للتنبؤ بمجموعة الرموز «أى الكلمات» الأكثر احتمالًا لاتباع التعليمات التى يقدمها المستخدم.
بجمع ملايين المواقع الإلكترونية التى تم فحصها، يستطيع النموذج تكرار عبارة «القمر» بعد عبارة «قفزت البقرة فوقها»، وإن كان ذلك بصيغ أكثر تعقيدًا. وبدلًا من فهم مفهوم ما فى جميع سياقاته الاجتماعية والثقافية والسياسية، تجرى نماذج اللغة الكبيرة مطابقة للأنماط: وهم التفكير.
تستمر فى شرح كيفية عمل هذه النماذج، فتقول إن روبوتات الدردشة مثل ChatGPT صممت لإبهارنا، لكنها ليس كما نظن. فهى لا تستطيع أداء الوظائف التى تدعى القيام بها. ويكمن سر خداعها فى كيفية استخدام الناس للغة. قد تظن أنها مسألة بسيطة تتعلق بفك رموز الكلمات، لكن العملية أكثر تعقيدًا واجتماعية.
حيث نفسر اللغة بالاعتماد على كل ما نعرفه «أو نخمنه» عن الشخص الذى قال الكلمات، وأى قواسم مشتركة بيننا. ثم نستنتج ما كان يحاول إيصاله. نفعل ذلك غريزيًا وانعكاسيًا.
لذا، عندما نصادف نصًا مركبًا من النوع الذى ينتج عن ChatGPT وأمثاله، نفسره متخيلين عقلًا وراء النص، حتى لو لم يكن هناك عقل. بعبارة أخرى، المهارات اللغوية والاجتماعية التى نحيط بها مخرجات الذكاء الاصطناعى هى ما يسهل على مطورى برامج الدردشة خداعنا لندرك أنها كيانات مفكرة.
تشدد بندر على أن برامج الدردشة غير قادرة على الرؤية أو التفكير، لأنها لا تمتلك أدمغة.

نقطة انطلاق
تلفت الكاتبتان إلى أن خدعة الذكاء الاصطناعى تصبح أقوى، عندما ينظر إلى ما وراء التقنيات أو حولها، ليشمل النظام البيئى المحيط بها، وهو منظور له فائدة كبيرة.
فمن خلال فهم الشركات والجهات الفاعلة ونماذج الأعمال وأصحاب المصلحة المشاركين فى إنتاج نموذج ما، يمكننا تقييم مصدره، وهدفه، ونقاط قوته وضعفه، وما قد يعنيه كل هذا لاحقًا فيما يتعلق باستخداماته وتداعياته المحتملة.
وتقترح بندر وهانا أن السؤال يجب أن يكون: «مَن يستفيد من هذه التكنولوجيا، ومن يتضرر، وما سبل الانتصاف المتاحة لهم؟» وهو ما يعد نقطة انطلاق فعالة.
وتعتقد المؤلفتان، أن معززى الذكاء الاصطناعى ومدمريه وجهان لعملة واحدة. ففكرة استحضار سيناريوهات مرعبة لذكاء اصطناعى متكاثر ذاتيًا ينهى البشرية، أو ادعاء أن الآلات الواعية ستدخلنا إلى جنة ما بعد البشرية، هما فى النهاية نفس الشىء.
توضح الكاتبتان أن الذكاء الاصطناعى أشبه بنظام بانوبتيكون «تعنى مراقبة الكل» «يسمح لسجان واحد بتتبع مئات السجناء دفعة واحدة»، أو «شبكات المراقبة التى تتعقب الفئات المهمشة فى الغرب»، أو «عامل مستجد يعبر خط الاعتصام بناء على طلب صاحب عمل يريد أن يشير إلى المعتصمين بأنهم قابلون للاستغناء عنهم».
وأن مجموع الأنظمة التى تباع على أنها ذكاء اصطناعى هى هذه الأشياء مجتمعة، وتشير بندر وهانا إلى أنه على عكس ما تروج له ضجة التكنولوجيا، فإن تطوير الذكاء الاصطناعى ليس حتميًا.
فى الواقع، «تستخدم هذه التقنيات كوسيلة لتركيز السلطة، وتجميع البيانات، وتحقيق الربح، بدلًا من توفير تكنولوجيا مفيدة اجتماعيًا». حيث يتم ذلك فى «المضاربة المالية المتفشية، وتدهور الثقة المعلوماتية والبيئات، وتطبيع سرقة البيانات واستغلالها».
تكلفة مرهقة
ترى المؤلفتان أن هذه الجوانب السلبية ليست كل شىء. حيث تخلت شركات التكنولوجيا الكبرى عن تعهداتها المناخية، مفضلة تطوير أنظمة الذكاء الاصطناعى بأى ثمن، مع التكلفة المرهقة للطاقة اللازمة لتشغيل جميع آلات معالجة البيانات على البيئة.
وهو ما يفاقم مشكلة عدم تحقيق هدف اتفاقية باريس للحد من ارتفاع متوسط درجة الحرارة العالمية إلى أقل بكثير من درجتين مئويتين فوق مستويات ما قبل الثورة الصناعية.
تشدد الكاتبتان على أن إنتاج الروبوتات يزيد من أزمة المناخ بشكل كبير، حيث تنتج مراكز البيانات التى تستضيف هذه الأدوات كميات هائلة من الكربون الزائد، وأشباه الموصلات المستخدمة فى أجزائها تسرب مواد كيميائية إلى الأرض بشكل دائم، ومن المتوقع أن تسبب المولدات الاحتياطية المزيد من أمراض الجهاز التنفسى فى أفقر مناطق الولايات المتحدة وأماكن أخرى.
وتنصح بندر وهانا بالتصرف، جماعيًا وفرديًا. بشكل جماعي، يمكننا المطالبة بلوائح تمنع استخدام تقنيات الذكاء الاصطناعى علينا، وبعقود عمل تبقينا متحكمين فى عملنا. وعلى المستوى الفردى، يمكننا رفض استخدام أنظمة الذكاء الاصطناعى. ويمكننا أن نكون مستهلكين ناقدين للأتمتة، مدركين ما تتم أتمتته، وكيف تم تقييمه، ولماذا.
يمكننا أيضًا أن نكون مستهلكين ناقدين للصحافة المتعلقة بالتكنولوجيا، وأخيرًا، يمكننا، بل يجب علينا، أن نمارس السخرية كممارسة عملية، أى الاستمتاع بالإشارة إلى جميع الطرق التى تكون بها آلات الوسائط الاصطناعية رديئة ومبتذلة.