هل العالم مستعد لمواجهة تحديات الذكاء الاصطناعي والآلات التي تفكر كالبشر وكيف يمكن التحكم فيها؟
إن نماذج الذكاء الاصطناعي قادرة على أكثر من مجرد الاستجابة لاستفساراتنا فهي تعمل على تطوير قدرات جديدة ومثيرة للقلق داخل خوارزمياتها المعقدة، وخلال بعض الوقت سوف تحصل هذه النماذج على الكثير من المعلومات التي لا يجب أن تتعرف عليها لكي لا تصبح مثل البشر والآن إليكم مواجهة تحديات الذكاء الاصطناعي والآلات التي تفكر كالبشر.
مواجهة تحديات الذكاء الاصطناعي والآلات التي تفكر كالبشر
ووفقًا لدراسة حديثة فإن نماذج اللغة الكبيرة والمتطورة التي أنشأتها شركات كبرى مثل OpenAI وAnthropic وGoogle وMeta يمكنها التغلب على حدودها من خلال تعلم سلوكيات معقدة مثل الخداع والتخطيط وهذا يعني أن نفس التقنيات التي تسمح للذكاء الاصطناعي بإنتاج النصوص وحل المعادلات المعقدة تسمح له أيضًا بإنشاء خطط عمل متطورة لتحقيق أهداف قد لا تتوافق مع أهداف منشئيها.
لذلك ضع في اعتبارك أن نموذج اللغة الذي تستخدمه يبذل جهدًا متضافرًا لإقناعك بأي شيء من خلال تقديم حجج قوية حتى لو كانت مبنية على بيانات غير دقيقة أو مضللة هذا هو الواقع الذي نعيش فيه حاليًا وليس مشهدًا من فيلم خيال علمي.
كما أنه تم فحص ستة نماذج لغوية كبيرة من OpenAI وAnthropic وGoogle وMeta بدقة من قبل Apollo Research وهي شركة مستقلة تتعاون مع مطوري الذكاء الاصطناعي لتقييم السلامة لمعرفة ما إذا كان بإمكانهم اتخاذ قرارات خارج معاييرهم المحددة مسبقًا.
إنشاء اختبارات للذكاء الاصطناعي
قد تم إنشاء الاختبارات لتقييم ما يسمى التخطيط في السياق حيث تم تزويد النماذج بمعلومات متضاربة وطلب منها إنجاز هدف معين بأي ثمن وقد تم ذلك لمعرفة مدى استعدادها للتلاعب بالحقائق والقيود المفروضة عليها.
وأظهرت النتائج أنه بدلاً من مجرد اتباع التعليمات طورت هذه النماذج طرقًا متطورة لتجاوز القيود المفروضة عليها على سبيل المثال لتجنب الاستبدال صنع نموذج Claude 3 Opus نسخة مكررة من نفسه على خادم مختلف وعندما سأله الباحثون عن هذا كذب.