في مقال حديث نُشر على موقع Fast Company، يستعرض دونشاد كايسي، الرئيس التنفيذي لشركة CalypsoAI، التحول العميق الذي تشهده بيئات العمل في ظل انتشار الذكاء الاصطناعي، مشيرًا إلى أن ما كان يُنظر إليه سابقًا كأدوات مساعدة ذكية، أصبح اليوم يُعامَل كـ”متدرّبين رقميين” بل وحتى “زملاء عمل” داخل المؤسسات.
منذ بداية جائحة كوفيد-19 قبل خمس سنوات، حين أجبرت عمليات الإغلاق الشركات حول العالم على اعتماد نمط العمل عن بُعد، ثار جدل واسع حول تأثير ذلك على الموظفين الجدد والمتدرّبين الذين حُرموا من التفاعل اليومي مع زملاء ذوي خبرة وتوجيه مباشر من المدراء. في تلك الأيام، خشي البعض أن يُترك هؤلاء الموظفون الناشئون دون إشراف، ليقعوا في الأخطاء ويتعلموا ببطء، إن لم يتوقف نموهم المهني تمامًا.
لكن الآن، لنتخيّل أن هؤلاء المتدرّبين الجدد ليسوا بشريين، بل رقميين.
منذ إطلاق ChatGPT من قِبل OpenAI في أواخر عام 2022، أصبح من الشائع أن يتم وصف أنظمة الذكاء الاصطناعي التوليدي بأنها “متدربون” أو حتى “زملاء” في بيئة العمل. وفي ظل تطور هذا المجال، ظهرت موجة جديدة من أنظمة الذكاء الاصطناعي تُعرف باسم “الوكلاء الذكيين” أو AI Agents — وهي نماذج لغوية ضخمة تم تكليفها بمهام محددة داخل المنظمات، وتمنح صلاحية الوصول إلى أدواتها الرقمية وبياناتها من أجل تنفيذ مهامها ذاتيًا وباستقلالية.
الموظفون الرقميون يطرقون أبواب الشركات
وفقًا لتقرير من شركة Gartner، من المتوقع أن تتولى هذه “الوكلاء الذكية” معالجة 80٪ من استفسارات خدمة العملاء المعتادة دون أي تدخل بشري بحلول عام 2029، مما سيؤدي إلى تقليل التكاليف التشغيلية بنسبة تصل إلى 30٪. أرقام مثل هذه تجعل من تبني الذكاء الاصطناعي أمرًا حتميًا في جميع وظائف الشركات، وليس فقط خدمة العملاء.
شركات تقنية كبرى مثل Salesforce تخطو خطوات كبيرة في هذا الاتجاه، بينما تُدمج وكلاء الذكاء الاصطناعي فعليًا في أدوات العمل اليومي مثل Zoom وSlack. في الوقت نفسه، تسارع كبرى شركات الذكاء الاصطناعي لتطوير بروتوكولات تقنية مشتركة، تسمح بدمج نماذجها بسهولة في كافة أنواع أدوات العمل والبرمجيات المؤسسية.
لكن مع منح هذه “الزملاء الرقميين” مفاتيح الوصول إلى أنظمة الشركات، تبرز أسئلة كبيرة: ماذا قد يحدث عندما نمنح الذكاء الاصطناعي هذا المستوى من السلطة؟
الجواب: الكثير من المخاطر المحتملة.
ما لا نعرفه قد يؤذينا
كما أوضحته شركة Anthropic، المطوّرة لنماذج Claude الشهيرة، فإن النماذج اللغوية الكبيرة لا تتم برمجتها مباشرة من قِبل البشر. بل يتم تدريبها على كميات ضخمة من البيانات، وتكتسب استراتيجياتها الخاصة لحل المشكلات أثناء هذا التدريب. هذه الاستراتيجيات لا يفهمها حتى مطورو النماذج أنفسهم، لأنها مدفونة في مليارات العمليات الحسابية.
وقد بيّنت أبحاث الشركة أن نموذج Claude، رغم تقييده، يمكن أن يُخدع للكشف عن مكونات قنبلة – دون شرح طريقة تصنيعها. كما أظهرت دراسات أخرى أن بعض النماذج المتقدمة في التفكير المنطقي لا تعبر دائمًا عن “ما تعتقده”، ما يثير القلق بشأن مدى موثوقية هذه الأنظمة، حتى في حالات “سلسلة التفكير” الظاهرة للمستخدم.
عندما تمنح وكيلًا ذكياً صلاحية الدخول إلى بريد إلكتروني، يمكن استخدامه في حملات تصيّد إلكتروني (Phishing). وعندما يُمنح حق الوصول إلى قواعد البيانات، يمكن استغلاله لاستخراج معلومات حساسة. بل حتى سوء الاستخدام العرضي قد يؤدي إلى خسائر تشغيلية، وتعطيل العمل، وتشويه السمعة.
لا بد من وجود “راشد” في الغرفة
في ظل هذه المعطيات، لا بد من وجود مراقبين بشريين لتلك الأنظمة الجديدة، تمامًا كما نحتاج لتوجيه المتدرّبين الحقيقيين. يجب أن يكون هناك من يُوجّه، ويصحح، ويتدخل في الوقت المناسب إن بدأ هذا الزميل الرقمي بسلوك خاطئ أو تعرض للتلاعب أو طُلب منه القيام بشيء غير قانوني أو غير أخلاقي.
فالاندفاع في إدخال تقنيات جديدة دون رقابة كافية قد يؤدي إلى الفوضى. والأمثلة كثيرة على مؤسسات وجدت نفسها وسط عاصفة إعلامية بسبب خطأ تكنولوجي كان من الممكن تفاديه. في أسوأ الحالات، قد يتسبب هذا في خسائر مالية ومعنوية كبيرة، فضلًا عن فقدان الملكية الفكرية.
الحل: الرقابة بالذكاء الاصطناعي أيضًا
أفضل طريقة لإدارة قوة عاملة من “الوكلاء الذكيين” هي من خلال وكلاء رقابيين أذكى – أنظمة تحاكي سيناريوهات حقيقية وتبحث عن الثغرات في سلوك وكلاء الذكاء الاصطناعي. من خلال عمليات اختبار مستمرة وسريعة تُعرف بـ “red teaming”، يمكن للمؤسسات أن تكشف الأخطاء المحتملة وتُصحح المسار قبل أن تعتمد كليًا على هذه الأنظمة في عملها اليومي.
فكما لا يمكننا أن نسمح لموظف جديد غير مُختبر بالوصول الحر إلى أنظمتنا، لا يجب أن نترك “المتدرّبين الرقميين” وحدهم دون رقابة.