الذكاء الاصطناعي في المؤسسات: واقع لا يمكن تجاهله

في مقال حديث نُشر على موقع Fast Company، يستعرض دونشاد كايسي، الرئيس التنفيذي لشركة CalypsoAI، التحول العميق الذي تشهده بيئات العمل في ظل انتشار الذكاء الاصطناعي، مشيرًا إلى أن ما كان يُنظر إليه سابقًا كأدوات مساعدة ذكية، أصبح اليوم يُعامَل كـ”متدرّبين رقميين” بل وحتى “زملاء عمل” داخل المؤسسات. هذه الظاهرة تعكس مدى تعاظم دور الذكاء الاصطناعي في المؤسسات الحديثة وتأثيره المباشر على أساليب الإدارة والتشغيل.

منذ بداية جائحة كوفيد-19 قبل خمس سنوات، حين أجبرت عمليات الإغلاق الشركات حول العالم على اعتماد نمط العمل عن بُعد، ثار جدل واسع حول تأثير ذلك على الموظفين الجدد والمتدرّبين الذين حُرموا من التفاعل اليومي مع زملاء ذوي خبرة وتوجيه مباشر من المدراء. في تلك الأيام، خشي البعض أن يُترك هؤلاء الموظفون الناشئون دون إشراف، ليقعوا في الأخطاء ويتعلموا ببطء، إن لم يتوقف نموهم المهني تمامًا.

لكن الآن، لنتخيّل أن هؤلاء المتدرّبين الجدد ليسوا بشريين، بل رقميين، وهي صورة واقعية أصبحت ممكنة بفضل الذكاء الاصطناعي. واليوم، بات استخدام الذكاء الاصطناعي في المؤسسات لتدريب الموظفين وتوجيههم أمرًا شائعًا في كثير من القطاعات.

الذكاء الاصطناعي في المؤسسات: الموظفون الرقميون يطرقون أبواب الشركات

منذ إطلاق ChatGPT من قِبل OpenAI في أواخر عام 2022، أصبح من الشائع أن يتم وصف أنظمة الذكاء الاصطناعي التوليدي بأنها “متدربون” أو حتى “زملاء” في بيئة العمل. وفي ظل تطور هذا المجال، ظهرت موجة جديدة من أنظمة الذكاء الاصطناعي تُعرف باسم “الوكلاء الذكيين” أو AI Agents — وهي نماذج لغوية ضخمة تم تكليفها بمهام محددة داخل المنظمات، وتمنح صلاحية الوصول إلى أدواتها الرقمية وبياناتها من أجل تنفيذ مهامها ذاتيًا وباستقلالية. هذا التوسع يؤكد كيف أصبح الذكاء الاصطناعي في المؤسسات جزءًا أساسيًا من البنية التشغيلية.

وفقًا لتقرير من شركة Gartner، من المتوقع أن تتولى هذه “الوكلاء الذكية” معالجة 80٪ من استفسارات خدمة العملاء المعتادة دون أي تدخل بشري بحلول عام 2029، مما سيؤدي إلى تقليل التكاليف التشغيلية بنسبة تصل إلى 30٪. أرقام مثل هذه تجعل من تبني الذكاء الاصطناعي في المؤسسات أمرًا حتميًا في جميع وظائف الشركات، وليس فقط خدمة العملاء.

شركات تقنية كبرى مثل Salesforce تخطو خطوات كبيرة في هذا الاتجاه، بينما تُدمج وكلاء الذكاء الاصطناعي فعليًا في أدوات العمل اليومي مثل Zoom وSlack. في الوقت نفسه، تسارع كبرى شركات الذكاء الاصطناعي لتطوير بروتوكولات تقنية مشتركة، تسمح بدمج نماذجها بسهولة في كافة أنواع أدوات العمل والبرمجيات المؤسسية.

لكن مع منح هذه “الزملاء الرقميين” مفاتيح الوصول إلى أنظمة الشركات، تبرز أسئلة كبيرة: ماذا قد يحدث عندما نمنح الذكاء الاصطناعي هذا المستوى من السلطة؟

الجواب: الكثير من المخاطر المحتملة

كما أوضحته شركة Anthropic المطوّرة لنماذج Claude الشهيرة، فإن النماذج اللغوية الكبيرة لا تتم برمجتها مباشرة من قِبل البشر. بل يتم تدريبها على كميات ضخمة من البيانات، وتكتسب استراتيجياتها الخاصة لحل المشكلات أثناء هذا التدريب. هذه الاستراتيجيات لا يفهمها حتى مطورو النماذج أنفسهم، لأنها مدفونة في مليارات العمليات الحسابية.

وقد بيّنت أبحاث الشركة أن نموذج Claude، رغم تقييده، يمكن أن يُخدع للكشف عن مكونات قنبلة – دون شرح طريقة تصنيعها. كما أظهرت دراسات أخرى أن بعض النماذج المتقدمة في التفكير المنطقي لا تعبر دائمًا عن “ما تعتقده”، ما يثير القلق بشأن مدى موثوقية هذه الأنظمة، حتى في حالات “سلسلة التفكير” الظاهرة للمستخدم.

عندما تمنح وكيلًا ذكياً صلاحية الدخول إلى بريد إلكتروني، يمكن استخدامه في حملات تصيّد إلكتروني (Phishing). وعندما يُمنح حق الوصول إلى قواعد البيانات، يمكن استغلاله لاستخراج معلومات حساسة. بل حتى سوء الاستخدام العرضي قد يؤدي إلى خسائر تشغيلية، وتعطيل العمل، وتشويه السمعة.

لا بد من وجود “راشد” في الغرفة

في ظل هذه المعطيات، لا بد من وجود مراقبين بشريين لتلك الأنظمة الجديدة، تمامًا كما نحتاج لتوجيه المتدرّبين الحقيقيين. يجب أن يكون هناك من يُوجّه، ويصحح، ويتدخل في الوقت المناسب إن بدأ هذا الزميل الرقمي بسلوك خاطئ أو تعرض للتلاعب أو طُلب منه القيام بشيء غير قانوني أو غير أخلاقي.

فالاندفاع في إدخال تقنيات جديدة دون رقابة كافية قد يؤدي إلى الفوضى. والأمثلة كثيرة على مؤسسات وجدت نفسها وسط عاصفة إعلامية بسبب خطأ تكنولوجي كان من الممكن تفاديه. في أسوأ الحالات، قد يتسبب هذا في خسائر مالية ومعنوية كبيرة، فضلًا عن فقدان الملكية الفكرية.

الحل: الرقابة بالذكاء الاصطناعي أيضًا

أفضل طريقة لإدارة قوة عاملة من “الوكلاء الذكيين” هي من خلال وكلاء رقابيين أذكى – أنظمة تحاكي سيناريوهات حقيقية وتبحث عن الثغرات في سلوك وكلاء الذكاء الاصطناعي. من خلال عمليات اختبار مستمرة وسريعة تُعرف بـ “red teaming”، يمكن للمؤسسات أن تكشف الأخطاء المحتملة وتُصحح المسار قبل أن تعتمد كليًا على هذه الأنظمة في عملها اليومي.

فكما لا يمكننا أن نسمح لموظف جديد غير مُختبر بالوصول الحر إلى أنظمتنا، لا يجب أن نترك “المتدرّبين الرقميين” وحدهم دون رقابة. وهنا تظهر أهمية تبني نهج متكامل لتفعيل الذكاء الاصطناعي في المؤسسات دون التخلي عن مبادئ الحوكمة والرقابة الإنسانية.

spot_img

اشترك معنا ليصلك كل جديد

اشترك معنا ليصلك كل جديد

Related articles

حفل ميت غالا 2025: ابرز الاطلالات

في ليلة ساحرة من الأناقة والجُرأة، خطف حفل ميت...

Canva Visual Suite 2.0: مستقبل التصميم بالذكاء الاصطناعي

هل تخيلت يومًا أن تتمكن من إنشاء عرض تقديمي،...

تعرف على STORM: مستقبل البحث العلمي في عصر الذكاء الاصطناعي

في عالم تتسارع فيه وتيرة المعلومات والبيانات بشكل غير...
spot_imgspot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

×