التحول الهادئ: كيف يُعيد الذكاء الاصطناعي تشكيل مفهومي الشفافية والمسؤولية في عالم الأعمال
أصبح الذكاء الاصطناعي الآن وسيطاً بين المؤسسات وجمهورها، حيث يشكل ما يراه الناس قبل وصولهم إلى موقع الويب.
هذا التحول قابل للقياس بالفعل. فقد أظهر استطلاع عالمي أن 88% من المؤسسات تستخدم الذكاء الاصطناعي في وظيفة واحدة على الأقل من وظائفها التجارية، على الرغم من أن العديد منها لا يزال في المراحل الأولى من توسيع نطاق استخدامه بعد المراحل التجريبية.
يتغير سلوك البحث مع هذا التبني. توفر الملخصات التي يولدها الذكاء الاصطناعي وأدوات المحادثة بشكل متزايد إجابات مباشرة، مما يقلل الحاجة إلى النقر للوصول إلى المواقع المصدرية.
تُظهر دراسات حول ملخصات الذكاء الاصطناعي من جوجل أن معدلات النقر العضوية قد تنخفض بنسبة تصل إلى 61% للاستعلامات التي تتضمن ملخصات مدعومة بالذكاء الاصطناعي مقارنةً بنتائج البحث التقليدية. بالإضافة إلى ذلك، تُشير الأبحاث إلى أنه عندما يصادف المستخدمون ملخصًا مدعومًا بالذكاء الاصطناعي، فإنهم ينقرون على روابط نتائج البحث التقليدية في حوالي 8% فقط من الزيارات، مقارنةً بنسبة 15% عندما لا يظهر أي ملخص.
تُظهر أطر البحث والتسويق أنه مع تزايد دور الذكاء الاصطناعي في عمليات البحث والاكتشاف، يجب على المؤسسات التركيز بشكل أقل على التصنيفات وأكثر على مدى وضوح واتساق تفسيرها وموثوقيتها من قبل الأنظمة الآلية.
على الرغم من ذلك، لا تزال العديد من فرق القيادة تنظر إلى الذكاء الاصطناعي في المقام الأول كأداة لزيادة الإنتاجية، بينما يغفل عنه عدد أقل باعتباره قضية تتعلق بالاكتشاف والحوكمة. وتؤثر أنظمة الذكاء الاصطناعي بالفعل على تحديد المنظمات التي يتم الاستشهاد بها أو الوثوق بها أو استبعادها في نقاط اتخاذ القرارات الرئيسية.
يُؤدي هذا إلى فجوة متزايدة بين التبني والتحكم. تستخدم الشركات الذكاء الاصطناعي على نطاق واسع، بينما تفقد في الوقت نفسه القدرة على رؤية كيفية تمثيلها وتقييمها من قِبل الآلات التي تعمل كوسيط.
أصبح الذكاء الاصطناعي واجهة، وليس أداة.
أصبح الذكاء الاصطناعي الآن وسيطاً في كيفية الوصول إلى المعلومات وتفسيرها والتصرف بناءً عليها.
لم يعد المستخدمون يتنقلون عبر واجهات مصممة حصرياً من قبل المؤسسات، بل أصبحوا يتفاعلون بشكل متزايد مع أنظمة الذكاء الاصطناعي التي تلخص المصادر، وترتب مدى صلتها بالموضوع، وتقدم إجابات مباشرة. لم يعد هذا الأمر تجريبياً.
تؤكد OpenAI أن ChatGPT يستخدم عالميًا في سياقات المستهلكين والمؤسسات، بينما قامت Google بدمج الملخصات التي تم إنشاؤها بواسطة الذكاء الاصطناعي مباشرة في تجربة البحث الأساسية الخاصة بها من خلال نظرة عامة على الذكاء الاصطناعي، مما يغير طريقة استهلاك المعلومات على نطاق واسع.
ونتيجةً لذلك، بات الاكتشاف يتم بشكل متزايد داخل أنظمة الذكاء الاصطناعي بدلاً من المنصات المملوكة. لا تزال المواقع الإلكترونية تُفهرس، لكنها لم تعد الوجهة الأساسية، بل أصبحت بمثابة مصادر للمعلومات. تقوم أدوات الذكاء الاصطناعي باستخراج المعلومات وضغطها وإعادة صياغتها قبل أن يراها الإنسان.
يُغيّر هذا التحوّل آلية التحكم. فالمؤسسات لا تُقرر كيفية تلخيص محتواها، أو الحقائق التي يتم التركيز عليها، أو المنافسين الذين يظهرون بجانبها. تُتخذ هذه القرارات في المراحل الأولى، داخل أنظمة مصممة لإعطاء الأولوية للوضوح والمصداقية بدلاً من أهداف العلامة التجارية.
عندما يصبح الذكاء الاصطناعي هو الواجهة، فإن الظهور لا يعتمد على النقر بقدر ما يعتمد على الاختيار. عملية الاختيار هذه مؤتمتة ومستمرة، وتعمل سواء كانت المؤسسات مستعدة لها أم لا.
من الناحية العملية، هذا يعني أن الشركات يمكنها الحفاظ على مواقع ويب قوية، وتصنيفات بحث تقليدية عالية، ورسائل متسقة، مع فقدان التأثير في اللحظات التي يتم فيها اتخاذ القرارات.
أصبحت الرؤية الآن مسألة حوكمة، وليست مسألة تسويق.
يؤدي الاكتشاف المدعوم بالذكاء الاصطناعي إلى تحويل المسؤولية من التحسين إلى الإشراف.
عندما تقوم أنظمة الذكاء الاصطناعي بتلخيص المعلومات أو التوصية بالموردين، فإنها تعمل نيابةً عن المؤسسة دون إشراف مباشر. وهذا يخلق مشكلة في الحوكمة. تُتخذ القرارات بشأن ما هو دقيق أو ذو صلة أو جدير بالثقة تلقائيًا، ومع ذلك تقع عواقبها على عاتق الشركة التي تمثلها.
يظهر هذا التحول جلياً في واجهات البحث. ففي دراسة مقارنة أجرتها Semrush ، أظهر وضع الذكاء الاصطناعي من جوجل تداخلاً بنسبة 35% تقريباً في عناوين URL مع نتائج البحث التقليدية، مما يشير إلى أن الأداء العضوي القوي لا يضمن بالضرورة الظهور في الإجابات التي يُنشئها الذكاء الاصطناعي.
يُعزز سلوك النقر النمط نفسه. فبينما كانت نسبة عمليات البحث على جوجل التي لم تتطلب نقرًا تتجاوز 50% بقليل في عام 2019، وجدت العديد من الدراسات الحديثة أن هذه النسبة قد ارتفعت تدريجيًا، حيث وجدت بعضها أن 58.5% من عمليات البحث على جوجل في الولايات المتحدة و59.7% في الاتحاد الأوروبي انتهت دون نقر. وعند ظهور ملخصات الذكاء الاصطناعي، يزداد ميل المستخدمين للبقاء على صفحة النتائج.
لا تُقيّم هذه الأنظمة العلامات التجارية بالطريقة التي يُقيّمها بها الأفراد. فهي تُعطي الأولوية للوضوح والاتساق ومؤشرات الثقة التي يُمكن معالجتها على نطاق واسع. أما إذا كانت المعلومات مُجزأة أو قديمة أو غامضة، فمن غير المرجح أن تظهر، بغض النظر عن أهميتها التجارية.
لهذا السبب، لم يعد بالإمكان اعتبار الشفافية شأناً خاصاً بالقنوات فقط، بل أصبحت جزءاً لا يتجزأ من إدارة المخاطر والامتثال والمساءلة. تُشكّل أنظمة الذكاء الاصطناعي بشكل متزايد كيفية إدراك المؤسسات، ومع ذلك، لم تُحدّد سوى قلة من الشركات الجهة المسؤولة عن هذا التصور أو كيفية تحديد الأخطاء وتصحيحها.
بدون حوكمة، تخاطر الشركات بفقدان نفوذها تدريجياً. ليس لأن منتجاتها وخدماتها أضعف، بل لأن الآلات لا تستطيع تفسيرها بشكل موثوق.
يؤدي تبني الذكاء الاصطناعي إلى خلق تكاليف خفية تتعلق بالإنتاجية والمخاطر
يؤدي تبني الذكاء الاصطناعي إلى زيادة سرعة الإنتاج، ولكنه يزيد أيضًا من عمليات المراجعة والتصحيح والتعرض التشغيلي.
تقيس معظم المؤسسات نجاح الذكاء الاصطناعي من خلال الإنتاجية. بينما لا يقيس سوى عدد قليل منها الجهد البشري المطلوب للتحقق من صحة مخرجات الذكاء الاصطناعي قبل استخدامها بأمان. تستطيع الأنظمة التوليدية إنتاج استجابات تبدو كاملة حتى وإن كانت ناقصة أو خاطئة، مما يُلقي بالمسؤولية على عاتق الأشخاص الذين يتلقون البيانات لاحقًا.
بدأت هذه التكلفة تظهر في الأبحاث. تشير التقارير المتعلقة بعمل معهد ماساتشوستس للتكنولوجيا إلى أن الاعتماد على أدوات الذكاء الاصطناعي أثناء مهام الكتابة يمكن أن يقلل من تفاعل الدماغ والأداء، مما يعزز الحاجة إلى الحكم البشري بدلاً من استبداله.
على المستوى التنظيمي، يظهر النمط نفسه. تُبرز أبحاث كلية هارفارد للأعمال حول الذكاء الاصطناعي التوليدي وعمليات العمل كيف يُغير الذكاء الاصطناعي تنفيذ المهام وتوزيع العمل، مما قد يُضيف متطلبات إضافية للتنسيق والمراجعة اعتمادًا على كيفية تنظيم الفرق للمسؤولية والإشراف.
يتفاقم الخطر مع انتشار استخدام الذكاء الاصطناعي في مختلف الوظائف. فالأخطاء التي كان من الممكن احتواؤها سابقاً، باتت الآن تنتشر عبر المستندات والاتصالات وسير العمل قبل اكتشافها.
ليست هذه مشكلة تتعلق بالأدوات، بل بنموذج التشغيل. فبدون حدود واضحة، وعمليات مراجعة، ومساءلة، يؤدي الذكاء الاصطناعي إلى تغيير العمل بدلاً من إلغائه، مما يزيد من المخاطر القانونية والسمعة والتشغيلية.
لا يتحقق وعد الذكاء الاصطناعي بالإنتاجية إلا عندما تحدد المؤسسات أين يمكن الوثوق بالذكاء الاصطناعي، وأين لا يمكن الوثوق به، ومتى يكون التدخل البشري إلزاميًا.
انتقلت المسؤولية من البائعين إلى المنظمات التي تستخدم الذكاء الاصطناعي
تتحمل المؤسسات الآن مخاطر كيفية تصرف الذكاء الاصطناعي نيابة عنها.
يُسوّق معظم مُورّدي الذكاء الاصطناعي أدواتهم كمساعدين لا كصانعي قرارات. عمليًا، تُدمج الشركات هذه الأنظمة في سير العمل الذي يؤثر على التسعير والتوصيات والاتصالات وتفاعلات العملاء. وعند حدوث أخطاء، نادرًا ما تقع المسؤولية على مُزوّد النموذج، بل على المؤسسة التي اختارت نشر النظام.
يتضح هذا التحول أكثر فأكثر مع توسع نطاق استخدام أنظمة الذكاء الاصطناعي وأدوات اتخاذ القرارات الآلية. ويركز المنظمون والمحاكم بشكل متزايد على النتائج بدلاً من النوايا، لا سيما في مجالات مثل حماية المستهلك، ودقة البيانات، والمعلومات المضللة. في البيئات عالية المخاطر، لم يعد السؤال هو ما إذا كان الذكاء الاصطناعي قد ارتكب خطأً، بل لماذا لم تكن هناك ضمانات كافية.
تُجسّد حالات واقعية هذا الخطر. فقد ثبت بالفعل أن أنظمة الذكاء الاصطناعي قادرة على توليد أسعار غير صحيحة، ومعلومات مضللة حول السياسات، وتوجيهات غير دقيقة للعملاء. وعندما تتكرر هذه الأخطاء قبل اكتشافها، يتضاعف الخطر. خطأ واحد يتحول إلى مئات الأخطاء.
لهذا السبب، لم يعد تصميم الأنظمة بمشاركة العنصر البشري خيارًا. يجب على المؤسسات تحديد حدود الأتمتة، وبداية تصعيد المشكلات، ومن يملك القرار النهائي. فبدون هذا الوضوح، يتحول الذكاء الاصطناعي إلى عبء إضافي بدلًا من أن يكون مكسبًا للكفاءة.
والنتيجة العملية بسيطة. إن نشر الذكاء الاصطناعي هو قرار إداري. ويتطلب نفس مستوى الرقابة الذي يتطلبه أي نظام يمكنه التأثير على الإيرادات أو السمعة أو الامتثال.
ماذا يعني الاكتشاف المدعوم بالذكاء الاصطناعي بالنسبة للمساءلة التنظيمية؟
لا يُضيف الذكاء الاصطناعي مخاطر جديدة، بل يكشف عن ثغرات موجودة في الحوكمة والشفافية والمساءلة.
مع استبدال أنظمة الذكاء الاصطناعي للواجهات التقليدية، لم تعد المؤسسات تُكتشف فقط عبر مواقعها الإلكترونية أو تصنيفاتها أو حملاتها الإعلانية. بل تُفسَّر وتُلخَّص وتُوصَف بواسطة آلات تُعطي الأولوية للوضوح ومؤشرات الثقة والاتساق. وعندما تكون هذه المؤشرات ضعيفة أو غير مُدارة، يتراجع الظهور والتأثير تدريجيًا.
يتغير سلوك البحث. وتخضع عملية اتخاذ القرار للوساطة. وتنتقل المسؤولية إلى المؤسسات التي تستخدم الذكاء الاصطناعي، لا إلى الشركات المصنعة له. وتتحقق مكاسب في الإنتاجية، ولكن فقط عندما تكون الضوابط والتدريب والملكية محددة بوضوح.
بالنسبة للقادة، سيكون التحدي الأكبر في عام 2026 هو تتبع كيفية تمثيل الذكاء الاصطناعي لمؤسساتهم، وأين يتم الوثوق به، ومن يتحمل المسؤولية عندما يخطئ.
لا يُلغي الذكاء الاصطناعي المسؤولية، بل يُعيد توزيعها.
الصورة الرئيسية: المؤلف
تنويه من بنزينغا: هذا المقال من مساهم خارجي غير مدفوع الأجر. ولا يمثل تقارير بنزينغا، ولم يتم تحريره من حيث المحتوى أو دقته.
