العائد على الاستثمار: هل يعاني نموذج أعمال الذكاء الاصطناعي من عيب قاتل؟: يواكيم كليمنت
مايكروسوفت MSFT | 373.46 | +1.11% |
ميتا بلاتفورمس META | 574.46 | -0.82% |
ألفابيت A GOOGL | 295.77 | -0.54% |
الآراء الواردة هنا هي آراء الكاتب، وهو خبير استراتيجي استثماري في شركة بانمور ليبروم.
بقلم يواكيم كليمنت
لندن، 1 أبريل (رويترز) - تُراهن مئات المليارات من الدولارات على افتراض أن الذكاء الاصطناعي سيكون موثوقاً به بما يكفي لأداء المهام بالغة الأهمية. وتشير أبحاث جديدة إلى أنه قد لا يكون كذلك أبداً.
تُعدّ أدوات الذكاء الاصطناعي التي تُشغّل ChatGPT ومنافسيها - والمعروفة بنماذج اللغة الكبيرة (LLMs) - ابتكارًا حقيقيًا يُحسّن الإنتاجية. لكنها تعاني من عيوب خطيرة، أبرزها ميلها إلى التخمين أو اختلاق الأمور .
تشير الأبحاث الجديدة حول هذه الظاهرة التي تمت دراستها على نطاق واسع إلى أن الهلوسة تحدث في كثير من الأحيان أكثر مما يدركه معظم الناس، وتزداد المشكلة سوءًا كلما زادت المعلومات التي تقدمها لنموذج الذكاء الاصطناعي للعمل بها.
تجربة جديدة تُظهر مدى خطورة المشكلة.
قام جيه في رويج ، الخبير في الذكاء الاصطناعي الوكيل في شركة كاميوازا للذكاء الاصطناعي الناشئة، باختبار نماذج التعلم المختلفة في بيئة خاضعة للرقابة.
أعطى كل نموذج نصًا إدخاليًا مكونًا من 32,000 أو 128,000 كلمة، أو 200,000 كلمة عند الإمكان. ثم طلب من النماذج الإجابة عن أسئلة حول هذه النصوص. ولأن مادة التدريب كانت معروفة مسبقًا، فقد تمكن من قياس عدد مرات ظهور الهلوسة لدى النماذج بدقة.
عند استخدام 32,000 كلمة، ارتكب أفضل نموذج أداء - وهو نموذج GLM 4.5 التابع لشركة Zhipu AI الصينية (2513.HK) - أخطاءً بنسبة 1.2% فقط، بينما بلغ المتوسط 6.8%. وعندما زاد حجم المدخلات إلى 128,000 كلمة، ارتفع معدل الخطأ في نموذج GLM 4.5 إلى 3.2%، بينما قفز المتوسط إلى 10%.

يُعدّ هذا معدل خطأ ذا دلالة بالنظر إلى المدخلات المحدودة نسبيًا. أما بالنسبة للنماذج التي سمحت بتدريب نصوص مكونة من 200,000 كلمة، فقد ارتفعت معدلات الهلوسة بشكل كبير. بل إن بعضها انهار تمامًا، حيث قدم إجابات وهمية في معظم الحالات.

بالطبع، في العالم الحقيقي، لا يتم تدريب نماذج التعلم الآلي على مجموعة محدودة نسبيًا من الكلمات، بل يتم تدريبها فعليًا على الإنترنت بأكمله، مما يعني أن الهلوسة من المحتمل أن تكون مشكلة أكبر في الواقع مما كانت عليه في هذه التجربة.
معطلة بالتصميم
لكن ألن يتم حل هذه المشكلة ببساطة مع تحسن التكنولوجيا؟ تشير الأدلة الحالية إلى أن الأمر قد لا يكون كذلك.
في ديسمبر، نشر فريق من جامعة تسينغهوا في بكين ورقة بحثية ترجع الهلوسة إلى جزء صغير - عادة أقل من 0.1٪ من الخلايا العصبية في LLM، وهي وحدات صنع القرار الأساسية التي تعالج المعلومات وتمرر الإشارات إلى الأمام، تمامًا مثل المفاتيح في الدائرة الكهربائية.
هذا خبر سار، أليس كذلك؟
في عالم مثالي، سيقوم المرء ببساطة بتحديد الخلايا العصبية المعيبة، وإزالتها، وإصلاح المشكلة.
للأسف، تشير الدراسة إلى أن هذا مستحيل. تتشكل الخلايا العصبية الإشكالية خلال التدريب الأولي للنموذج، وليس في مرحلة لاحقة أثناء عملية الضبط الدقيق.
يجادل مؤلفو الدراسة بأن هذه الخلايا العصبية الوهمية "تنشأ من الخصائص المتأصلة في هدف التنبؤ بالرمز التالي. لا يميز نموذج التدريب هذا بين الاستمرارات الصحيحة والخاطئة من الناحية الواقعية - إنه يكافئ ببساطة توليد النصوص بطلاقة".
كل هذه المصطلحات تعني أن نماذج التعلم القائمة على القانون هي نماذج احتمالية بطبيعتها، وليست حتمية. فهي تحاول تخمين الإجابة التي تبدو الأفضل، وليس الإجابة الصحيحة موضوعياً.
وهذه ليست مشكلة تحتاج إلى حل، بل هي أساسية لكيفية عمل هذه النماذج.
ثمن الخطأ
ينبغي أن تدفع هذه النتائج المستثمرين والمديرين التنفيذيين إلى التفكير ملياً - خاصة عندما يتعلق الأمر بضخ الكثير من الأموال في شركات إدارة التعلم والذكاء الاصطناعي التوليدي.
تقدم هذه النماذج نتائج "مناسبة إلى حد ما". في العديد من المهام اليومية، مثل تصميم حملة تسويقية أو كتابة التقارير الداخلية، قد يكون ذلك كافياً.
لكن في العديد من تطبيقات برامج الذكاء الاصطناعي الأكثر تطوراً، مثل المحاسبة والقانون، فإن "الصواب" هو نفسه الخطأ - وقد يعرض المستخدم لمخاطر قانونية ومالية كبيرة.
في الواقع، كشف تحقيق أجرته صحيفة نيويورك تايمز في مارس أن الحاصلين على درجة الماجستير في القانون والذين طُلب منهم ملء نماذج الضرائب الأمريكية قد ارتكبوا أخطاء خطيرة بما يكفي لتشكل تهربًا ضريبيًا، إن لم يكن احتيالًا ضريبيًا، في تدقيق أجرته مصلحة الضرائب الأمريكية.
وكانت هذه إقرارات ضريبية شخصية بسيطة نسبيًا. أما الإقرارات الضريبية للشركات فهي أكثر تعقيدًا بكثير. وبالتالي، فإن أي شركة تستخدم برامج إدارة الإقرارات الضريبية كبديل كامل لبرامج المحاسبة الاحترافية قد تُعرّض نفسها لمخاطر جسيمة. وينطبق الأمر نفسه على الأرجح على وظائف أخرى بالغة الأهمية، مثل إدارة المخاطر.
يمكن القول إن هذه النتائج تُظهر ببساطة أن نماذج الذكاء الاصطناعي ستظل بحاجة إلى إشراف بشري، وهو أمرٌ قد تتفق معه شركات الذكاء الاصطناعي. ولكن إذا تطلب الأمر الكثير من التدقيق والتصحيح، فقد يحتاج المستثمرون إلى إعادة النظر في جميع تلك التوقعات المتعلقة بتحقيق مكاسب هائلة في الكفاءة.
بالطبع، التكنولوجيا لا تتوقف عن التطور. يسعى القطاع إلى إيجاد حلول بديلة لمشكلة الهلوسة. ولكن يبدو أن هذه الحلول لا يمكن تطبيقها ضمن نماذج التعلم الآلي نفسها، بل تتطلب نهجًا جديدًا تمامًا، مثل ما يُسمى بـ"نماذج العالم"، التي تستند إلى شكل من أشكال "فهم" المهمة المطروحة. ومن المرجح أن يستغرق تطوير هذه النماذج سنوات.
مضغوط من كلا الجانبين
في نهاية المطاف، عندما يتعلق الأمر بالغالبية العظمى من مهام الأعمال اليومية التي لا تتطلب موثوقية كاملة، فإن أنظمة إدارة التعلم المتاحة، بما في ذلك الخيارات منخفضة التكلفة مثل DeepSeek و META.O Llama وGLM و 9988.HK Qwen التابعة لشركة Alibaba، يمكن أن تعمل بشكل جيد.
هذا خبر سار للمستهلكين، لكن ليس بالضرورة لشركات مثل أنثروبيك، وأوبن إيه آي، وألفابت (GOOGL.O) التي تقف وراء نماذج التعلم الآلي باهظة الثمن. إذا كان بإمكانك الحصول على ما تحتاجه من نموذج منخفض التكلفة، أو حتى مجاني، فلماذا تدفع مقابل خيار متقدم إذا لم تتمكن من تحقيق مستوى الدقة المطلوب للمهام الأكثر تعقيدًا؟
مع أنه لا ينبغي استبعاد إمكانية تحقيق اختراقات تكنولوجية بشكل كامل، إلا أن نتائج هذه الدراسات قد تُثير قلق مؤيدي الذكاء الاصطناعي. فقد تبقى التطبيقات الأكثر ربحية للذكاء الاصطناعي منخفض التكلفة بعيدة المنال، حتى مع ظهور منافسة أرخص في هذا المجال.
بالنسبة للعديد من نماذج أعمال الذكاء الاصطناعي، لا تُعد هذه مجرد مشكلة تقنية، بل مشكلة وجودية محتملة.
(الآراء الواردة هنا هي آراء يواكيم كليمنت ، وهو خبير استراتيجي استثماري في شركة بانمور ليبروم.)
هل أعجبك هذا المقال؟ اطلع على رويترز أوبن إنترست (ROI)، مصدرك الجديد والأساسي للتحليلات المالية العالمية. تابع ROI على لينكدإن، و X.
استمعوا إلى بودكاست "Morning Bid" اليومي على Apple أو Spotify أو تطبيق Reuters . اشتركوا لتستمعوا إلى صحفيي رويترز وهم يناقشون أهم الأخبار في الأسواق والتمويل طوال أيام الأسبوع.
