الأحد, 15 يونيو 2025 11:45 PM

دراسة لأبل تكشف: هل نماذج الذكاء الاصطناعي "تفكر" حقاً أم تعتمد على الأنماط؟

دراسة لأبل تكشف: هل نماذج الذكاء الاصطناعي "تفكر" حقاً أم تعتمد على الأنماط؟

نشرت شركة "أبل" دراسة بحثية في يونيو 2025 تكشف أن نماذج الاستدلال المحاكى في الذكاء الاصطناعي، مثل Claude وDeepSeek-R1 وOpenAI o1/o3، تعتمد بشكل كبير على مطابقة الأنماط الموجودة في بيانات التدريب بدلاً من الاستدلال المنطقي الفعلي عند مواجهة تحديات جديدة.

قام الباحثون باختبار هذه النماذج باستخدام أربعة ألغاز كلاسيكية: برج هانوي، عبور النهر، القفز في لعبة الداما، وعالم المكعبات، مع زيادة مستوى الصعوبة تدريجياً. وأظهرت النتائج أن أداء النماذج يتدهور بشكل ملحوظ عند التعامل مع مسائل معقدة للغاية، على الرغم من أنها تنتج مخرجات تبدو وكأنها خطوات تفكير منطقية.

أظهرت النتائج أيضاً أن النماذج غالباً ما تفشل في تحقيق أداء جيد في المسائل التي تتطلب استدلالاً طويل الأمد، حتى عند تزويدها بخوارزميات الحل. ولم يتحسن الأداء بزيادة الوقت أو الموارد المتاحة. كما لوحظ سلوك غير متسق، حيث تتفوق النماذج في ألغاز معينة بينما تفشل في أخرى أبسط منها.

تشير الدراسة إلى أن التقييمات الحالية التي تركز على دقة الإجابة النهائية قد تكون مضللة بشأن قدرة النماذج على "التفكير". وتؤكد أن نماذج الاستدلال تظهر تحسناً فقط في المهام ذات التعقيد المتوسط، بينما تعجز عن التعامل مع المشكلات المعقدة بشكل منهجي.

على الرغم من أن الدراسة لا تنكر الفوائد العملية لهذه النماذج، إلا أنها تثير تساؤلات حول ما إذا كانت هذه الأساليب تمثل طريقاً نحو ذكاء اصطناعي عام، وتدعو إلى إعادة تقييم طرق تطوير واختبار نماذج الذكاء الاصطناعي فيما يتعلق بقدراتها الاستنتاجية الحقيقية.

أخبار سوريا الوطن١-وكالات-النهار

مشاركة المقال: