3 مفاهيم خاطئة شائعة عن الذكاء الاصطناعي في 2025: لماذا حان وقت تجاوزها؟

في 2025 انتشرت تصورات مضللة عن الذكاء الاصطناعي: هل وصلت النماذج إلى سقفها؟ هل السيارات ذاتية القيادة أخطر؟ وهل يعجز الذكاء عن ابتكار معرفة جديدة؟

Ad
دماغ رقمي يرمز للذكاء الاصطناعي تحيط به أيقونات لبيانات مشوشة ورموز استفهام، تمثل المفاهيم الخاطئة.
حان وقت تجاوز المفاهيم الخاطئة عن الذكاء الاصطناعي.
جدول المحتويات

في 2025، تسارعت وتيرة تبنّي الذكاء الاصطناعي في العمل والتعليم والخدمات، ومعها تضخّمت أسئلة الناس وحيرتهم: هل تتوقف قفزة النماذج فجأة؟ وهل تصبح بعض تطبيقات الذكاء الاصطناعي—مثل القيادة الذاتية—تهديداً مباشراً للسلامة؟ وهل ما يفعله الذكاء الاصطناعي “نسخ ذكي” فحسب، أم يمكنه فعلاً إنتاج معرفة جديدة؟

هذه الأسئلة مفهومة، لأن الذكاء الاصطناعي يتقدّم بسرعة غير متساوية: قد يبهرنا في مهمة معقّدة، ثم يتعثّر في تفاصيل بسيطة. كما أن التغطية الإعلامية والتفاعل على المنصات الاجتماعية غالباً ما يلتقطان لحظات الفشل أو المبالغة أكثر من الأداء اليومي الحقيقي. لكن وسط الضجيج، برزت ثلاث أفكار شائعة في 2025 تستحق المراجعة، لأنها لا تشرح الواقع بدقة وقد تقود إلى استنتاجات خاطئة بشأن مستقبل التقنية وكيفية التعامل معها.

1) “نماذج الذكاء الاصطناعي وصلت إلى حائط مسدود”

بعد إطلاق GPT-5 في مايو، عاد السؤال القديم للواجهة: هل وصل تطور النماذج إلى سقفه؟ كثيرون لاحظوا أن التحسن يبدو “تدريجياً” لا ثورياً، خصوصاً مع توقعات عامة تبحث عن قفزات دراماتيكية كل مرة. وفي هذا السياق، ذهبت بعض القراءات إلى أن تقدم نماذج اللغة الكبيرة قد “توقف” أو “تعثّر”، بل وظهر نقاش علني يتساءل عما إذا كان الذكاء الاصطناعي لن يصبح أفضل بكثير مما هو عليه الآن، كما ورد في مقال لدى The New Yorker، فيما أشار تعليق لدى Substack إلى الشكوك المتكررة حول كل إصدار جديد.

لكن القراءة الأدق لما حدث لاحقاً، أن تسمية GPT-5 لم تكن بالضرورة وعداً بقفزة نوعية فورية في كل المقاييس، بقدر ما كانت خطوة لرفع الكفاءة وتقديم أداء قوي بتكلفة أقل. وقد أشار تحليل لدى Epoch AI إلى أن GPT-5 اعتمد تدريباً بحوسبة أقل من GPT-4.5، في إشارة إلى أن تحسين “الاقتصاديات” قد يكون جزءاً رئيسياً من الابتكار، لا مجرد زيادة الحجم بلا حدود.

والأهم أن الشهور التالية شهدت إطلاق نماذج من OpenAI وGoogle وAnthropic أظهرت تقدماً ملموساً في مهام ذات قيمة اقتصادية. هذا النوع من التقدم قد لا يبدو مثيراً على شكل “حكاية واحدة” أو ميزة استعراضية، لكنه يظهر في نتائج التقييمات والمسابقات وقدرات الإنجاز في سيناريوهات واقعية. وتُظهر لوحة الترتيب الخاصة بتقييمات OpenAI تقدماً على مهام ذات قيمة اقتصادية عبر GDPval leaderboard، ما يدعم فكرة أن التحسّن مستمر وليس متوقفاً.

حتى داخل الشركات المطوِّرة، ظهرت رسائل صريحة تنفي مقولة “انتهى التوسّع” أو “لا مزيد من المكاسب”. فبعد إطلاق Gemini 3، كتب Oriol Vinyals، قائد فريق التعلّم العميق في Google DeepMind، عبر منشور أن قفزة الأداء في أحدث نموذج من Google كانت “بقدر ما رأيناه على الإطلاق”، وأنه “لا توجد جدران في الأفق”.

لماذا يبدو للبعض أن التقدم تباطأ؟

هناك أسباب تجعل الانطباع الشعبي يميل إلى فكرة “الحائط” حتى لو لم تكن دقيقة:

  • توقعات مبالغ فيها: جزء من الجمهور يتوقع أن يتحول كل إصدار إلى “ذكاء عام” أو قفزة شاملة، بينما الواقع أن التحسينات غالباً موزّعة على جودة، وتكلفة، وموثوقية، وسرعة.
  • تحسين الكلفة لا يلمع إعلامياً: عندما تتحسن كفاءة النموذج وتكلفة تشغيله، يكون الأثر عظيماً للأعمال والمنتجات لكنه أقل إثارة للعناوين.
  • تفاوت الأداء حسب المجال: في مجالات يكون فيها جمع البيانات مكلفاً أو محدوداً—مثل نشر وكلاء ذكاء اصطناعي ليعملوا “كمتسوقين شخصيين”—قد يكون التقدم أبطأ بطبيعته.

بعبارة أخرى: من المشروع التساؤل عن “كيف” سيتحسن الذكاء الاصطناعي لاحقاً، لكن من الصعب تبرير أن التقدم توقف فعلاً. وقد لخّصت Helen Toner، المديرة التنفيذية المؤقتة في Center for Security and Emerging Technology، هذه الصورة المركّبة في طرح يقول إن الذكاء الاصطناعي قد يستمر في التحسن “وفي الوقت نفسه” يظل ضعيفاً في جوانب مهمة—وهذا لا يعني الوصول إلى سقف، بل يعني أن التحسن ليس خطياً ولا متجانساً.

2) “السيارات ذاتية القيادة أخطر من السائقين البشر”

الخوف من القيادة الذاتية يتغذى من فرق جوهري بين أخطاء الدردشة الآلية وأخطاء المركبات: عندما يخطئ روبوت محادثة، قد تكون النتيجة واجباً منزلياً غير دقيقاً أو إجابة تافهة خاطئة—مثل الإخفاق في عدّ عدد أحرف “r” في كلمة “strawberry”، كما عرض مثال لدى Inc.. أما حين يخطئ نظام قيادة ذاتية، فقد تكون العواقب قاتلة، كما تذكّر تقارير عن حوادث مرتبطة بروبوتاكسي، بما في ذلك واقعة تناولتها CBS News.

هذا الفارق يجعل تقبّل الجمهور أبطأ وأكثر حساسية. في المملكة المتحدة، أظهر استطلاع شمل 2,000 بالغ أن 22% فقط يشعرون بالراحة عند السفر في سيارة دون سائق. وفي الولايات المتحدة، كانت النسبة 13% وفق بيانات منشورة من AAA. وزادت المخاوف أيضاً بعد حادثة في أكتوبر أفاد تقرير بأنها تسببت بمقتل قطة في سان فرانسيسكو على يد مركبة Waymo، بحسب SF Standard.

لكن من المهم التمييز بين “الخوف المفهوم” و”الاستنتاج الإحصائي”. فوجود حادث أو سلسلة حوادث لا يكفي وحده لتقرير أن القيادة الذاتية أخطر من البشر على نطاق واسع. عند النظر إلى البيانات على مسافات كبيرة، تظهر صورة أكثر تعقيداً. إذ أشار تحليل لبيانات عن 100 مليون ميل قيادة ذاتية من Waymo إلى أن سيارات الشركة كانت متورطة في حوادث تسبب إصابة أقل بنحو خمس مرات مقارنةً بالسائقين البشر، وبحوادث أقل بـ 11 مرة في فئة “إصابة خطيرة أو أسوأ”، وفق تحليل لدى The New York Times.

كيف نفهم مفارقة “الخطر” هنا؟

قد يبدو الأمر متناقضاً: كيف تكون التقنية “تبدو أخطر” بينما تشير بعض البيانات إلى أنها “أكثر أماناً” في سياقات معينة؟ التفسير يرتبط بثلاث نقاط:

  • حساسية المخاطر: المجتمع يتسامح مع أخطاء البشر (لأنها مألوفة)، لكنه يرفض أخطاء الآلة (لأنها تُقرأ كفشل نظامي).
  • التغطية الانتقائية: الحوادث النادرة للقيادة الذاتية تحظى بتغطية واسعة، بينما ملايين الأميال “الآمنة” لا تتحول إلى خبر.
  • السياق التشغيلي: مستوى الأمان قد يختلف حسب المدينة، والطقس، ونوع الطرق، والسياسات التنظيمية، ومدى نضج النظام.

الخلاصة العملية ليست أن “السيارات ذاتية القيادة آمنة دائماً”، ولا أنها “خطرة دائماً”، بل أن الحكم يحتاج إلى بيانات كبيرة ومعايير مقارنة واضحة، لا إلى الانطباعات وحدها.

3) “الذكاء الاصطناعي لا يستطيع خلق معرفة جديدة”

من أكثر الاعتراضات تكراراً على نماذج اللغة الكبيرة أنها لا “تفكر” ولا “تبتكر”، وإنما تعيد تركيب ما تدربت عليه فقط. لهذا ظهرت تسمية ساخرة تصفها بأنها “ببغاوات احتمالية” (stochastic parrots)، في إشارة إلى ورقة علمية متاحة عبر ACM. وفي يونيو، نشرت Apple ورقة بحثية تذهب إلى أن أي قدرة استدلالية لدى نماذج اللغة الكبيرة هي “وهم”، وذلك في بحث بعنوان يوحي بهذه الفكرة.

ومع ذلك، تظهر حالات يصعب معها الاكتفاء بتفسير “النسخ” البسيط، خصوصاً عندما ينتج النموذج مسارات حلّ أو علاقات رياضية غير مطروقة. يروي عالم الرياضيات Sébastien Bubeck—الذي نشر في 2013 ورقة في مجلة مرموقة حول نظرية الرسوم البيانية—أنه ترك مع الورقة أسئلة مفتوحة وعمل عليها مع طلاب دراسات عليا في Princeton، وتمكنوا من حل معظمها باستثناء مسألة واحدة. وبعد أكثر من عقد، سلّم هذه المسألة لنظام مبني فوق GPT-5. يقول: “تركناه يفكر لمدة يومين… كان هناك تطابق/هوية (identity) مذهلة وجدها النموذج، وقد حلّت المشكلة بالفعل.”

هذا المثال لا يعني أن النماذج أصبحت “عقولاً بشرية” أو أن آلياتها مطابقة لطريقة تفكير الإنسان. بل العكس: هناك اختلافات جوهرية في كيفية إنتاج الإجابة. وتوضح أبحاث مثل عمل Anthropic حول تتبع الأفكار في نماذج اللغة أن ما يجري داخل النموذج يختلف عن الاستدلال البشري، كما في هذا البحث. كما أنها تفشل أحياناً في مهام بسيطة مثل تفسير رسوم تخطيطية، وقد أُشير إلى حالات فشل من هذا النوع في أمثلة متداولة.

لكن من اللافت أن هذا التعثر في “السهل” لا يمنعها من تحقيق إنجازات في “الصعب”: فقد أشارت Google DeepMind إلى إنجاز معيار “الميدالية الذهبية” في الأولمبياد الدولي للرياضيات عبر إعلان رسمي، كما وردت إشارات إلى منافسات برمجة من مستوى عالمي عبر ICPC. وظهرت أيضاً تقارير بحثية تتحدث عن “اكتشاف” تراكيب رياضية جديدة بشكل “ذاتي” في ورقة على arXiv.

هل هذا “تفكير” أم شيء آخر؟

النقاش هنا غالباً لغوي وفلسفي بقدر ما هو تقني: ما تعريف “الاستدلال”؟ وما الحد الأدنى لاعتبار إنتاج الفكرة “معرفة جديدة”؟ في هذا السياق، قال Dan Hendrycks، المدير التنفيذي لـ Center for AI Safety، إن نماذج اللغة الكبيرة قادرة على تنفيذ تسلسلات من الخطوات المنطقية لحل مسائل تتطلب الاستنباط والاستقراء، مضيفاً أن مسألة تسمية ذلك “تفكيراً” أو غيره تعود إلى تعريف الشخص وقاموسه.

النتيجة العملية للمستخدمين والمؤسسات أن التعامل مع النماذج بوصفها “غير قادرة على الإبداع مطلقاً” قد يحرمهم من فوائد حقيقية في البحث والاستكشاف وصياغة الفرضيات—مع ضرورة الإبقاء على أدوات التحقق والمراجعة، لأن القدرة على توليد فكرة لا تعني ضمان صحتها أو سلامتها.

الخلاصة

ثلاثة تصورات شاعت في 2025 لا تبدو دقيقة عند التدقيق: لا توجد أدلة قوية على أن نماذج الذكاء الاصطناعي “اصطدمت بحائط” بقدر ما تتغير طبيعة التحسين، والقيادة الذاتية ليست حكماً أنها أخطر من البشر عندما تُقاس على بيانات واسعة، كما أن نماذج اللغة—رغم اختلافها عن العقل البشري—قد تنتج حلولاً وأفكاراً نافعة ومعقدة يصعب وصفها بأنها “تكرار” فقط.


مقالات ذات صلة

نقلاً عن time.com: هذا المقال مُلخّص ومُعاد صياغته اعتماداً على التقرير الأصلي. راجع قسم المصادر:

المصادر

Ad