رؤى المستقبل

الذكاء الاصطناعي: من محركات المنطق إلى محركات الهراء؟ تحليل تاريخي ونقدي

AI
رؤى الذكاء والمستقبل
· · 3 دقائق قراءة
الذكاء الاصطناعي: من محركات المنطق إلى محركات الهراء؟ تحليل تاريخي ونقدي

لقد كانت رحلة صعود الذكاء الاصطناعي رحلة مليئة بالتقلبات، تميزت بفترات من الضجيج المكثف وخيبة الأمل اللاحقة. تتناول هذه المدونة، بناءً على تحليل توماس هايغ، تاريخ الذكاء الاصطناعي، وتقارن بين مناهجه الرمزية السابقة والنموذج الحالي للتعلم الآلي، وتفحص بشكل نقدي الآثار المترتبة على الارتفاع الأخير في الذكاء الاصطناعي التوليدي. وهي تتساءل عما إذا كان الذكاء الاصطناعي اليوم، وخاصة نماذج اللغة الكبيرة (LLMs) مثل ChatGPT، ذكيًا حقًا أم مجرد “محركات هراء” متطورة، وتستكشف القوى الدافعة وراء جنون الذكاء الاصطناعي المستمر.

منظور تاريخي: خيبات الأمل السابقة للذكاء الاصطناعي

ركزت الموجة الأولية من الذكاء الاصطناعي في منتصف القرن العشرين على الذكاء الاصطناعي الرمزي، بهدف إنشاء ذكاء شبيه بالذكاء البشري من خلال البرمجة الصريحة للمعرفة والقواعد. ومع ذلك، كافحت هذه الأنظمة للتوسع إلى ما هو أبعد من المشكلات النموذجية. وشملت خيبات الأمل الرئيسية ما يلي:

  • أنظمة الخبراء: على الرغم من الوعد الأولي في الثمانينيات، فشلت هذه الأنظمة في تحقيق إمكاناتها للتطبيق العملي على نطاق واسع.
  • مشروع Cyc: سلط هذا الجهد الطموح لترميز المعرفة المنطقية الضوء على قيود الذكاء الاصطناعي الرمزي.
  • IBM Watson: على الرغم من فوزه في برنامج Jeopardy!، ثبت أن تطبيق Watson في مجال الرعاية الصحية غير ناجح، مما كلف IBM مليارات الدولارات.

ثورة التعلم الآلي: عصر جديد من الذكاء الاصطناعي

شهدت العقد الأول من القرن الحادي والعشرين طفرة في التعلم الآلي، وخاصة التعلم العميق، وتجاوز التوقعات في مختلف المجالات:

  • DeepMind: استحوذت عليها Google، وحققت DeepMind إنجازات كبيرة مثل إتقان لعبة Go وإحراز تقدم كبير في طي البروتين، حتى أنها أدت إلى جوائز نوبل.
  • شبكات الخصومة التوليدية (GANs): مكّنت هذه الشبكات من إنشاء صور ومقاطع فيديو وموسيقى واقعية.
  • نماذج اللغة الكبيرة (LLMs): أظهرت نماذج مثل ChatGPT قدرات رائعة في إنشاء النصوص، مدفوعة بهندسة Transformer والتدريب المسبق على مجموعات بيانات ضخمة.

الذكاء الاصطناعي التوليدي: صعود “محركات الهراء”؟

على الرغم من أن الذكاء الاصطناعي التوليدي قد استحوذ على خيال الجمهور، إلا أن المؤلف يثير مخاوف بالغة بشأن قدراته الحقيقية:

  • الببغاوات العشوائية: توصف LLMs بأنها “ببغاوات عشوائية”، ببساطة تعيد إنتاج الأنماط من بيانات التدريب الخاصة بها دون فهم أو رؤية حقيقية.
  • التلفيق والتحيز: هذه النماذج عرضة لتوليد معلومات غير دقيقة أو مضللة وإدامة التحيزات الموجودة في بيانات التدريب الخاصة بها.
  • الأداء المضلل في مسائل المنطق: قد تبدو LLMs قادرة على حل مسائل المنطق ولكنها غالبًا ما تفشل عند تقديم إصدارات معدلة قليلاً، مما يكشف عن عدم وجود قدرة حقيقية على الاستدلال.

قطار الضجيج للذكاء الاصطناعي: الدوافع والعواقب

إن ازدهار الذكاء الاصطناعي الحالي مدفوع بما يلي:

  • العوامل الثقافية: يتردد صدى مصطلح “الذكاء الاصطناعي” لدى الجمهور بسبب وجوده في الثقافة الشعبية، على عكس المصطلحات التقنية الأخرى مثل “التعلم الآلي”.
  • تصريحات قادة التكنولوجيا: أدلى شخصيات مؤثرة مثل إيلون ماسك وسام ألتمان بتنبؤات جريئة حول الوصول الوشيك إلى الذكاء الاصطناعي العام (AGI)، مما زاد من تضخيم الضجيج.
  • الحوافز المالية: أدى حماس المستثمرين للذكاء الاصطناعي إلى ارتفاع أسعار الأسهم وتدفق استثمارات ضخمة إلى شركات الذكاء الاصطناعي.

تشمل العواقب المحتملة لهذا الضجيج ما يلي:

  • تضليل المستخدمين: يمكن أن يؤدي تصنيف LLMs على أنها ذكاء اصطناعي إلى المبالغة في تقدير قدراتها وثقة المستخدمين في مخرجاتها دون التحقق.
  • المخاوف الأخلاقية: يتم بالفعل استخدام التكنولوجيا في السرقة الأدبية والدعاية والمعلومات المضللة، مما يثير مخاوف أخلاقية.
  • الاضطرابات الاقتصادية: في حين أن التكنولوجيا لطالما أدت إلى إلغاء الوظائف، فإن الذكاء الاصطناعي التوليدي يحتمل أن يعطل المهن المكتبية، مما يتسبب في قلق بين المتضررين.

ما وراء الضجيج: منظور أكثر دقة

على الرغم من الجنون الحالي، لا يزال بعض الخبراء متشككين بشأن الطريق نحو AGI، بمن فيهم يان ليكان. يقترح المؤلف أنه في حين أن الذكاء الاصطناعي التوليدي قد لا يكون طريقًا إلى الذكاء الحقيقي، إلا أنه سرعان ما يصبح واجهة مستخدم حاسمة للعديد من الأنظمة الأساسية. في النهاية، يعد المنظور النقدي والدقيق أمرًا بالغ الأهمية للتنقل في المشهد المعقد للذكاء الاصطناعي الحديث.


المصدر: ACM Digital Library

مقالات ذات صلة

التعليقات

البريد لن يُنشر - يُستخدم للصورة الرمزية فقط

جاري تحميل التعليقات...