لقد كانت رحلة صعود الذكاء الاصطناعي رحلة مليئة بالتقلبات، تميزت بفترات من الضجيج المكثف وخيبة الأمل اللاحقة. تتناول هذه المدونة، بناءً على تحليل توماس هايغ، تاريخ الذكاء الاصطناعي، وتقارن بين مناهجه الرمزية السابقة والنموذج الحالي للتعلم الآلي، وتفحص بشكل نقدي الآثار المترتبة على الارتفاع الأخير في الذكاء الاصطناعي التوليدي. وهي تتساءل عما إذا كان الذكاء الاصطناعي اليوم، وخاصة نماذج اللغة الكبيرة (LLMs) مثل ChatGPT، ذكيًا حقًا أم مجرد “محركات هراء” متطورة، وتستكشف القوى الدافعة وراء جنون الذكاء الاصطناعي المستمر.
منظور تاريخي: خيبات الأمل السابقة للذكاء الاصطناعي
ركزت الموجة الأولية من الذكاء الاصطناعي في منتصف القرن العشرين على الذكاء الاصطناعي الرمزي، بهدف إنشاء ذكاء شبيه بالذكاء البشري من خلال البرمجة الصريحة للمعرفة والقواعد. ومع ذلك، كافحت هذه الأنظمة للتوسع إلى ما هو أبعد من المشكلات النموذجية. وشملت خيبات الأمل الرئيسية ما يلي:
- أنظمة الخبراء: على الرغم من الوعد الأولي في الثمانينيات، فشلت هذه الأنظمة في تحقيق إمكاناتها للتطبيق العملي على نطاق واسع.
- مشروع Cyc: سلط هذا الجهد الطموح لترميز المعرفة المنطقية الضوء على قيود الذكاء الاصطناعي الرمزي.
- IBM Watson: على الرغم من فوزه في برنامج Jeopardy!، ثبت أن تطبيق Watson في مجال الرعاية الصحية غير ناجح، مما كلف IBM مليارات الدولارات.
ثورة التعلم الآلي: عصر جديد من الذكاء الاصطناعي
شهدت العقد الأول من القرن الحادي والعشرين طفرة في التعلم الآلي، وخاصة التعلم العميق، وتجاوز التوقعات في مختلف المجالات:
- DeepMind: استحوذت عليها Google، وحققت DeepMind إنجازات كبيرة مثل إتقان لعبة Go وإحراز تقدم كبير في طي البروتين، حتى أنها أدت إلى جوائز نوبل.
- شبكات الخصومة التوليدية (GANs): مكّنت هذه الشبكات من إنشاء صور ومقاطع فيديو وموسيقى واقعية.
- نماذج اللغة الكبيرة (LLMs): أظهرت نماذج مثل ChatGPT قدرات رائعة في إنشاء النصوص، مدفوعة بهندسة Transformer والتدريب المسبق على مجموعات بيانات ضخمة.
الذكاء الاصطناعي التوليدي: صعود “محركات الهراء”؟
على الرغم من أن الذكاء الاصطناعي التوليدي قد استحوذ على خيال الجمهور، إلا أن المؤلف يثير مخاوف بالغة بشأن قدراته الحقيقية:
- الببغاوات العشوائية: توصف LLMs بأنها “ببغاوات عشوائية”، ببساطة تعيد إنتاج الأنماط من بيانات التدريب الخاصة بها دون فهم أو رؤية حقيقية.
- التلفيق والتحيز: هذه النماذج عرضة لتوليد معلومات غير دقيقة أو مضللة وإدامة التحيزات الموجودة في بيانات التدريب الخاصة بها.
- الأداء المضلل في مسائل المنطق: قد تبدو LLMs قادرة على حل مسائل المنطق ولكنها غالبًا ما تفشل عند تقديم إصدارات معدلة قليلاً، مما يكشف عن عدم وجود قدرة حقيقية على الاستدلال.
قطار الضجيج للذكاء الاصطناعي: الدوافع والعواقب
إن ازدهار الذكاء الاصطناعي الحالي مدفوع بما يلي:
- العوامل الثقافية: يتردد صدى مصطلح “الذكاء الاصطناعي” لدى الجمهور بسبب وجوده في الثقافة الشعبية، على عكس المصطلحات التقنية الأخرى مثل “التعلم الآلي”.
- تصريحات قادة التكنولوجيا: أدلى شخصيات مؤثرة مثل إيلون ماسك وسام ألتمان بتنبؤات جريئة حول الوصول الوشيك إلى الذكاء الاصطناعي العام (AGI)، مما زاد من تضخيم الضجيج.
- الحوافز المالية: أدى حماس المستثمرين للذكاء الاصطناعي إلى ارتفاع أسعار الأسهم وتدفق استثمارات ضخمة إلى شركات الذكاء الاصطناعي.
تشمل العواقب المحتملة لهذا الضجيج ما يلي:
- تضليل المستخدمين: يمكن أن يؤدي تصنيف LLMs على أنها ذكاء اصطناعي إلى المبالغة في تقدير قدراتها وثقة المستخدمين في مخرجاتها دون التحقق.
- المخاوف الأخلاقية: يتم بالفعل استخدام التكنولوجيا في السرقة الأدبية والدعاية والمعلومات المضللة، مما يثير مخاوف أخلاقية.
- الاضطرابات الاقتصادية: في حين أن التكنولوجيا لطالما أدت إلى إلغاء الوظائف، فإن الذكاء الاصطناعي التوليدي يحتمل أن يعطل المهن المكتبية، مما يتسبب في قلق بين المتضررين.
ما وراء الضجيج: منظور أكثر دقة
على الرغم من الجنون الحالي، لا يزال بعض الخبراء متشككين بشأن الطريق نحو AGI، بمن فيهم يان ليكان. يقترح المؤلف أنه في حين أن الذكاء الاصطناعي التوليدي قد لا يكون طريقًا إلى الذكاء الحقيقي، إلا أنه سرعان ما يصبح واجهة مستخدم حاسمة للعديد من الأنظمة الأساسية. في النهاية، يعد المنظور النقدي والدقيق أمرًا بالغ الأهمية للتنقل في المشهد المعقد للذكاء الاصطناعي الحديث.
المصدر: ACM Digital Library
The rise of Artificial Intelligence (AI) has been a rollercoaster ride, marked by periods of intense hype and subsequent disappointment. This blog post, based on Thomas Haigh’s analysis, delves into the history of AI, contrasting its earlier symbolic approaches with the current machine learning paradigm, and critically examining the implications of the recent surge in generative AI. It questions whether the AI of today, particularly large language models (LLMs) like ChatGPT, are truly intelligent or merely sophisticated “engines of bullshit,” and explores the driving forces behind the ongoing AI frenzy.
A Historical Perspective: AI’s Past Disappointments
The initial wave of AI in the mid-20th century focused on symbolic AI, aiming to create human-like intelligence through explicit programming of knowledge and rules. However, these systems struggled to scale beyond toy problems. Key disappointments included:
- Expert Systems: Despite initial promise in the 1980s, these systems failed to deliver on their potential for widespread practical application.
- Cyc Project: This ambitious effort to encode common-sense knowledge highlighted the limitations of symbolic AI.
- IBM Watson: Despite its victory on Jeopardy!, Watson’s application to healthcare proved unsuccessful, costing IBM billions.
The Machine Learning Revolution: A New Era of AI
The 2010s witnessed a breakthrough with machine learning, particularly deep learning, exceeding expectations in various fields:
- DeepMind: Acquired by Google, DeepMind achieved milestones such as mastering Go and making significant strides in protein folding, even leading to Nobel Prizes.
- Generative Adversarial Networks (GANs): These networks enabled the generation of realistic images, videos, and music.
- Large Language Models (LLMs): Models like ChatGPT demonstrated impressive text generation capabilities, driven by the Transformer architecture and pre-training on vast datasets.
Generative AI: The Rise of “Engines of Bullshit”?
While generative AI has captured the public’s imagination, the author raises critical concerns about its true capabilities:
- Stochastic Parrots: LLMs are described as “stochastic parrots,” merely reproducing patterns from their training data without genuine understanding or insight.
- Fabrication and Bias: These models are prone to generating inaccurate or misleading information and perpetuating biases present in their training data.
- Misleading Performance on Logic Problems: LLMs can appear to solve logic problems but often fail when presented with slightly modified versions, revealing a lack of true reasoning ability.
The AI Hype Train: Drivers and Consequences
The current AI boom is fueled by:
- Cultural Factors: The term “artificial intelligence” resonates with the public due to its presence in popular culture, unlike more technical terms like “machine learning.”
- Tech Leaders’ Pronouncements: Influential figures like Elon Musk and Sam Altman have made bold predictions about the imminent arrival of Artificial General Intelligence (AGI), further amplifying the hype.
- Financial Incentives: Investor enthusiasm for AI has driven up stock prices and led to massive investments in AI companies.
The potential consequences of this hype include:
- Misleading Users: Branding LLMs as AI can lead users to overestimate their capabilities and trust their output without verification.
- Ethical Concerns: The technology is already being used for plagiarism, propaganda, and misinformation, raising ethical concerns.
- Economic Disruptions: While technology has always eliminated jobs, generative AI is potentially disrupting white-collar professions, causing anxiety among those affected.
Beyond the Hype: A More Nuanced Perspective
Despite the current frenzy, some experts remain skeptical about the path towards AGI, including Yann LeCun. The author suggests that while generative AI may not be a path to true intelligence, it is rapidly becoming a crucial user interface for various underlying systems. Ultimately, a critical and nuanced perspective is crucial to navigating the complex landscape of modern AI.
Source: ACM Digital Library
جاري تحميل التعليقات...