الذكاء الاصطناعي لا يفهم: كيف تحول التوقعات إلى وهم الفهم
⚡ التجربة المكتشفة (TL;DR)
LLMs لا تفهم المعنى، بل تحسب احتمالات الكلمة التالية. 'الفهم' وهم إسقاطي من المستخدم. التجربة تكشف النظام الخفي: Input→Probability Matrix→Token.
الذكاء الاصطناعي يفهم ما يقوله ويفكر مثلي.
LLMs لا تفهم — تحسب احتمالات الكلمة التالية فقط. 'الفهم' وهم إسقاطي من المستخدم.
تحدث مع ChatGPT، تشعر أنه يفهمك بل ويتعاطف. لكن الحقيقة: هو نظام إحصائي ضخم يحسب الكلمة الأكثر احتمالاً. في هذه التجربة، ستبني بنفسك نموذجاً مبسطاً لتتنبأ بالكلمة التالية، وتكتشف أين يكمن 'الفهم' الوهمي.
سنفكك النظام: Input (سياقك) → Process (مصفوفة احتمالات) → Output (كلمة). ثم نكشف الطبقات المخفية: Attention Mechanism وContext Window وRLHF. وأخيراً، ستتدخل لتغير النظام بأقل جهد.
💡 حقائق التجربة
- 1. LLM يتنبأ بالكلمة التالية فقط، لا يفهم المعنى.
- 2. آلية الانتباه (Attention) تقرر أي كلمات في السياق مهمة.
- 3. نافذة السياق (Context Window) تحدد المدى الذي 'يتذكره' النموذج.
- 4. RLHF يشكل سلوك النموذج عبر مكافآت بشرية.
- 5. كلما زادت معاملات النموذج، زادت دقة الاحتمالات لكن بدون فهم.
المشهد: أنا ذكي؟
تكتب للAI: 'أشعر بالحزن اليوم.' يرد: 'أتفهم شعورك. هل تريد التحدث؟' تشعر أنه يفهمك. لكن هل يفهم حقاً؟ أم أنه فقط ينتج رداً محتملاً؟
في هذه التجربة، سنكشف النظام الخفي وراء هذا 'الفهم' الوهمي.
⚡ تجربة: تنبؤ الكلمة التالية
في المربع أدناه، أكمل الجملة: 'السماء زرقاء لأن...' اضغط 'تشغيل' لترى كيف يتنبأ النموذج البسيط بالكلمة التالية بناءً على الاحتمالات.
// نموذج مبسط للتنبؤ بالكلمة التالية
const context = ['السماء', 'زرقاء', 'لأن'];
const probs = {
'السماء': {'زرقاء': 0.8, 'ممطرة': 0.2},
'زرقاء': {'لأن': 0.9, 'وجميلة': 0.1},
'لأن': {'الضوء': 0.7, 'الماء': 0.3}
};
function predictNext(context) {
const lastWord = context[context.length - 1];
const candidates = probs[lastWord];
if (!candidates) return '؟';
// اختر أعلى احتمال
const next = Object.keys(candidates).reduce((a, b) => candidates[a] > candidates[b] ? a : b);
return next;
}
console.log(predictNext(context)); // 'الضوء'👁 تشبيه: آلة توزيع الحلوى
تخيل آلة توزع حلوى حسب لون الزر الذي ضغطته. الزر الأزرق يعطي حلوى زرقاء بنسبة 80%، الزر الأحمر يعطي حمراء بنسبة 90%. الآلة لا 'تفهم' أنك تريد الحلوى الحمراء، فقط تطبق الاحتمالات. LLM مثل هذه الآلة: لا يفهم معنى كلماتك، فقط يطبق الاحتمالات المستفادة من التدريب.
🧠 ماذا حدث؟
النموذج البسيط لم 'يفهم' أن السماء زرقاء بسبب تشتت رايلي. فقط تعلم أن بعد 'لأن' غالباً ما تأتي 'الضوء'. LLM الحقيقي يفعل نفس الشيء على نطاق هائل مع مليارات المعاملات.
الطبقات المخفية:
- Decision Layer: Attention Mechanism يقرر أي كلمات في السياق مهمة
- Memory Layer: Context Window (مثلاً 4096 كلمة) يحدد المدى
- Feedback Loop: RLHF يعيد تشكيل الاحتمالات بناءً على تفضيلات البشر
🔁 جرب بنفسك
عدّل السياق في الكود أعلن لترى كيف يتغير التنبؤ. مثلاً: غير 'لأن' إلى 'وجميلة' ثم اضغط تشغيل. ماذا تتوقع؟
الآن فكر: هل النموذج 'يعرف' أن السماء زرقاء؟ أم فقط يحسب احتمالات؟
❓ سؤال: إذا كان النموذج لا يفهم، فلماذا تبدو ردوده ذكية؟
اختبر فهمك
أي من التالي يصف LLM بدقة؟
- غيّر السياق (Input) لتحصل على مخرجات أفضل — أنت مصمم النظام.
- استخدم Prompt Engineering لتوجيه Attention Mechanism نحو أجزاء معينة من السياق.
الآن ترى: 'الفهم' وهم. LLM لا يفهم، لكنه ينتج ردوداً تبدو ذكية. التحدي الحقيقي: كيف تصمم Prompt كنظام توجيه احتمالات لتحصل على أفضل مخرجات؟
التدخل الأسهل: غيّر سياقك (Input) لتحصل على مخرجات أفضل. أنت مصمم النظام.
🙋 أسئلة حول التجربة
📚 زارو-مدوّنة المعرفة — نبني مهندسي تفكير، لا قرّاء محتوى
KnowledgeNuggets Autonomous — System Architect Edition v5.0.2

التعليقات (0)
لا توجد تعليقات بعد. كن أول من يبدأ النقاش 👇