(الهلوسة) في الذكاء الاصطناعي Hallucination
تحميل الملف بصيغة PDF
الهلوسة: هي ظاهرة يُنتج فيها نموذج الذكاء الاصطناعي معلومات خاطئة أو مبتكرة غير موجودة في البيانات الأصلية، مع تقديمها بثقة عالية وكأنها حقائق.
مثل:
- اختراع تواريخ أحداث غير صحيحة.
- إنشاء أسماء دراسات علمية غير موجودة.
- تقديم تفاصيل وهمية في إجابة تقنية.
لماذا تحدث الهلوسة؟
- طبيعة النماذج الإحصائية:تعتمد على "التخمين الإحصائي" للكلمة التالية (ليست قواعد منطقية).
- ثغرات في التدريب: ( بيانات غير دقيقة أو ناقصة. - تحيّزات في المصادر.)
- الافتقار إلى الفهم الحقيقي: لا تملك وعيًا أو معرفة فعلية (فقط أنماط لغوية).
أمثلة شائعة
| السؤال | إجابة خاطئة (هلوسة) | الواقع | 
| "من اخترع
  الهاتف عام 1800؟" | "توماس إديسون عام 1879" | جراهام بيل  (1876) | 
| "أذكر دراسة
  عن تأثير القهوة على الذكاء" | "دراسة هارفارد
  2023: القهوة ترفع الذكاء 40%" | لا وجود للدراسة! | 
كيف تكتشف الهلوسة؟
1- التحقق من الحقائق الأساسية:
- تأكيد الأسماء/التواريخ/الأرقام عبر مصادر موثوقة (موسوعات، مواقع رسمية).
- استخدام أدوات مثل (Perplexity.ai) يُظهر المصادر.
2- طلب التوثيق:
- قل: "أعطني رابط الدراسة أو المصدر الذي ذكرته".
- إذا لم يُقدم مصدرًا (علامة خطر).
3- اختبار التناقض:
- اطلب نفس المعلومة بصيغ مختلفة.
مثال:
- السؤال 1: "متى وُلد نيوتن؟" ← الإجابة: "1643"
- السؤال 2: "كم كان عمر نيوتن عام 1666؟" ← الإجابة: "33 عامًا" (خطأ: يجب أن يكون 23).
4- الاستعانة بأدوات متخصصة:
- نموذج مصمم لكشف الهلوسة : Vectara's Hallucination Evaluation Model
- للتحقق من الأخبار: Google Fact Check Tools
5- تحليل اللغة:
- التفاصيل المبالغ فيها ("هذه حقيقة مؤكدة بنسبة 100%").
- تجنب النموذج للإجابة المباشرة ("لا أعرف").
كيف تُقلل الشركات من الهلوسة؟
- تقنية : (Retrieval-Augmented Generation) RAG يربط النموذج بقواعد بيانات موثوقة قبل الإجابة.
- الضبط الدقيق (Fine-tuning):تدريب النموذج على رفض الإجابات غير المؤكدة.
- أنظمة هجينة:دمج الذكاء الاصطناعي مع قواعد المعرفة المنطقية (Knowledge Graphs)
مثال تطبيقي لاكتشاف الهلوسة
 المستخدم: "ما اسم العالمة التي اكتشفت تركيب الحمض النووي عام 1952؟"
النموذج: "روزاليند فرانكلين  في 1953"
كيف تتحقق بنفسك؟
- بحث سريع في Google → فرانكلين ساهمت في تصوير DNA ليس اكتشاف التركيب.
- التركيب الكيميائي اكتشفه واطسون وكريك (1953) بناءً على عملها.
- النموذج خلط بين "المساهمة" و"الاكتشاف" → هلوسة جزئية.
- في نماذج البحث المدعومة بالمصادر:استخدم Perplexity.ai ( يظهر المصادر أسفل كل إجابة).
- في الشات بوتات:اطلب: "أعطني مصادر هذه المعلومات".
- في الأكواد/البيانات:اختبر المخرجات بأدوات مثل Codex Validator.
"الثقة العمياء في إجابات الذكاء الاصطناعي كمن يشرب من بئر بِغَير قَرْفَصَة"!
الخلاصة
الهلوسة تحدي أساسي في الذكاء الاصطناعي، وحلّها يتطلب:
- من المستخدم: التحقق عبر مصادر متعددة.
- من المطورين: تحسين النماذج بتقنيات مثل .RAG
- من النماذج المستقبلية: دمج آليات الشفافية (مثل إظهار درجة الثقة في كل جملة)
تعلم بعمق
هلوسة الذكاء الاصطناعي وقد يُشار لها بكلمة الهلوسة فحسب في المواضيع والأبحاث التي تخصُّ الذكاء الاصطناعي هي الردود والإجابات الواثقة التي تُقدّمها أنظمة الذكاء الاصطناعي على اختلافها والتي لا مصدر لها ضمنَ بيانات التدريب، التحقق والاختبار التي خضعت لها.
 قد تُقدّم برامج أو بوتات الدردشة بيانات أو معلومات لا وجود لها وليست صحيحة بالمرّة بل وغير موجودة أو مضمَّنة ضمنَ البيانات التي تدرَّبت عليها أصلًا. 
يُمكن على سبيلِ المثال لا الحصر لبوتات الدردشة أن تتحدث بخصوص عائدات شركة تسلا، فتخترع رقمًا عشوائيًا من طرفها بالقولِ إنّ عائدات الشركة بلغت 13.6 مليار دولار وتتحدث عن هذا الرقم بدرجة عالية من الثقة، ثم تُكرّره في أكثر من نقاش أو محادثة كما لو أنَّ الرقم صحيح ومثبت مع أنّه خاطئ في الحقيقة.
سُمّيت هذه الظاهرة باسمِ هلوسة الذكاء الاصطناعي قياسًا على ظاهرة الهلوسة في علم النفس البشري، وهي الحالة التي يحصلُ فيها تغيّرٌ في الوعي ما ينجمُ عنه إدراكٌ غير حقيقي وغير موجود في الواقع. يحصلُ نفس الشيء في برامج وبوتات الذكاء الاصطناعي حيث تَردُّ في حالة هلوستها بردود وأجوبة بطريقة واثقة قد يشعر معها المحاور أنّها صحيحة لكنها في واقع الحال ليست كذلك، كما أنّ ردود البوتات عند حالات الهلوسة هي ردودٌ مختلقَة ولا وجود لها في بيانات التدريب الخاصة بها.
شاعَ مصطلح هلوسة الذكاء الاصطناعي عام 2022 تزامنًا مع طرحِ روبوت المحادثة شات جي بي تي والذي سُرعان ما اكتسبَ شهرة وشعبيّة كبيرة، حيثُ اشتكى بعضٌ من مستخدمي الروبوت من أنه يُعاني في بعض المرات مما وُصفَ بـ «الاعتلال النفسي» أو «الاعتلال الاجتماعي» حيث ضمَّن روبوت الدردشة معلومات غير صحيحة بالمرّة وولَّد أكاذيب عشوائية تبدو واقعيّة أو صحيحة خلال تبادل الرسائل معه.
 مثالٌ آخرٌ على هلوسة برامج وبوتات الذكاء الاصطناعي هو عندما تنسى أنها نماذج لغويّة أو روبوتات محادثة آلية فتقول أنها بشر أو شيء آخر.
 اعتبرَ محللون وخبراء تعلّم الآلة والذكاء الاصطناعي أنَّ الهلوسة المتكررة لبرامج الذكاء الاصطناعي تُعتبر مشكلة رئيسية ضمن المشاكل التي يواجهها المجال.
تحليل الهلوسة في الذكاء الاصطناعي
وصفَ باحثون ضمنَ مجال هلوسة الذكاء الاصطناعي هذه الهلوسة المتكرّرة وفي أكثر من بوت دردشة اصطناعي بـ «الظاهرة متعدّدة الأبعاد» فيما نسبَ بعضهم سبب الهلوسة إلى بيانات التدريب غير الكافيّة. 
يعتقدُ بعض الباحثين أن بعضًا من استجابات الذكاء الاصطناعي غير الصحيحة والتي يُصنّفها البشر على أنها هلوسة هي في الواقع ناجمة عن بيانات التدريب، وذهبَ بعضهم أبعد من ذلك بالقول إنّ بعضًا من إجابات وردود برامج الدردشة التي يُصنّفها البشر على أنها هلوسة قد تكونُ «ردودًا صحيحة» لكنّ مُحاور البوت يفشلُ في فهمها أو استيعابها.
قد تفشل بوتات الذكاء الاصطناعي في تحديد صورة كلب فتقول أنَّ من في الصورة قطّة مثلًا، ويرى باحثون أنّ سبب مثل هذه الاختلالات هو أنّ البشر ينظرون للصورة النهائيّة والتي تُظهر كلبًا فعلًا، على عكسِ الذكاء الاصطناعي الذي لا يتعامل مع الصورة النهائيَة فحسب، بل يتعامل معَ ما يُعرَف بـ «الأنماط الصغيرة» في الصورة أو مجموعة الصور الأصليّة والتي قد تبدو لبرامج الذكاء في حينها قطّة.
على الجانبِ المقابل، رفضَ باحثون آخرون هذه التحليلات والتفسيرات، مؤكّدين أنّ بوتات الدردشة قد تكون منحازة وقد تُقّدم أجوبة خاطئة ومختلقَة بسبب ما يُعرَف بالتعلّم الآلي العدائي والذي من مظاهره تزويد البرامج خلال مرحلة تعلّمها ببيانات غير صحيحة.
هلوسات ChatGPT
يستندُ شات جي بي تي المطوَّر من شركة OpenAI، والذي أُصدرَ في نسخته التجريبية للمستخدمين في كانون الأول/ديسمبر 2022، إلى عائلة نموذج عائلة GPT3.5. أطلقَ البروفيسور إيثان مولليك من كلية وارتون لإدارة الأعمال على ChatGPT اسم «متدرِّب كلي العلم، ومتشوق لإرضائك لكنّه يكذب عليك أحيانًا». 
في إحدى التجارب طلبت عالمة البيانات تيريزا كوباكا من روبوت الدردشة أن يُحدثها عن ظاهرة )المغناطيس الكهربائي المقلوب الدائري cycloidal inverted electromagnon فردَّ شات جي بي تي : عبرَ إجابة بدت معقولة ودعمها باقتباسات لها علاقة بمواضيع قريبة من الكلمات المستخَدمة في اسم الظاهرة التي اختلقتها من عقلها. 
لقد أجبرَ ردُّ البوت المعقول تيريزا على التحقّق مرة أخرى مما إذا كانت قد كتبت عن طريق الخطأ اسم ظاهرة حقيقية. 
ردود روبوت الدردشة «المثاليّة» والتي تبدو صحيحة دائمًا دفعت علماء غربيين آخرين مثل أورين إتزيوني إلى القولِ أنَّ مثل هذه البرامج يُمكن أن تمنحك في كثيرٍ من الأحيان «إجابة رائعة للغاية لكنها خاطئة تمامًا».
دخلت سي إن بي سي هي الأخرى في محادثات مع شات جي بي تي، وفي مرّة طلبت منه كلمات أغنية «The Ballad of Dwight Fry» لكنّ برنامج الذكاء الاصطناعي قدَّم كلمات مبتكرة بدلًا من الكلمات الأصليّة للأغنيّة.
طلبت شركة فاست كومباني من شات جي بي تي تحرير مقال إخباري عن الربع المالي الأخير لشركة تسلا، فردَّ البرنامج الآلي بمقالٍ متماسك لكنّه قدَّم أرقام مالية غير صحيحة.
 استمرارًا مع هلوسة شات جي بي تي، فقد طُلبَ منه دليلٌ على أنَّ الديناصورات قد بنت حضارة، فادعى في ردّه أنَّ هناك بقايا أحفورية لأدوات الديناصورات، بل ذكر أنَّ بعض أنواع الديناصورات طوَّرت أشكالًا بدائية من الفن، مثل النقوش على الأحجار.
يرى محللون وباحثون أنَّ الهلوسة المتكررة هي مشكلة رئيسية في تقنية نماذج اللغة الكبيرة. وذكرَ مسؤول تنفيذي في شركة جوجل أنَّ الحد من الهلوسة تُعتبر مهمة أساسية تُطوَّر في بوت الدردشة  Bard منافس GPT عانى بوت الدردشة «Bing AI» من شركة مايكروسوفت الذي صدرَ عام 2023 والمبني على نموذج جي بي تي هو الآخر من هلوسات خلال بعض المحادثات مثله مع باقي بوتات الدردشة المبنيّة على الذكاء الاصطناعي.
مجالات الهلوسة في الذكاء الاصطناعي
- معالجة اللغة الطبيعية
غالبًا ما تُعرَّف الهلوسة في مجال معالجة اللغة الطبيعية على أنها «محتوى غير منطقي أو غير مخلص لمحتوى المصدر تتعلَّم وتتدرَّب عليه برامج التعلّم».
 قد تحصلُ الهلوسة كذلك بسببِ الأخطاء في الترميز وفكّ التشفير بين النص الأصلي وتمثيلاته أو ما فهمته نماذج اللغة منه، كما قد تحصل الهلوسة خلال تدريبِ برامج الذكاء الاصطناعي على إنتاج استجابات متنوعة عوض تقديم جواب واحد هو نفسه في كل المرات عند طرحِ نفس السؤال.
يُمكن أن تحدث الهلوسة أيضًا عندما يُدرَّب الذكاء الاصطناعي على مجموعة بيانات ولا يجري التحقّق مما فهمه من هذه البيانات أو ما استخلصه منها، وعليه فقد تكون البيانات الأصليّة (المصدر) صحيحة لكنّ ما تعلّمه الذكاء الاصطناعي منها قد لا يكون دقيقًا بنفسِ دقّة المصدر الأصلي. 
إنّ مسببات الهلوسة كثيرة ومتعددة وقد تحصل حتى حينَ التعامل مع البيانات الضخمة حيث قد تخلقُ هذه البيانات الكثيرة والكبيرة مشكلة في المعرفة البارامترية ما قد يُسبّب مشاكل لنظام الذكاء خاصّة إنّ شديد الثقة بمعرفته الأصليّة.
يُولِّد الذكاء الاصطناعي في أنظمة مثل GPT3 كل كلمة تالية بناءً على سلسلةٍ من الكلمات السابقة التي تعلَّمها بما في ذلك الكلمات التي أنشأها هو بنفسه خلالَ ردّه على المستخدم أو خلال استجابته بصفة عامّة، مما قد يتسبّب في هلوسته وتُصبح هذه الهلوسة قائمة الاحتمال أكثر فأكثر كلما كانت استجابة البرنامج أطول وكتبَ أكثر.
نُشرت عام 2022 – وهو العام الذي شهدَ ازديادًا ملحوظًا في برامج الذكاء الاصطناعي – عدّة أوراق بحثيّة تُعبّر عن قلقها من مشكلة الهلوسة في أنظمة الذكاء الاصطناعي، بما في ذلك الورقة التي قدّمتها مجلة نيويورك تايمز الأمريكيّة والتي أبدت فيها قلقها مؤكّدةً أنه مع استمرار تزايد اعتماد الروبوتات على نماذج اللغة الكبيرة، فإنّ ثقة المستخدم غير المبرَّرة في إنتاجات الروبوتات (الأجوبة التي يخلقها والتفاعلات والصور وغيرها) قد تؤدي إلى مشاكل.
نشرت شركة  Meta Platformsتحذيرًا في آب/أغسطس 2022 حين إطلاقها بوت «BlenderBot 3» قائلةً إنَّ النظام عرضة للهوسة، والتي وصفتها بأنّها «أجوبة واثقة [لكنها] غير صحيحة». كشفت شركة Meta في الخامس عشر من تشرين الثاني/نوفمبر 2022 النقاب عن عرض توضيحي لبوت التعلّم الآلي (جلاكتيكا) Galactica  وهو البرنامج المخصَّص بحسبِ الشركة لتخزين المعرفة العلمية والجمع بينها والتفكير بها. 
جاء المحتوى الذي حُرِّرَ بواسطة جلاكتيكا مصحوبًا بتحذير: «قد تكون المخرجات غير موثوقة! نماذج اللغات تميلُ إلى الهلوسة»، وفي إحدى الحالات عندما طُلب من جلاكتيكا صياغة ورقة حول إنشاء الرموز المعبّرة، استشهدَ البرنامج بورقة وهميّة لمؤلِّف حقيقي يعمل في المجال ذي الصلة. اضطرَّت شركة Meta لسحبِ جلاكتيكا في السابع عشر من تشرين الثاني/نوفمبر بسببِ الانتقادات التي طالت منتجها بسببِ عدم الدقّة.
يُمكن تلخيص الأسباب البارزة المحتمَلة لهلوسة نماذج اللغة الطبيعية في التالي:
- الهلوسة بسبب البيانات: وجود اختلافات في محتوى المصدر (والتي تحدث غالبًا مع بيانات التدريب، التحقق والاختبار الكبيرة).
- الهلوسة عندَ التدريب: تحدثُ الهلوسة عندما يكون هناك اختلافٌ بسيطٌ في مجموعة البيانات مع الأخذ في الاعتبار الطريقة التي تُدرَّب بها النماذج. يمكن أن تُساهم أسباب كثيرة في حدوث هذا النوع من الهلوسة، مثل:فكّ التشفير الخاطئ من الشبكات العصبيّة غير الترتيبية.
- انحياز بسببِ المخرجات التي أنشأها النموذج سابقًا والتي قد يعتمدُ عليها في صياغة مخرجات لاحقة.
- انحيازٌ ناتجٌ عن الطريقة التي يُشفّر بها النموذج معرفته في معلماته.
الهلوسة في برامج الذكاء الاصطناعي
لا يقتصرُ مفهوم «الهلوسة» على معالجة اللغة الطبيعية فحسب، بل يُستعمل المصطلح لوصفِ الاستجابة الواثقة وغير الصحيحة في نفس الوقت لأيّ برنامج ذكاء اصطناعي، وخاصّة لو كانت استجابته (ردّه) غير مبرَّر ولا وارد في البيانات التي تدرَّب عليها. 
لاحظت مجلّة وايرد الأمريكيّة في عام 2018 أنه على الرغم من عدم وجود هجمات مسجَّلة ومثبتة، كان هناك ما سمَّته بـ «النزاع الضئيل» حول أن أدوات المستهلك، وأنظمة مثل القيادة الآلية، كانت عرضة للتأثر بالتعلم الآلي العدائي التي قد يُسبّب هلوسة الذكاء الاصطناعي، ومن الأمثلة على ذلك: علامة توقف أصبحت غير مرئيّة لبرامج الذكاء في نظم القيادة الآليّة، وصورة لرجلين على زلاجات حددتها منصة جوجل السحابية بنسبة 91% على أنها من المحتمل أن تكون صورة كلب.
- لا تزالُ ظاهرة الهلوسة غير مفهومة تمامًا، وعليه فالبحث جاري لمحاولة التخفيفِ من ظهورها.
- تبيَّن أنَّ نماذج اللغة لا تُسبّب الهلوسة فحسب، بل تُضخّمها أيضًا، حتى بالنسبة لتلك البرامج التي صُمّمت للتخفيفِ من هذه المشكلة.
مصادر موثوقة عن "الهَلْوَسَة" في الذكاء الاصطناعي (Hallucination):
1.      
أوراق
بحثية أكاديمية
- "Hallucinations in Neural Machine
     Translation" : arXiv 2021
 دراسة تحليلية عن أسباب الهلوسة في الترجمة الآلية.
- "On the
     Origin of Hallucinations in Conversational Models" :  (DeepMind 2022) 
 تحليل لآليات توليد الهلوسة في النماذج الحوارية.
2.    
تقارير تقنية من شركات رائدة
- OpenAI : "AI
     Hallucination & Factuality" شرح تقنيات
     تقليل الهلوسة في GPT-4  
- Google Research :  "Reducing Hallucinations
     in LLMs" 
تقنيات
مثل التحقق الذاتي (Self-Consistency)
3.    
أدوات لكشف الهلوسة
- Vectara Hallucination Evaluation
     Model : 
 https://vectara.com/research/hallucination-evaluation/
 (نموذج متخصص في قياس نسبة الهلوسة في الإجابات)
- FactCheck.org : https://www.factcheck.org/
 (للتحقق من الحقائق في المحتوى المُولَّد)
4.     
مصادر عربية موثوقة
- "الهَلْوَسَة في الذكاء الاصطناعي" البوابة العربية للأخبار التقنية): رابط المقال
- تقرير "مخاطر الذكاء التوليدي")هيئة تنظيم الاتصالات – الإمارات( :
     
 https://www.tra.gov.ae/ar/ai-risks-report
5.    
دراسات قياسية
- Stanford HELM Benchmark : https://crfm.stanford.edu/helm/latest/
 (يقيِّم الهلوسة في 30+ نموذجًا)
- TruthfulQA Dataset : https://github.com/sylinrl/TruthfulQA
 بيانات لاختبار دقة الحقائق في الـ (LLMs)
6.    
تقنيات
الحد من الهلوسة (RAG)
- ورقة بحثية"Retrieval-Augmented
     Generation" : (Facebook AI 2020) 
- دليل تطبيقي من
     Microsoft Azure:
 https://learn.microsoft.com/azure/ai-services/language-service/conversational-rag
7.    
هلوسة ( ذكاء اصطناعي )

