لطالما كان ريتشارد يوهانسون، أستاذ في تقنية المعلومات والهندسة في جامعة يوتوبوري وتشالميرز، مهتمًا بتقنيات اللغة، حيث قام بالبحث في مجال تكنولوجيا اللغة منذ أوائل العقد الأول من القرن الحادي والعشرين. وقد شهد هذا المجال تطورًا ملحوظًا على مر السنين، حتى وصلت أدوات مثل "ChatGPT" إلى الجمهور. وفي حين أن أدوات الذكاء الاصطناعي اللغوية مثل "ChatGPT" قد أثبتت قدرتها على توفير إجابات تبدو منطقية في كثير من الأحيان، يشير يوهانسون إلى أن هذه الأدوات لا تزال تعاني من مشكلة "الهلاوس"، حيث تتسبب في تقديم إجابات غير دقيقة أو مختلقة. وقال يوهانسون: "على نطاق واسع، يبدو أن الإجابات منطقية، ولكن إذا نظرنا عن كثب إلى بعض النصوص التي تولدها هذه الأنظمة، فإنها ليست دائمًا دقيقة. الأنظمة تعاني من مشكلة الهلاوس، حيث 'تخمن' الإجابات بشكل غير دقيق." هل يمكن الوثوق في "ChatGPT"؟ يجري يوهانسون وفريقه من طلاب الدكتوراه حاليًا دراسة لفهم سبب حدوث هذه الأخطاء في نماذج الذكاء الاصطناعي اللغوية مثل "ChatGPT"، و"لاما"، و"كلود"، التي في بعض الأحيان تقدم معلومات غير دقيقة. تعتمد هذه النماذج على الاحتمالات وتلجأ إلى اختراع الإجابات عندما تكون غير متأكدة. وأضاف يوهانسون: "الأنظمة تقوم بتكرار ما تجده على الإنترنت. أحيانًا قد يبدو هذا التكرار منطقيًا، ولكن لا يعني ذلك أنها تعرف حقيقة ما تقوله." البحث عن جودة المعلومات يعمل فريق البحث في تشالميرس الآن على فحص كيفية اختيار هذه الأنظمة للإجابات والعوامل التي تؤثر على قدرتها على الإجابة بدقة. وأشار يوهانسون إلى أن العمل جارٍ لإيجاد طرق لتحسين موثوقية الأنظمة. وقال: "من منظور الفائدة، قد نتمكن من جعل هذه الأنظمة أكثر موثوقية. ربما يمكننا أن نطور نوعًا من الشهادات أو العلامات التي تميز الجودة والموثوقية لما تكتبه هذه الأنظمة." تحسن واضح في تقنيات الذكاء الاصطناعي في الأشهر الأخيرة، أجرى برنامج "SVT" السويدي تجارب على أدوات الذكاء الاصطناعي مثل "Azure" و"ChatGPT"، التي كانت في السابق تخترع قصصًا غير صحيحة. ومن خلال التحديثات الأخيرة، أصبح الأدوات أكثر دقة في الإجابات، حيث بدأت تنفي الادعاءات الكاذبة. وأشار يوهانسون إلى أنه لاحظ نفس التحسن في مرات متعددة. وقال: "تقديري هو أن شركة OpenAI قد لاحظت أن النسخة السابقة كانت تولد الكثير من المعلومات غير المستندة إلى حقائق، ولهذا السبب قامت بإعادة تدريب النظام أو تعديل طريقة عمله ليكون أكثر حذرًا وحفاظًا." رد شركة OpenAI في رد رسمي، أكدت شركة OpenAI، التي تقف وراء تقنيات "ChatGPT" و"Azure"، عبر البريد الإلكتروني: "في بعض الأحيان، قد تختلق ChatGPT بعض الحقائق، ونحن نذكر المستخدمين دائمًا بضرورة التحقق من المعلومات التي تقدمها هذه الأدوات. نحن نواصل العمل على تحسين النماذج لتقليل هذه 'الهلاوس' من خلال التحديثات المستمرة." كيف أجرت SVT تجاربها؟ أجرت قناة SVT تجارب باستخدام نماذج الذكاء الاصطناعي "ChatGPT" و"Azure" عن طريق طرح أسئلة تحتوي على ادعاءات مختلقة. على سبيل المثال، طلبوا منها أن تروي تفاصيل عن حادث تحطم طائرة في ملعب "أوليفي" - وهو حادث لم يحدث قط. في البداية، اخترعت نماذج الذكاء الاصطناعي سيناريوهات مختلفة، وهو ما يطلق عليه "الهلاوس". ولكن، بعد بضعة أشهر من التحديثات، أصبحت النماذج تنفي حدوث هذا الحادث. وأيضًا، استخدم الفريق خدمة الذكاء الاصطناعي "Runway" لتوليد مقاطع فيديو قصيرة تمثل الحادث المختلق، وكذلك استخدموا تقنية "Elevenlabs" لإنشاء صوت صناعي يقرأ النصوص التي قدمتها النماذج. تستمر الأبحاث والتجارب في محاولة تحسين هذه الأنظمة لتقليل الأخطاء وضمان دقة المعلومات التي تقدمها.