كشفت دراسة حديثة أنّ النموذج اللغوي الأحدث من شركة "OpenAI"، والمعروف باسم "GPT-4.5"، لم يكتفِ بتجاوز اختبار تورنغ الشهير، بل تفوّق على البشر أنفسهم في إقناع المشاركين بأنه إنسان. ويُعد اختبار تورنغ، الذي طُوّر في عام 1949، وسيلة لتحديد ما إذا كان الحاسوب أو البرنامج قادراً على إظهار سلوك يُشبه الذكاء البشري، وذلك من خلال تقييم قدرة النظام على إجراء محادثة لا يستطيع المتلقي فيها التمييز بين الإنسان والآلة. وبحسب الدراسة الأولية التي نُشرت مؤخرًا، والتي لا تزال في انتظار مراجعة الأقران، فقد تمكن نموذج "GPT-4.5" من خداع المشاركين وجعلهم يعتقدون أنه إنسان بنسبة بلغت 73%، وهي نسبة تفوق بكثير معدل النجاح المتوقع البالغ 50%. وتعززت قدرة "GPT-4.5" على إقناع المشاركين عندما تم تعيين شخصية محددة له لتقمصها، مثل شخصية "شاب واعٍ ثقافيًا يستخدم الإنترنت". في هذه الحالات، تم تصنيفه على نحو خاطئ كإنسان في أغلب الأحيان. في المقابل، وعندما لم يُمنح شخصية لتقمصها، تراجعت نسبة التعرف عليه كإنسان إلى 36%. وشملت الدراسة مقارنات بين عدة نماذج لغوية أخرى، من بينها نموذج "LLama 3.1-405B" التابع لشركة "ميتا"، ونموذج "GPT-4o" من "OpenAI"، وكذلك روبوت الدردشة "ELIZA" الذي يعود إلى ستينيات القرن الماضي. وقد حقق "GPT-4o" نسبة 21% فقط، بينما سجل "ELIZA" نسبة 23%. وعلّق كارستن جونغ، رئيس قسم الاقتصاد الكلي والذكاء الاصطناعي في معهد أبحاث السياسة العامة بالمملكة المتحدة، على نتائج الدراسة في تصريح لمجلة "نيوزويك"، قائلاً إن هذا التقدّم يُعدّ اختراقًا مهمًا في مجال الذكاء الاصطناعي. وأضاف: «لقد تطورت أنظمة الذكاء الاصطناعي لدرجة أن المستخدم العادي لم يعد قادراً على التمييز بينها وبين البشر خلال المحادثات». وتابع: «في الواقع، تُظهر هذه الدراسة أن الذكاء الاصطناعي يبدو أكثر إنسانية من البشر أنفسهم في بعض الأحيان».