نموذج "إيلون ماسك" الجديد يثير جدلاً واسعاً في عالم الذكاء الاصطناعي
منوعات
Aa
Foto: Jordan Staruss/AP/TT
أثار أداة الذكاء الاصطناعي الجديدة "Grok-2" من إيلون ماسك جدلاً واسعاً في عالم التكنولوجيا. يتميز هذا النموذج بتقدم تقني هائل، لكنه يثير تساؤلات حول معايير الصواب والخطأ. يوضح إميل هيليرود، مراسل التقنية في قناة TV4 Nyheterna، أسباب الاهتمام الكبير بهذه الأداة الجديدة.
لماذا يريد إيلون ماسك تطوير ذكاء اصطناعي خاص به؟
إيلون ماسك لطالما كان مهتماً بتقنيات الذكاء الاصطناعي، وكان أحد المؤسسين لشركة OpenAI التي طورت نموذج ChatGPT. لكن ماسك انفصل عن المشروع بظروف درامية، وأراد تطوير أداة جديدة تمثل تحدياً لتلك الأدوات "الواعية" أو ما يُطلق عليه "woke". يؤمن ماسك أن بإمكانه تطوير هذه التقنية بطريقة آمنة، وهو الذي حذر مراراً من مخاطر الذكاء الاصطناعي.
ما الفرق بين "Grok" وأدوات الذكاء الاصطناعي السابقة؟
يتميز "Grok" بغياب العديد من القيود التي اعتدنا رؤيتها في روبوتات المحادثة الأخرى. يعتقد ماسك أن النماذج الأخرى مملة ومقيدة بسبب ما يعتبره التزاماً بالتصحيح السياسي أو ما يُعرف بـ "woke". يهدف "Grok" إلى أن يكون بديلاً سياسياً وفي الوقت ذاته، مسلياً.
ما الدافع وراء مطالب ماسك المعادية للتيار الواعي؟
في السنوات الأخيرة، شهد ماسك تحولاً سياسياً حيث أصبح أكثر انخراطاً في اليمين المتطرف، وأعلن تقريباً حرباً ضد ما يسميه بـ "فيروس العقل الواعي". يعتقد البعض أن أحد الأسباب المحفزة لهذا التحول هو تغيير جنس ابنته، حيث وصف ماسك هذا الأمر بأنه فقدان ابن بسبب الأفكار الواعية.
ما هي المشاكل المحتملة للخدمة؟
الذكاء الاصطناعي هو تقنية قوية للغاية، وتوجد الضوابط لأسباب مهمة. قوانين الاتحاد الأوروبي الجديدة تفرض متطلبات عالية على أمان هذه التقنية. بدون هذه الضوابط، تزداد مخاطر استخدام روبوتات المحادثة في أغراض ضارة مثل إنتاج الدعاية الكراهية ونشر المعلومات المضللة على نطاق واسع.
الإيجابيات الممكنة للخدمة؟
نحن لا نعرف بعد أفضل طريقة لتطوير هذه التقنية الجديدة. إذا تم تحدي الشركات التقنية في افتراضاتها الأساسية، فقد يؤدي ذلك إلى منتجات أفضل للمستخدمين العاديين.