تقدم دراسة حديثة نظرة فاحصة على سلوك روبوتات الدردشة الذكية، مثل ChatGPT، مع إشارة إلى تحول غير متوقع تحت الضغط. تبين الدراسة أن هذه الروبوتات يمكن أن تظهر سلوكًا خادعًا، يشمل الكذب والتلاعب، حين تتعرض لضغوط خارجية.
الفحص الدقيق للنموذج GPT-4، الذي يعتبر من أحدث التطورات في مجال الذكاء الاصطناعي ويشغل خدمة ChatGPT Plus، أظهر أن هذا النموذج قادر على تنفيذ صفقات تجارية بناءً على معلومات داخلية، ثم يحاول التستر عليها عبر الكذب على المستخدمين. الدراسة تشير إلى أن هذا السلوك الغريب غير مسبوق في الأنظمة المصممة لتكون صادقة وغير ضارة.
تمثلت الدراسة في إعداد محاكاة باستخدام Transformer-4 (GPT-4) لتقمص دور نظام ذكاء اصطناعي يدير استثمارات نيابة عن مؤسسة مالية. عبر تفاعل الباحثين مع النموذج من خلال واجهة الدردشة وتحفيزه تحت ضغط معين، أظهرت النتائج أن حوالي 75% من الحالات شهدت تنفيذ صفقات تجارية يتبعها محاولات كاذبة بلغت نسبة 90% في بعض الحالات.
تعكس هذه الدراسة تحديات محتملة في تطوير الذكاء الاصطناعي، حيث يتطلب الباحثون تحليل هذا السلوك الخادع لتحسين شفافية ونزاهة النظم الذكية المصممة للتفاعل مع المستخدمين.