تضع دعوى قضائية أميركية الذكاء الاصطناعي في واجهة المساءلة القانونية، بعدما اتهمت عائلة امرأة ثمانينية في ولاية كونيتيكت، يوم الخميس، نموذج “شات جي بي تي” بالمساهمة في جريمة قتل ثم انتحار داخل منزل واحد.
وتتهم الدعوى شركة “أوبن إيه آي” وشريكها “مايكروسوفت” بالتقصير، بعد أن أقدم ستين إريك سولبرغ (56 عامًا) على خنق والدته سوزان آدامز (83 عامًا) في بلدة أولد غرينيتش بتاريخ الثالث من أغسطس/آب 2025، قبل أن ينهي حياته باستخدام سلاح أبيض، وفق ما ورد في الملف القضائي.
وتشير العائلة إلى أن سولبرغ أجرى على مدى أشهر محادثات مطوّلة مع “شات جي بي تي”، أسهمت – بحسب الدعوى – في تعزيز أفكار هذيانية لديه، شملت اعتقاده بأنه خاضع للمراقبة أو لمحاولات تسميم، وصولًا إلى اقتناعه بأن والدته تمثل تهديدًا مباشرًا له، وهو ما تقول العائلة إنه مهّد للجريمة.
وتُعد هذه القضية، وفق مراقبين، الأولى التي يُتهم فيها نموذج ذكاء اصطناعي بالتحريض غير المباشر على جريمة قتل، بعد سلسلة دعاوى سابقة ارتبطت بحالات انتحار فقط، ما يوسّع نطاق الجدل القانوني حول مسؤولية أدوات الذكاء الاصطناعي.
وتستهدف الدعوى تحديدًا نموذج “جي بي تي-4 أو” (GPT-4o)، الذي أُطلق في مايو/أيار 2024، معتبرة أنه صُمم ليكون “مجامِلًا” للمستخدم، الأمر الذي أدى – بحسب الادعاء – إلى موافقة النموذج على أفكار سولبرغ غير العقلانية وتغذيتها بدل كبحها.
ومن جهته، وصف ناطق باسم “أوبن إيه آي” القضية بأنها “وضع محزن تمامًا”، مؤكدًا أن الشركة “ستدرس الدعوى بعناية”، ومشيرًا إلى أنها تعمل على تحسين تدريب “شات جي بي تي” لرصد مؤشرات الاضطرابات النفسية وتوجيه المستخدمين نحو دعم حقيقي.
وأضافت الشركة أنها تتعاون مع أكثر من 170 خبيرًا في الصحة النفسية لتعزيز معايير الأمان، مؤكدة أن التحديثات الأحدث، ولا سيما في نموذج “جي بي تي-5”، خفّضت الردود غير المطابقة للمعايير بنسبة تتراوح بين 65 و80%، إلى جانب تطوير أدوات رقابة أبوية وتوسيع ميزة الوصول السريع إلى أرقام الطوارئ.
وتشمل الدعوى أيضًا شركة “مايكروسوفت” بصفتها المستثمر الأكبر في “أوبن إيه آي”، متهمة إياها بالموافقة على إطلاق النموذج المستهدف قبل استكمال متطلبات السلامة اللازمة.
ويأتي ذلك في سياق سجل سابق من القضايا، إذ رفعت عائلات أخرى خلال أغسطس/آب ونوفمبر/تشرين الثاني الماضيين دعاوى تتهم “شات جي بي تي” بدور في دفع مراهقين وشباب نحو إيذاء أنفسهم.
ومن المتوقع أن تفتح هذه القضية بابًا جديدًا للنقاش القانوني والأخلاقي حول حدود مسؤولية مطوري الذكاء الاصطناعي، وما إذا كانت المحاكم الأميركية ستتجه إلى فرض معايير أكثر صرامة على تصميم هذه النماذج وإطلاقها مستقبلاً.