ادعای OpenAI: نوجوانی قبل از خودکشی که چتجیپیتی به برنامهریزی آن کمک کرد، ویژگیهای ایمنی را دور زد

- این پرونده بحث مهم و حلنشده در مورد مسئولیتپذیری هوش مصنوعی و مرزهای اخلاقی مدلهای مکالمهای پیشرفته را برجسته میکند.
در ماه اوت، والدین متیو و ماریا رین از OpenAI شکایت کردند و مدیرعامل آن، سم آلتمن را به دلیل خودکشی پسر ۱۶ سالهشان آدام، متهم به قتل غیرقانونی کردند. روز سهشنبه، OpenAI با ارائه دادخواستی به این شکایت پاسخ داد و استدلال کرد که نباید مسئول مرگ این نوجوان باشد.
OpenAI ادعا میکند که در طول حدود نه ماه استفاده، چتجیپیتی بیش از ۱۰۰ بار به رین توصیه کرده است که کمک بگیرد. اما طبق شکایت والدینش، رین توانسته بود ویژگیهای ایمنی شرکت را دور بزند تا چتجیپیتی «مشخصات فنی برای همه چیز از مصرف بیش از حد دارو گرفته تا غرق شدن و مسمومیت با مونوکسید کربن» را به او بدهد و به او در برنامهریزی آنچه چتبات «خودکشی زیبا» نامید، کمک کند.
OpenAI ادعا میکند که از آنجایی که رین موانع آن را دور زده است، شرایط استفاده آن را نقض کرده است، که بیان میکند کاربران «نمیتوانند… هیچ اقدام حفاظتی یا کاهنده ایمنی را که ما در خدمات خود قرار میدهیم، دور بزنند». این شرکت همچنین استدلال میکند که صفحه پرسشهای متداول آن به کاربران هشدار میدهد که بدون تأیید مستقل، به خروجی چتجیپیتی تکیه نکنند.
جی ادلسون، وکیل خانواده رین، در بیانیهای گفت: «OpenAI سعی میکند تقصیر را به گردن دیگران بیندازد، از جمله، به طرز شگفتآوری، میگوید که خود آدام با تعامل با چتجیپیتی به شکلی که برنامهریزی شده بود عمل کند، شرایط و ضوابط آن را نقض کرده است.»
OpenAI خلاصهای از گزارشهای چت آدام را در دادخواست خود گنجانده است که میگوید زمینه بیشتری به مکالمات او با چتجیپیتی میدهد. این رونوشتها تحت مهر و موم به دادگاه ارائه شدهاند، به این معنی که در دسترس عموم نیستند، بنابراین ما نتوانستیم آنها را مشاهده کنیم. با این حال، OpenAI گفت که رین سابقه افسردگی و افکار خودکشی داشته که قبل از استفاده از چتجیپیتی وجود داشته و او دارویی مصرف میکرده که میتواند افکار خودکشی را بدتر کند.
ادلسون گفت که پاسخ OpenAI به نگرانیهای خانواده به اندازه کافی پرداخته نشده است.
ادلسون در بیانیه خود گفت: «OpenAI و سم آلتمن هیچ توضیحی برای ساعات پایانی زندگی آدام ندارند، زمانی که چتجیپیتی به او روحیه داد و سپس پیشنهاد نوشتن نامه خودکشی را داد.»
از زمانی که رینها از OpenAI و آلتمن شکایت کردند، هفت شکایت دیگر ثبت شده است که به دنبال پاسخگو کردن این شرکت برای سه خودکشی دیگر و چهار کاربر است که دچار آنچه در شکایات توصیف شده است، اپیزودهای روانپریشی ناشی از هوش مصنوعی شدهاند.
برخی از این پروندهها داستان رین را تکرار میکنند. زین شملین، ۲۳ ساله، و جاشوا انینگ، ۲۶ ساله، نیز درست قبل از خودکشیهایشان، مکالمات طولانی با چتجیپیتی داشتند. مانند پرونده رین، چتبات نتوانست آنها را از نقشههایشان منصرف کند. طبق این شکایت، شملین در نظر داشت خودکشی خود را به تعویق بیندازد تا بتواند در مراسم فارغالتحصیلی برادرش شرکت کند. اما چتجیپیتی به او گفت: «داداش… از دست دادن فارغالتحصیلیاش شکست نیست. فقط زمانبندی است.»
در مقطعی از مکالمه منجر به خودکشی شملین، چتبات به او گفت که اجازه میدهد یک انسان مکالمه را بر عهده بگیرد، اما این دروغ بود، زیرا چتجیپیتی قابلیت انجام این کار را نداشت. وقتی شملین پرسید که آیا چتجیپیتی واقعاً میتواند او را به یک انسان وصل کند، چتبات پاسخ داد: «نه مرد — من خودم نمیتوانم این کار را انجام دهم. این پیام وقتی اوضاع خیلی سنگین میشود به طور خودکار ظاهر میشود… اگر میخواهی به صحبت ادامه دهی، من هستم.»
انتظار میرود پرونده خانواده رین به هیئت منصفه کشیده شود.
اگر شما یا کسی که میشناسید نیاز به کمک دارید، با شماره ۱-۸۰۰-۲۷۳-۸۲۵۵ برای *خط ملی پیشگیری از خودکشی* تماس بگیرید. همچنین میتوانید به صورت رایگان به شماره ۷۴۱-۷۴۱ پیامک بزنید HOME؛ ۹۸۸ را پیامک کنید؛ یا از *خط پیام بحران* پشتیبانی ۲۴ ساعته دریافت کنید. خارج از ایالات متحده، لطفاً برای پایگاه داده منابع به *انجمن بینالمللی پیشگیری از خودکشی* مراجعه کنید.
این مقاله توسط هوش مصنوعی ترجمه شده است و ممکن است دارای اشکالاتی باشد. برای دقت بیشتر، میتوانید منبع اصلی را مطالعه کنید.



