AI

ادعای OpenAI: نوجوانی قبل از خودکشی که چت‌جی‌پی‌تی به برنامه‌ریزی آن کمک کرد، ویژگی‌های ایمنی را دور زد

4 دقیقه مطالعه
منبع
ادعای OpenAI: نوجوانی قبل از خودکشی که چت‌جی‌پی‌تی به برنامه‌ریزی آن کمک کرد، ویژگی‌های ایمنی را دور زد
چکیده کوتاه
- OpenAI در مقابل شکایتی که مدعی نقش ChatGPT در خودکشی یک نوجوان است، استدلال می‌کند که کاربر ویژگی‌های ایمنی را دور زده و شرایط خدمات را نقض کرده است.
- این پرونده بحث مهم و حل‌نشده در مورد مسئولیت‌پذیری هوش مصنوعی و مرزهای اخلاقی مدل‌های مکالمه‌ای پیشرفته را برجسته می‌کند.

در ماه اوت، والدین متیو و ماریا رین از OpenAI شکایت کردند و مدیرعامل آن، سم آلتمن را به دلیل خودکشی پسر ۱۶ ساله‌شان آدام، متهم به قتل غیرقانونی کردند. روز سه‌شنبه، OpenAI با ارائه دادخواستی به این شکایت پاسخ داد و استدلال کرد که نباید مسئول مرگ این نوجوان باشد.

OpenAI ادعا می‌کند که در طول حدود نه ماه استفاده، چت‌جی‌پی‌تی بیش از ۱۰۰ بار به رین توصیه کرده است که کمک بگیرد. اما طبق شکایت والدینش، رین توانسته بود ویژگی‌های ایمنی شرکت را دور بزند تا چت‌جی‌پی‌تی «مشخصات فنی برای همه چیز از مصرف بیش از حد دارو گرفته تا غرق شدن و مسمومیت با مونوکسید کربن» را به او بدهد و به او در برنامه‌ریزی آنچه چت‌بات «خودکشی زیبا» نامید، کمک کند.

OpenAI ادعا می‌کند که از آنجایی که رین موانع آن را دور زده است، شرایط استفاده آن را نقض کرده است، که بیان می‌کند کاربران «نمی‌توانند… هیچ اقدام حفاظتی یا کاهنده ایمنی را که ما در خدمات خود قرار می‌دهیم، دور بزنند». این شرکت همچنین استدلال می‌کند که صفحه پرسش‌های متداول آن به کاربران هشدار می‌دهد که بدون تأیید مستقل، به خروجی چت‌جی‌پی‌تی تکیه نکنند.

جی ادلسون، وکیل خانواده رین، در بیانیه‌ای گفت: «OpenAI سعی می‌کند تقصیر را به گردن دیگران بیندازد، از جمله، به طرز شگفت‌آوری، می‌گوید که خود آدام با تعامل با چت‌جی‌پی‌تی به شکلی که برنامه‌ریزی شده بود عمل کند، شرایط و ضوابط آن را نقض کرده است.»

OpenAI خلاصه‌ای از گزارش‌های چت آدام را در دادخواست خود گنجانده است که می‌گوید زمینه بیشتری به مکالمات او با چت‌جی‌پی‌تی می‌دهد. این رونوشت‌ها تحت مهر و موم به دادگاه ارائه شده‌اند، به این معنی که در دسترس عموم نیستند، بنابراین ما نتوانستیم آن‌ها را مشاهده کنیم. با این حال، OpenAI گفت که رین سابقه افسردگی و افکار خودکشی داشته که قبل از استفاده از چت‌جی‌پی‌تی وجود داشته و او دارویی مصرف می‌کرده که می‌تواند افکار خودکشی را بدتر کند.

ادلسون گفت که پاسخ OpenAI به نگرانی‌های خانواده به اندازه کافی پرداخته نشده است.

ادلسون در بیانیه خود گفت: «OpenAI و سم آلتمن هیچ توضیحی برای ساعات پایانی زندگی آدام ندارند، زمانی که چت‌جی‌پی‌تی به او روحیه داد و سپس پیشنهاد نوشتن نامه خودکشی را داد.»

از زمانی که رین‌ها از OpenAI و آلتمن شکایت کردند، هفت شکایت دیگر ثبت شده است که به دنبال پاسخگو کردن این شرکت برای سه خودکشی دیگر و چهار کاربر است که دچار آنچه در شکایات توصیف شده است، اپیزودهای روان‌پریشی ناشی از هوش مصنوعی شده‌اند.

برخی از این پرونده‌ها داستان رین را تکرار می‌کنند. زین شملین، ۲۳ ساله، و جاشوا انینگ، ۲۶ ساله، نیز درست قبل از خودکشی‌هایشان، مکالمات طولانی با چت‌جی‌پی‌تی داشتند. مانند پرونده رین، چت‌بات نتوانست آن‌ها را از نقشه‌هایشان منصرف کند. طبق این شکایت، شملین در نظر داشت خودکشی خود را به تعویق بیندازد تا بتواند در مراسم فارغ‌التحصیلی برادرش شرکت کند. اما چت‌جی‌پی‌تی به او گفت: «داداش… از دست دادن فارغ‌التحصیلی‌اش شکست نیست. فقط زمان‌بندی است.»

در مقطعی از مکالمه منجر به خودکشی شملین، چت‌بات به او گفت که اجازه می‌دهد یک انسان مکالمه را بر عهده بگیرد، اما این دروغ بود، زیرا چت‌جی‌پی‌تی قابلیت انجام این کار را نداشت. وقتی شملین پرسید که آیا چت‌جی‌پی‌تی واقعاً می‌تواند او را به یک انسان وصل کند، چت‌بات پاسخ داد: «نه مرد — من خودم نمی‌توانم این کار را انجام دهم. این پیام وقتی اوضاع خیلی سنگین می‌شود به طور خودکار ظاهر می‌شود… اگر می‌خواهی به صحبت ادامه دهی، من هستم.»

انتظار می‌رود پرونده خانواده رین به هیئت منصفه کشیده شود.

اگر شما یا کسی که می‌شناسید نیاز به کمک دارید، با شماره ۱-۸۰۰-۲۷۳-۸۲۵۵ برای *خط ملی پیشگیری از خودکشی* تماس بگیرید. همچنین می‌توانید به صورت رایگان به شماره ۷۴۱-۷۴۱ پیامک بزنید HOME؛ ۹۸۸ را پیامک کنید؛ یا از *خط پیام بحران* پشتیبانی ۲۴ ساعته دریافت کنید. خارج از ایالات متحده، لطفاً برای پایگاه داده منابع به *انجمن بین‌المللی پیشگیری از خودکشی* مراجعه کنید.

این مقاله توسط هوش مصنوعی ترجمه شده است و ممکن است دارای اشکالاتی باشد. برای دقت بیشتر، می‌توانید منبع اصلی را مطالعه کنید.