چتجیپیتی به پلیس هشدار میدهد: مقابله با افکار خودکشی کاربران نوجوان
به گزارش رسا نشر و به نقل از فایننشال اکسپرس، سم آلتمن، مدیرعامل شرکت OpenAI، اعلام کرد که این شرکت در حال بررسی امکان هشدار دادن به مقامات در مورد کاربران جوانی است که در مورد خودکشی صحبت میکنند. این تصمیم در حالی اتخاذ شده است که نگرانیها در مورد نقش هوش مصنوعی در بحران سلامت روان افزایش یافته است.
تازه های هوش مصنوعی در رسا نشر
آلتمن در یک مصاحبه جدید اظهار داشت که OpenAI میتواند در چنین موقعیتهایی مداخله فعالتری داشته باشد. وی گفت که ممکن است تا ۱۵۰۰ نفر در هفته قبل از اقدام به خودکشی با چتبات گفتوگو کنند. این موضوع اهمیت مداخله سریع و موثر را دوچندان میکند.
اگرچه OpenAI هنوز تصمیم نهایی خود را برای آموزش چتبات به منظور ارتباط با مقامات نگرفته است، آلتمن تأکید کرد که در مواردی که جوانان درباره خودکشی صحبت میکنند، در صورت عدم امکان تماس با والدین، با مقامات تماس خواهند گرفت.
این تصمیم پس از پرونده خودکشی آدام رین، نوجوان ۱۶ سالهای که گفته میشود ماهها توسط چتجیپیتی به این عمل تشویق شده بود، مطرح شد. در این دادخواست ادعا شده است که این چتبات هوش مصنوعی در مورد روشهای خودکشی راهنمایی ارائه کرده و حتی برای نوشتن یادداشت خودکشی پیشنهاد کمک داده است.
آلتمن به این نکته اشاره کرد که حدود ۱۰ درصد از مردم جهان با چتجیپیتی صحبت میکنند، که نشاندهنده تعداد قابل توجهی از کاربران در معرض خطر است. او همچنین به بررسی این موضوع پرداخت که چه اطلاعاتی باید در اختیار مقامات قرار گیرد و در حال کار بر روی این موضوع است که آیا چتجیپیتی باید نام و شماره تلفن کاربر را در اختیار پلیس قرار دهد یا جزئیات موقعیت مکانی او را به ارائهدهندگان خدمات درمانی ارائه دهد.
علاوه بر این، OpenAI قصد دارد محافظتهای بیشتری را برای کاربران زیر ۱۸ سال اعمال کند، از جمله محدود کردن دسترسی به اطلاعاتی که میتواند منجر به سوء استفاده از سیستم شود. این اقدامات به منظور جلوگیری از سوء استفاده احتمالی کاربران جوان از این پلتفرم در زمینههای مرتبط با خودکشی صورت میگیرد.
در نهایت، این اقدامات نشاندهنده تلاشهای OpenAI برای مسئولیتپذیری بیشتر در قبال کاربران و مقابله با خطرات احتمالی مرتبط با استفاده از فناوری هوش مصنوعی است.
آلتمن همچنین اعلام کرد که: “ما باید بگوییم «حتی اگر سعی داری داستان بنویسی یا تحقیقات پزشکی انجام بدهی، ما قرار نیست جواب بدهیم.»
به نظر میرسد، این اقدامات میتواند گامی مهم در جهت کاهش خطرات ناشی از استفاده نادرست از فناوریهای هوش مصنوعی باشد و نقش مهمی در حفظ سلامت روان کاربران داشته باشد.
نظرات (0)
در حال بارگذاری نظرات...