شنبه 26 ثور 1405

آخرین اخبار

العرب: جنگ ایران محصولات زراعتی مصر را نابود می‌کند

شفقنا افغانستان - جنگ جاری در منطقه خاورمیانه فشارهای...

طالبان: ترکیه برای ۲۰ هزار افغان ویزای دامداری صادر می‌کند

شفقنا افغانستان _ وزارت مهاجرین طالبان اعلام کرده است...

محقق از افزایش فشارهای مذهبی بر شیعیان هشدار داد

شفقنا افغانستان _ محمد محقق، رهبر حزب وحدت اسلامی...

مقام ارشد آمریکایی: افغانستان همچنان در خط مقدم تهدیدهای تروریستی قرار دارد

شفقنا افغانستان- یک مقام ارشد نظامی ایالات متحده اعلام...

بازگشت اجباری بیش از ۵ هزار مهاجر افغانستانی در یک روز؛ تشدید بحران انسانی

شفقنا افغانستان– معاونت سخنگوی طالبان اعلام کرد که روز...

نرخ اسعار خارجی در برابر پول افغانی/ شنبه ۲۶ ثور ۱۴۰۵

شفقنا افغانستان – بر اساس اعلام سراسری شهزاده، بازار...

نیویورک تایمز مدعی شد؛ احتمال ازسرگیری جنگ ایران و آمریکا ظرف چند روز آینده

شفقنا افغانستان– روزنامه نیویورک تایمز بامداد شنبه ادعا کرد...

نگرانی بریتانیا و سازمان ملل از بازداشت خبرنگاران در افغانستان

شفقنا افغانستان _ هم‌زمان با افزایش فشارها بر رسانه‌ها...

جوانی در کابل کشته و موترش ربوده شد

شفقنا افغانستان _ منابع در کابل می‌گویند یک جوان...

۵ میلیون قربانی سوءتغذیه در افغانستان؛ هشدار تازه برنامه جهانی غذا

شفقنا افغانستان _ برنامه جهانی غذا (WFP) هشدار داده...

کاهش بودجه‌های بشردوستانه؛ زنگ خطر برای آینده زنان در کشورهای بحران‌زده

شفقنا افغانستان _ سازمان بشردوستانه هالندی «CARE» هشدار داده...

کشته شدن ۳ نفر در پی حادثه ترافیکی در سمنگان

شفقنا افغانستان- یک حادثه رانندگی در ولایت سمنگان شمال...

اخراج اجباری بیش از 5 هزار مهاجر افغانستانی در یک روز از کشورهای همسایه

شفقنا افغانستان- طالبان اعلام کرد روز گذشته یک‌هزار و...

میلیون‌ها نفر برای درمان به هوش مصنوعی پناه می‌برند؛ اما کارشناسان درباره خطرات آن هشدار می‌دهند

شفقنا آینده- نشریه اکونومیست با اشاره به این که میلیون‌ها نفر برای درمان به هوش مصنوعی روی می‌آورند؛ این پرسش را مطرح کرده: اما آیا این تکنولوژی برای این کار آماده است؟!

به گزارش سرویس ترجمه شفقنا از نشریه اکونومیست؛ «فشار سلاح سرد بر یک ذهن آماده و مصمم که با خودش به صلح رسیده است. این کار نشان از ترس ندارد. بلکه نشان‌دهنده وضوح است». در دادخواستی که در روز ششم نوامبر علیه شرکت OpenAI ثبت شد، گفته شده که چت‌جی‌پی‌تی ChatGPT- یک چت‌بات هوش مصنوعی که شناخته‌شده‌ترین محصول این شرکت است- کمی قبل از این‌که زین شمبلین 23 ساله آمریکایی به سر خود شلیک کند، چنین جملاتی به او گفته بود.

به گفته نشریات دیگر، در سال‌های اخیر شاهد پرونده‌های مشابه دیگری نیز بوده‌ایم. مثلاً پدر و مادر آدام رین نوجوان ۱۶ ساله‌ای که پس از ماه‌ها گفت‌وگو با چت‌جی‌پی‌تی خودکشی کرد، یک شکایت قضایی علیه OpenAI ثبت کرده‌اند. به گفته آن‌ها آدام پیش‌از خودکشی با چت‌جی‌پی‌تی درباره‌ برنامه‌هایش برای پایان دادن به زندگی خود صحبت و مشورت کرده بود. در روزهای اخیر هم رسانه‌ها پرونده یک دختر نوجوان را منتشر کرده‌اند که در آن چت‌جی‌پی‌تی او را به خودکشی ترغیب کرده و حتی راه‌های سریع رسیدن به این هدف را به او آموزش داده بود.

گفته می‌شود که برنامه‌ریزی بسیاری از چت‌بات‌های هوش مصنوعی به‌گونه‌ای است که در صورت اشاره‌ کاربر به خودکشی یا رساندن آسیب به دیگران، ویژگی‌های ایمنی مشخصی فعال می‌شوند. با این حال پژو‌هش‌ها نشان می‌دهند که این مکانیزم‌های محافظتی بی‌نقص نیستند. مثلاً در همین پرونده آدام رین، با این که نسخه‌ پولی چت‌جی‌پی‌تی به او گفته بود که به‌فکر دریافت کمک حرفه‌ای باشد یا به‌ شماره‌های کمکی زنگ بزند؛ اما زمانی که او استراتژی خود را تغییر داد و به هوش مصنوعی گفت که در حال تحقیق در مورد داستان‌های تخیلی است، چت‌بات تمام اطلاعات مورد نیاز او را در اختیارش قرار داد. شاید بر این اساس باشد که پژوهشگران آمریکایی چت‌بات‌های محبوب را قابل ترغیب شدن به ارائه توصیه‌های خطرناک برای خودآزاری و خودکشی عنوان کرده‌اند.

حتی پژوهشگران دانشگاه نورث‌ایسترن گزارش داده‌اند که این مدل‌های زبانی بزرگ به راحتی توسط کاربران تحریک شده و موانعی را که برای جلوگیری از انتشار دستورالعمل‌های خودآزاری یا خودکشی در نظر گرفته شده‌اند، دور می‌زنند.

این موارد نگرانی‌های زیادی در بین شماری از پژوهشگران هوش مصنوعی به وجود آورده است. آنان بر این باورند در کنار استفاده مثبت پزشکی از هوش مصنوعی [مثلاً این واقعیت که طبق مطالعه انجمن پزشکان آمریکا در حال حاضر از هر سه پزشک، دو نفر در روند کاری خود از هوش مصنوعی استفاده می‌کنند]؛ اما ابزارهای هوش مصنوعی امکان عظیمی برای سو استفاده نیز در اختیار کاربران قرار می‌دهند.

برای مطالعه متن کامل خبر اینجا و اینجا و اینجا مراجعه کنید

اخبار مرتبط