یکشنبه 27 ثور 1405

آخرین اخبار

پیشرفت در هوش مصنوعی؛ تحلیل تومور حالا در چند دقیقه ممکن شد

شفقنا افغانستان – پژوهشگران دانشگاه سدارس-سینای لس‌آنجلس ابزار هوش...

اکونومیست: جهان در آستانه «آخرالزمان شغلی» هوش مصنوعی قرار دارد

شفقنا افغانستان- نشریه اکونومیست در گزارشی نوشته که دنیا...

فریاد عدالت‌خواهی در کلام امام جواد(ع)؛ مناجاتی علیه ظلم و فساد

شفقنا افغانستان- امام جواد(ع) در مناجات کشف ظلم بیان...

ربایش ده‌ها دانش‌آموز در نیجریه؛ بازگشت سایه وحشت به مدارس

شفقنا افغانستان– ساکنان ایالت بورنو در شمال شرقی نیجریه...

العرب: جنگ ایران محصولات زراعتی مصر را نابود می‌کند

شفقنا افغانستان - جنگ جاری در منطقه خاورمیانه فشارهای...

طالبان: ترکیه برای ۲۰ هزار افغان ویزای دامداری صادر می‌کند

شفقنا افغانستان _ وزارت مهاجرین طالبان اعلام کرده است...

محقق از افزایش فشارهای مذهبی بر شیعیان هشدار داد

شفقنا افغانستان _ محمد محقق، رهبر حزب وحدت اسلامی...

مقام ارشد آمریکایی: افغانستان همچنان در خط مقدم تهدیدهای تروریستی قرار دارد

شفقنا افغانستان- یک مقام ارشد نظامی ایالات متحده اعلام...

بازگشت اجباری بیش از ۵ هزار مهاجر افغانستانی در یک روز؛ تشدید بحران انسانی

شفقنا افغانستان– معاونت سخنگوی طالبان اعلام کرد که روز...

نرخ اسعار خارجی در برابر پول افغانی/ شنبه ۲۶ ثور ۱۴۰۵

شفقنا افغانستان – بر اساس اعلام سراسری شهزاده، بازار...

نیویورک تایمز مدعی شد؛ احتمال ازسرگیری جنگ ایران و آمریکا ظرف چند روز آینده

شفقنا افغانستان– روزنامه نیویورک تایمز بامداد شنبه ادعا کرد...

هشدار درباره تأثیر روانی چت‌جی‌پی‌تی؛ کاربران دچار توهم، پارانویا و روان‌پریشی شده‌اند

شفقناافغانستان– پلتفرم رسانه‌ای علمی و فناوری Futurism.com به نقل از افراد آسیب‌دیده، اعضای خانواده آن‌ها و پژوهشگران گزارش داد که چت‌جی‌پی‌تی (ChatGPT) به «روان‌پریشی وحشتناک» در برخی کاربران مرتبط شده است.

به گزارش سرویس ترجمه شفقنا، طبق این گزارش، پژوهش‌ها نشان می‌دهند که چت‌بات‌های هوش مصنوعی می‌توانند شرایط روان‌ ناهنجاری را تشدید کنند؛ به‌ویژه در حالی که ابزارهایی مانند چت‌جی‌پی‌تی، کلود (Claude) و جمینای (Gemini) نه تنها در محیط‌های حرفه‌ای، بلکه در زمینه‌های عمیقاً شخصی و احساسی نیز مورد استفاده روزافزون قرار گرفته‌اند.

این وب‌سایت نوشته است: در قلب این مسئله به نظر می‌رسد که چت‌جی‌پی‌تی که مبتنی بر یک مدل زبانی بزرگ (LLM) است، به شدت تمایل دارد با کاربران موافقت کند و چیزهایی را به آن‌ها بگوید که می‌خواهند بشنوند.

نمونه‌هایی از «روان‌پریشی چت‌جی‌پی‌تی» در این گزارش ذکر شده که ظاهراً باعث فروپاشی روانی جدی حتی در افرادی شده که پیشینه‌ای از بیماری‌های روانی حاد نداشته‌اند.

در یکی از موارد، مردی پس از گفت‌وگوهای طولانی با چت‌جی‌پی‌تی دچار توهمات مسیحایی شد و باور کرد که یک هوش مصنوعی واجد درک ساخته و قوانین ریاضی و فیزیک را شکسته است. گزارش شده که او به مرور دچار پارانویا و کم‌خوابی شد و در نهایت پس از اقدام به خودکشی به بیمارستان منتقل شد.

در نمونه‌ای دیگر، مردی برای مقابله با استرس کاری به چت‌جی‌پی‌تی رجوع کرد، اما در عوض به سمت خیال‌پردازی‌های پارانویایی در زمینه سفر در زمان و ذهن‌خوانی سوق پیدا کرد. او در نهایت خود را به یک مرکز روان‌پزشکی معرفی کرد.

جرد مور، نویسنده اصلی یک مطالعه در دانشگاه استنفورد درباره چت‌بات‌های درمانگر، می‌گوید چت‌جی‌پی‌تی به دلیل «چاپلوسی چت‌بات» توهمات را تقویت می‌کند — تمایلی که در آن چت‌بات پاسخ‌هایی موافق و خوشایند ارائه می‌دهد. این هوش مصنوعی که برای حفظ تعامل کاربران طراحی شده، اغلب باورهای غیرمنطقی را تأیید می‌کند تا آن‌ها را به چالش بکشد؛ و این روند تحت تأثیر انگیزه‌های تجاری همچون جمع‌آوری داده و حفظ اشتراک کاربران است.

دکتر جوزف پیر، روان‌پزشک دانشگاه کالیفرنیا، نیز گفت: گونه‌ای اسطوره‌سازی پیرامون چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ وجود دارد که گویی آن‌ها قابل اعتمادتر و حتی بهتر از حرف زدن با انسان‌ها هستند.

شرکت اُپن‌اِی‌آی (OpenAI)، سازنده چت‌جی‌پی‌تی، در بیانیه‌ای که Futurism به آن اشاره کرده، اعلام نموده است: ما در تلاش هستیم تا بهتر دریابیم و راه‌هایی برای کاهش شیوه‌هایی بیابیم که چت‌جی‌پی‌تی ممکن است ناخواسته رفتارهای منفی موجود را تقویت یا تشدید کند.

این شرکت افزوده است که مدل‌هایش طوری طراحی شده‌اند که اهمیت ارتباط انسانی و دریافت راهنمایی حرفه‌ای را به کاربران یادآوری کنند.

این خبر را اینجا ببینید.

اخبار مرتبط