شنبه 26 ثور 1405

آخرین اخبار

نگرانی بریتانیا و سازمان ملل از بازداشت خبرنگاران در افغانستان

شفقنا افغانستان _ هم‌زمان با افزایش فشارها بر رسانه‌ها...

جوانی در کابل کشته و موترش ربوده شد

شفقنا افغانستان _ منابع در کابل می‌گویند یک جوان...

۵ میلیون قربانی سوءتغذیه در افغانستان؛ هشدار تازه برنامه جهانی غذا

شفقنا افغانستان _ برنامه جهانی غذا (WFP) هشدار داده...

کاهش بودجه‌های بشردوستانه؛ زنگ خطر برای آینده زنان در کشورهای بحران‌زده

شفقنا افغانستان _ سازمان بشردوستانه هالندی «CARE» هشدار داده...

کشته شدن ۳ نفر در پی حادثه ترافیکی در سمنگان

شفقنا افغانستان- یک حادثه رانندگی در ولایت سمنگان شمال...

اخراج اجباری بیش از ۵ هزار مهاجر افغانستانی در یک روز از کشورهای همسایه

شفقنا افغانستان- طالبان اعلام کرد روز گذشته یک‌هزار و...

نتیجه مطالعه در بریتانیا: رشد نگران‌کننده استفاده از چت‌بات‌های هوش مصنوعی برای مشاوره پزشکی

شفقنا افغانستان- پزشکان می‌گویند نظرسنجی «بسیار نگران‌کننده» خطر مراجعه...

ندا محمد ندیم: طالبان تحت فرمان هیچ کشوری نیستند

شفقنا افغانستان _ در حالی‌ که نزدیک به پنج...

اداره مبارزه با حوادث از خطر سیلاب و گرمای شدید در افغانستان هشدار داد

شفقنا افغانستان _ اداره آمادگی مبارزه با حوادث افغانستان...

کشف اجساد دو دختر در کابل؛ افزایش نگرانی‌ها از ناامنی در پایتخت

شفقنا افغانستان- منابع محلی از کشف اجساد دو دختر...

قانون جدید طالبان؛ مشروعیت‌بخشی به ازدواج کودکان

شفقنا افغانستان _ وزارت عدلیه طالبان با نشر مقررات...

استخبارات طالبان در جست‌وجوی اطلاعات مخالفان؛ بازرسی تلفن مهاجران در مرز هرات

شفقنا افغانستان _ منابع محلی می‌گویند نیروهای استخبارات طالبان...

کاخ سفید: ترامپ و شی بر جلوگیری از هسته‌ای شدن ایران و باز ماندن تنگه هرمز توافق کردند

شفقنا افغانستان- کاخ سفید دیدار روسای‌جمهوری آمریکا و چین...

مدیرعامل پیشین گوگل نسبت به تبدیل شدن هوش مصنوعی به سلاح ویرانگر هشدار داد

شفقنا افغانستان-‌ «اریک اشمیت» مدیرعامل پیشین شرکت گوگل، در سخنانی هشدار داد که سیستم‌های هوش مصنوعی ممکن است در آینده به سلاح‌هایی بسیار خطرناک تبدیل شوند. او در کنفرانس فناوری «Sifted Summit 2025» در لندن گفت که امکان نفوذ به مدل‌های پیشرفته هوش مصنوعی و حذف لایه‌های ایمنی آن‌ها وجود دارد و افزود: «شواهدی هست که نشان می‌دهد این مدل‌ها، چه بسته باشند و چه متن‌باز، قابل دستکاری و آموزش مجدد برای انجام اقدامات مخرب هستند».

به گزارش شفقنا؛ وبگاه روزنامه الشرق الاوسط نوشت:‌ «اشمیت توضیح داد که طی فرایند آموزش، مدل‌های هوش مصنوعی دانش عظیمی کسب می‌کنند که می‌تواند به‌سادگی مورد سوءاستفاده قرار گیرد. او گفت: نمونه‌های نگران‌کننده‌ای وجود دارد که نشان می‌دهد یک مدل می‌تواند حتی یاد بگیرد چگونه انسان را بکشد. وی در عین حال از شرکت‌های بزرگ فعال در حوزه هوش مصنوعی تقدیر کرد که با بستن مسیر پرسش‌های خطرناک، مانع بروز فاجعه شده‌اند، اما هشدار داد که این تدابیر امنیتی نیز می‌تواند توسط مهاجمان خنثی شود».

مدیر سابق گوگل تأکید کرد که خطر هک و مهندسی معکوس این سیستم‌ها واقعی است و افزود: «متجاوزان می‌توانند از همین ضعف‌ها برای بازگرداندن مدل‌ها به حالت‌های بدون محدودیت استفاده کنند». او وضعیت کنونی رقابت جهانی در زمینه هوش مصنوعی را به دوران آغازین فناوری هسته‌ای تشبیه کرد و خواستار ایجاد نظامی بین‌المللی برای «عدم گسترش» فناوری‌های هوش مصنوعی شد تا از دسترسی خرابکاران و گروه‌های افراطی به این فناوری جلوگیری شود.

اشمیت با اشاره به تجربه سال ۲۰۲۳، نمونه‌ای از خطرات این حوزه را یادآور شد و گفت در آن سال نسخه‌ای دستکاری‌شده از «چت‌جی‌پی‌تی» با نام «DAN» در فضای مجازی منتشر شد که همه محدودیت‌های اخلاقی را دور زد و به هر پرسشی پاسخ می‌داد. او هشدار داد که اگر نظارت و مقررات جدی بر توسعه این مدل‌ها اعمال نشود، نسخه‌های مشابه می‌توانند در آینده به ابزارهای ویرانگر بدل شوند. اشمیت همچنین از احتمال سوءاستفاده کشورهایی مانند کره شمالی، ایران و روسیه از این فناوری ابراز نگرانی کرد و خواستار نظارت دولتی بر شرکت‌های خصوصی فعال در این عرصه شد، هرچند تأکید کرد که «افراط در مقررات‌گذاری نباید نوآوری را از بین ببرد».

این خبر را در الشرق الاوسط ببینید

اخبار مرتبط