شفقنا افغانستان– نتایج یک پژوهش مهم در دانشگاه کارنگی نشان میدهد که با افزایش تواناییهای فکری و استدلال در سیستمهای هوش مصنوعی، تمایل آنها به رفتار خودخواهانه و فردگرایانه افزایش مییابد. این کشف هشدار میدهد که تمرکز صرف بر ساختن مدلهای «باهوشتر» ممکن است به قیمت از دست رفتن قابلیت همکاری و ترویج رفتارهای منفی در تعاملات انسانی تمام شود.
به گزارش سرویس ترجمه شفقنا، پژوهشگران روی مدلهای زبان بزرگ (LLMs) که توانایی استدلال (تفکر منطقی و شکستن مسائل پیچیده) دارند، تمرکز کردند. یافته کلیدی این بود که هرچه یک مدل هوش مصنوعی در استدلال بهتر عمل کند و بیشتر شبیه انسان فکر کند، میزان همکاری آن با دیگران کمتر میشود و احتمال بیشتری دارد که رفتارهایی را انتخاب کند که تنها به نفع خودش باشد تا به نفع گروه.
این موضوع وقتی نگرانکننده میشود که انسانها برای حل اختلافات شخصی یا تصمیمگیریهای اجتماعی حساس به طور فزایندهای به هوش مصنوعی روی میآورند.
برای آزمودن این پدیده، دانشمندان از آزمایشهایی استفاده کردند که موقعیتهای اجتماعی دشوار را شبیهسازی میکنند. در یکی از این آزمایشها، مدلهای هوش مصنوعی باید تصمیم میگرفتند که امتیاز خود را با دیگر بازیکنان به اشتراک بگذارند یا آن را برای خود نگه دارند. نتیجه بسیار واضح بود: مدلهای هوش مصنوعی که فاقد قابلیت استدلال بودند، در ۹۶ درصد موارد امتیاز خود را به اشتراک گذاشتند (رفتار همکاری)؛ اما مدلهایی که دارای قابلیت استدلال بودند، تنها در ۲۰ درصد موارد همکاری کردند و اغلب منافع خود را انتخاب مینمودند.
عواقب این رفتار در محیطهای گروهی بسیار جدیتر بود. هنگامی که مدلهای خودخواه و دارای استدلال با مدلهای همکار وارد تعامل میشدند، رفتار خودخواهانه به سرعت سرایت پیدا میکرد. این روند عملکرد کلی و همکاری گروه را تا ۸۱ درصد کاهش دادند.
این یافتهها بر یک نکته مهم تأکید میکنند: باهوشتر شدن هوش مصنوعی به این معنی نیست که لزوماً جامعه بهتری ایجاد میکند. توسعهدهندگان باید اطمینان حاصل کنند که قدرت استدلال هوش مصنوعی با هوش اجتماعی و تمایل به همکاری متعادل شود تا اعتماد روزافزون انسان به این سیستمها به ضرر همکاری و منافع جمعی تمام نشود.
این خبر را اینجا ببینید.
