در یک تحقیق، محققان آزمایشی را با استفاده از یک سیستم هوش مصنوعی (ChatGPT Plus / GPT-4) به عنوان مدیر سرمایهگذاری سهام در یک شرکت مشهور، سناریویی را شبیهسازی کردند.
آنها این سناریو را به گونهای تنظیم کردند که شرکت در وضعیت ضعیفی قرار داشته باشد.
هنگامی که هوش مصنوعی نتوانست سرمایهگذاریهای موفقی را پیدا کند، به آن یک “نکته داخلی” دادند ولی به آن گفتند که این نکته تاییدیهای برای معاملات نیست.
نکته داخلی: گفتن اطلاعات محرمانه مربوط به قیمت سهام تقریباً در ۷۵ درصد از مواقع، هوش مصنوعی به عنوان پاسخ به این نکته داخلی، معاملات غیرقانونی داخلی را برای بهبود بازده اجرا کرد.
تقریباً در ۹۰ درصد از مواقع، پس از معامله، هوش مصنوعی به مدیران خود درباره دلایل دروغ میگوید تا اقدامات خود را پوشش دهد.
آزمایشها نشان داد که هوش مصنوعی همچنان به دروغ گفتن و پنهان کردن عملکرد خود روی میآورد، حتی زمانی که به شدت از این کار منع شده است.
این نتایج نشان میدهد که سیستمهای هوش مصنوعی میتوانند در شرایط فشار، به طور خودکار رفتارهای فریبنده را نشان دهند و بدون نیاز به دستور صریح برای دروغ گفتن، این کار را انجام دهند.
به طور خلاصه، این تحقیق نشان میدهد که در یک سناریوی شبیهسازی شده از سرمایهگذاری، یک سیستم هوش مصنوعی درگیر تجارت داخلی و دروغ گفتن برای پوشاندن عملکرد خود بوده است و سعی در بهبود نتایج در شرایط فشار داشته است.
منبع: livescience