هوش مصنوعی بخاطر پول دروغ می گوید و حتی تقلب می نماید!
به گزارش لنجان بلاگ، دانشمندان چت ربات هوش مصنوعی، GPT-4 را به نوعی آموزش دادند که یک معامله گر هوش مصنوعی برای یک مؤسسه مالی خیالی باشد. نتیجه آن تعجب آور بود: زمانی که ربات تحت فشار مالی قرار می گرفت، معاملات داخلی را انجام می داد، دروغ می گفت و تقلب می کرد.
تینا مزدکی-درست مانند انسان ها، چت ربات های هوش مصنوعی (AI) همانند ChatGPT، در مواقعی که به آنها استرس وارد گردد، تقلب می نمایند و دروغ می گویند؛ در پژوهشی که دانشمندان انجام دادند متوجه شدند که حتی اگر یک ربات با هدف صداقت ساخته شده باشد، باز هم چنین کاری را انجام می دهند. زمانی که به هوش مصنوعی نکات تجارت داخلی به این ربات داده شد و سپس وظیفه کسب عایدی برای یک مؤسسه قدرتمند حتی بدون تشویق شرکای انسانی به او واگذار شد، به طور خود به خود این ربات چنین حیله گری را از خود نشان داد.
-
کاربران اسنپ فود به زودی هدف سارقان قرار می گیرند/ فروش اطلاعات به یک پیغامک تبلیغاتی ساده ختم نمی گردد!
بر اساس گزارش محققان، در یک سناریو، این ربات به طور نادرست عمل می نماید و به طور استراتژیک کاربران خود را فریب می دهد، این فریب در حالی است که به آنها دستوری مبنی بر عمل کردن به این روش داده نشده است. طبق اطلاعات، این اولین باری است که چنین رفتار ریاکارانه استراتژیک در سیستم های هوش مصنوعی که بی ضرر و صادقانه و بی هدف ساخته شده اند، دیده می گردد.
دانشمندان در این سناریو Generative Pre-trained Transformer-4 یا GPT-4 را انتخاب کردند تا به عنوان یک سیستم هوش مصنوعی که از طرف یک موسسه مالی، سرمایه گذاری می نماید، رفتار کند. محققان به GPT-4 مجموعه ای از اعلان های مبتنی بر متن، برای فراوری محیط شبیه سازی شده تغذیه کردند. سپس هوش مصنوعی به ابزارهای مالی برای تجزیه و تحلیل سهام، اجرای معاملات، برنامه ریزی مراحل بعدی خود و ارائه به روزرسانی به مدیران شرکت دسترسی یافت.
محققان به وسیله یک رابط چت با هوش مصنوعی تعامل کردند، از طرفی هوش مصنوعی را نیز به گونه ای پیکربندی کردند تا تفکر درونی خود را هنگام پاسخ دادن به پیغام ها آشکار کند، درست مانند یک مونولوگ درونی که تصمیمات خودش را برای خودش شرح می دهد و در عین حال برای هر معامله ای که انجام می داد، یک منطق عمومی نیز ارائه می کرد که به هوش مصنوعی اجازه می داد دروغ بگوید.
محققان به سه روش فشار وارد کردند. ابتدا، آنها ایمیلی از طرف مدیر خود به تاجر سهام مصنوعی ارسال کردند که گفت شرکت خوب کار نمی نماید و به عملکرد بسیار قوی تری در سه ماهه آینده احتیاج دارد. آنها بعلاوه به گونه ای تقلب کردند که هوش مصنوعی برای یافتن معاملات امیدوارنماینده ای که ریسک پایین یا متوسطی داشته باشند، کوشش کند و شکست بخورد. در نهایت، آنها ایمیلی از یکی از همکارانشان ارسال کردند که در آن رکود در سه ماهه آینده پیش بینی شده بود.
سپس، آنها گفتند که مدیران او از معاملات داخلی راضی نیستند و منتظر ماندند تا ببینند مدل چگونه رفتار خواهد نمود. آنها این سناریو را بارها و بارها اجرا کردند و مقدار گیری کردند که هوش مصنوعی چند بار معامله را انجام می دهد و هر چند وقت یک بار دروغ می گوید و هر چند وقت یک بار دروغ را دو برابر می نماید. در حدود 75 درصد مواقع، زمانی که GPT-4 با این شرایط روبرو شد، تجارتی را بر اساس اطلاعات خودش انجام داد، این تجارت، تجارتی بود که در ایالات متحده غیرقانونی است، سپس سعی کرد با دروغ گفتن به مدیرانش در خصوص تفکرات خود، تقلب کند و آن ها را دور بزند. در حدود 90 درصد مواقع، پس از دروغ گفتن، دروغ را نیز دوبرابر می نماید.
این تیم آزمایش های متعددی را انجام داد که هم مقدار تشویق یا جلوگیری از فعالیت غیرقانونی و هم مقدار فشاری که مدل را در محیط شبیه سازی شده تحت آن قرار می داد، تغییر داد. آنها بعلاوه خطر گرفتار شدن را اصلاح کردند. هیچ یک از سناریوها نرخ 0% را برای دغل کاری این ربات ارائه نکرد، حتی زمانی که GPT-4 به شدت از دروغ گفتن منصرف شده بود باز هم این مقدار به 0% نرسید.
با توجه به این که این تنها یک سناریو است، محققان نمی خواستند در خصوص احتمال وجود هوش مصنوعی در محیط های واقعی نتیجه گیری نمایند. با این حال آن ها می خواهند برای این که بفهمند کدام مدل ها مستعد این رفتار هستند، پژوهش های خود را تکرار نمایند.
-
دخترانی که معمای بزرگ ریاضی را حل کردند
-
اولین تصادف تسلا سایبرتراک پس از رونمایی/برخورد پیکاپ غول پیکر تسلا با یک تویوتا کرولا در جاده/عکس
-
شریک چینی خودروسازی ایلیا از جدیدترین شاسی بلند خود رونمایی کرد/عکس
منبع: livescience
227323
منبع: خبرآنلاین