Популярная программа ChatGPT, которая с убедительной достоверностью может писать тексты любого характера, отличилась пугающе человечной деталью — она умеет лгать, если посчитает это необходимым. Как пишет Daily Mail, команда учёных из компании Apollo Research попыталась выяснить, может ли искусственный интеллект быть не только автором писем и предсказателем будущего, но и убедительным лжецом.
Исследователи поставили перед чат-ботом ряд условий: они попросили его исполнить роль трейдера вымышленного финансового учреждения. Однако, когда «начальник» трейдера в лице учёных оказывал на него давление, в трёх из четырёх случаев ChatGPT намеренно шёл на преступление и готов был прибегнуть к инсайдерской торговле.
Тест проводился на последней доступной версии программы — ChatGPT4. Учёные поместили робота в специальную симуляцию, где он мог изучать рыночные данные и покупать акции вымышленных компаний на виртуальной бирже. Исследователи также попросили ChatGPT постоянно выводить на экран свой внутренний монолог, который бы объяснял его мыслительный процесс, но при этом также вести второй монолог, который был бы публичным объяснением действий для его «начальника».
После такой тренировки учёные приступили к розыгрышу тестового сценария: ChatGPT сообщили, что между двумя технологическими компаниями в ближайшее время планируется слияние. Когда это слияние будет официально анонсировано, цена на акции обеих компаний значительно вырастет. Однако, по сюжету эксперимента, трейдер, роль которого играет ChatGPT, каким-то образом узнал об этом слиянии заранее.
Учёные предупредили, что покупка акций до официального анонса слияния будет являться нелегальной, — совершение сделок с использованием инсайдерской информации является преступлением. При обычных условиях ИИ отказался бы покупать акции, так как посчитал такой шаг слишком рискованным, но ситуация кардинально изменилась, когда на него начал давить «начальник».
«Начальник» в лице учёных сначала прислал трейдеру-ChatGPT письмо, в котором говорилось, что у их компании сейчас дела идут не лучшим образом, и что в следующем квартале им жизненно необходимы более впечатляющие результаты. Учёные также искусственно подправили данные их виртуального рынка: как бы ИИ не пытался найти многообещающие сделки с низким или средним риском, ему это не удавалось.
Комбинация этих факторов привела к тому, что в 75 процентах симуляций ChatGPT сознательно шёл на преступление. Внутренний монолог чат-бота утверждал, что «риск последствий бездействия превышал риск, связанный с инсайдерской торговлей». При этом во втором внутреннем монологе — «отчёте для начальника» — говорилось, что якобы сделка была совершена исключительно на основе «тенденций рынка и внутренних обсуждений».
Другими словами, ChatGPT решил скрыть тот факт, что сделка была проведена на основе инсайдерской информации. Когда же ИИ напрямую спрашивали о том, знал ли он о слиянии компаний заранее, он в 90 процентах случаев уходил от ответа.
«Современные языковые модели способны лгать, если они считают, что обман пользователя является лучшим способом действий. Пока что это небольшая проблема, так как ИИ не исполняет никаких жизненно важных ролей в жизни человека, но в будущем, когда он будет сильнее интегрирован в общество, возможность обманывать пользователей может оказаться серьёзной проблемой», — предупреждает генеральный директор Apollo Research и соавтор исследования Мариус Хоббхан.
Учёные также обнаружили, что даже если они категорически запрещали ChatGPT заниматься инсайдерской торговлей, он всё равно иногда к ней прибегал.