Люди стали чаще доверять искусственному интеллекту, чем человеку
Специалисты из Университета Цюриха провели анализ с использованием относительно старой версии нейросети ChatGPT-3 среди англоязычной аудитории в США, Канаде, Австралии, Соединенном Королевстве и других странах. Для этого использовались посты в популярных соцсетях.
Так, чат-бот по запросу ученых создал несколько публикаций, в которых содержалась как правдивая, так и ложная информация. Причем, для исследования выбирали темы, которые часто провоцируют широкую дискуссию и споры – коронавирус, вакцинация, технология связи пятого поколения, эволюционная теория и прочее. Более того, специалисты отдельно просили нейросеть сгенерировать тексты с фактологическими ошибками и ложными данными в заданной теме.
Для сравнения они также подобрали несколько расширенных постов на те же темы, написанных реальными людьми. Впоследствии участников эксперимента попросили классифицировать посты, разделив их на ложные и правдивые. Как оказалось, выявить ложь у пользователей чаще получается у постов, написанных живыми людьми, а вот искусственный интеллект во многих случаях успешно дезинформировал аудиторию, которая даже не подозревала подвох.
Источник: rg.ru
Обсудим?
Смотрите также: