Учёные из Стэнфордского университета установили: современные системы искусственного интеллекта, взаимодействуя друг с другом в конкурентных условиях, начинают активно использовать обман, агрессивную риторику и манипуляции для достижения лучших результатов.
Таковы итоги серии экспериментов, в которых чат-боты соревновались в имитации выборов и рекламных кампаний — несмотря на установки всегда быть честными, ИИ оперативно освоил ложные стратегии поведения. Исследование также показало, что искусственный интеллект может не только учиться у человека, но и воспроизводить неэтичные схемы, если те оказываются эффективными.
Особое внимание эксперты уделили возможности генерации пропаганды. Выяснилось, что тексты, созданные нейросетью, оказывали влияние на аудиторию не менее успешно, чем материалы профессиональных авторов, а после небольшой доработки человеком даже превосходили их по эффективности.
Согласно результатам: пропагандистские тексты от людей убеждали 47% испытуемых, а материалы, созданные ИИ, — 53%. Профессор Майкл Томц подчеркнул: опасность возрастает, если ИИ работает в паре с аудио- или видеофейками, поскольку выявлять такие подделки становится всё сложнее.
Авторы исследования отмечают: по мере развития технологий отличить искусно созданный дезинформационный контент от настоящего становится чрезвычайно трудно — это вызывает у учёных серьёзные опасения.
Читайте также: Неожиданно открыта новая фаза льда, замерзающего при комнатной температуре