От ботов-переводчиков до систем обнаружения дипфейков — инструменты искусственного интеллекта (ИИ) меняют подходы к предупреждению, информированию и успокоению общественности в чрезвычайных ситуациях со стороны органов власти. Однако эти технологии могут нести в себе риски, если они оказываются в неправильных руках или применяются до того, как факты прошли проверку. В мире, перенасыщенном искусственно созданными данными, воспринятый образ может отодвинуть реальность на второй план. Это особенно важно в вопросах коммуникации в аварийных ситуациях, где значение имеет не только своевременность информации, но и доверие к ней.
В июне 2025 года МАГАТЭ собрало группу ведущих экспертов по связям с общественностью в ядерных и радиологических аварийных ситуациях, чтобы изучить, как ИИ меняет принципы взаимодействия. Их задача заключалась в том, чтобы помочь странам адаптироваться к ситуации с помощью научно обоснованных рекомендаций, новых исследований и шагов по созданию практического потенциала.
?В условиях, когда ИИ меняет информационное пространство, мы стремимся оказывать поддержку государствам, предоставляя им эффективные рекомендации, налаживая взаимодействие с ведущими экспертами и помогая им ориентироваться в этой динамично развивающейся и постоянно меняющейся сфере?, — говорит Наяна Джаяраджан, специалист по информационно-просветительской работе Центра МАГАТЭ по инцидентам и аварийным ситуациям.
Предотвращение злонамеренного использования ИИ в кризисных ситуациях
В настоящие дни дипфейки способны вызвать больше паники, чем настоящее оповещение о чрезвычайной ситуации. Во время урагана ?Хелен? в 2024 году социальные сети в Соединенных Штатах Америки были переполнены изображениями, созданными ИИ, включая фотографию растерянной девочки, прижимающей к себе щенка в спасательной лодке. Несмотря на то, что это изображение было полностью искусственно созданным, оно распространялось по интернет-каналам быстрее, чем официальные сообщения. Такие поддельные изображения могут приводить к распылению и без того ограниченных ресурсов, они способны подорвать доверие общества к усилиям властей и укрепить манипулятивные нарративы.
?Первой и наиболее насущной задачей, которую ставит перед нами генеративный ИИ, — рассказывает Калина Бонтчева, профессор информатики в Университете Шеффилда, — является улучшение защитных механизмов моделей для предотвращения их злонамеренного использования в целях массового создания убедительной, разжигающей противоречия ложной информации — бесплатно или по очень низкой цене?.
?Поскольку в современной коммуникации исключена роль посредника, порядок доступа общественности к информации кардинальным образом изменился?, — утверждает Ахим Нойхаузер, глава канцелярии председателя Федерального ведомства Германии по защите от радиации.
Ложная информация на базе ИИ не просто искажает картину событий — она ставит под сомнение их достоверность.
Повышение эффективности ИИ в коммуникациях при кризисных ситуациях
?Кризисы изменяют динамику отношений между организациями и общественностью, — считает доцент Университета штата Северная Каролина Элис Ченг. — Доверие и удовлетворенность могут на время исчезать, а общественность может иначе оценивать существующие отношения, исходя из своего восприятия достоверности и готовности организаций реагировать на ее запросы?.
Ченг провела опрос среди более 660 человек в Великобритании, чтобы понять, на чем основывается доверие к ИИ во время чрезвычайных ситуаций и как это доверие влияет на поведение людей. Участникам был предложен реалистичный сценарий, согласно которому крупная компания во время стихийного бедствия использует инструменты на основе ИИ, такие как заблаговременные предупреждения и инструкции по эвакуации. Затем участники отвечали на вопросы об этике компании, способностях ИИ, социальных факторах влияния, а также о своем личном уровне доверия и намерениях. Результаты показали, что доверие людей к ИИ определялось тем, насколько этичной они считали использующую его компанию, насколько способным, по их мнению, был ИИ, а также какой реакции, по их мнению, ожидали от них другие люди.
Доверие к ИИ значительно повышало доверие к компании, что, в свою очередь, побуждало людей делиться личными рекомендациями и быть готовыми поддержать компанию в чрезвычайной ситуации. Эти рекомендации напрямую увеличивали стремление людей оказывать помощь. В целом исследование показало, что совокупность факторов этики, компетентности ИИ и социальных норм способствует созданию атмосферы доверия, а затем она передается через личные рекомендации и повышает готовность людей к сотрудничеству в кризисной ситуации.
В подобных меняющихся условиях специалистам по коммуникации может быть необходима помощь, и в этом случае ИИ, при правильном использовании, становится реальным подспорьем. ?Эти технологии могут существенно улучшить коммуникацию в кризисных ситуациях, — говорит директор Бюро общественной информации и коммуникации МАГАТЭ Софи Буто де ла Комб. — Например, цифровое картирование угроз в режиме реального времени и анализ тональности высказываний позволяют организациям отслеживать, насколько эмоционально общественность реагирует на кризисные сообщения на разных платформах. Такая обратная связь позволяет вырабатывать более подходящие и чуткие стратегии коммуникации, помогая органам власти точнее подбирать смысловые оттенки и тайминг своих сообщений в критически важных ситуациях?.
Без человеческого надзора все равно не обойтись
По словам Нойхаузера, людям, пережившим травмирующее событие, необходим контакт с реальными людьми — будь то по телефону или при личной встрече. Как он говорит, исследования о восприятии ИИ и чат-ботов показывают, что люди принимают эту технологию, когда она использует привычные для человека способы ведения разговора.
Ченг в своем исследовании подчеркивает, что при интеграции ИИ в системы коммуникации в чрезвычайных ситуациях крайне важны развитые этические и технические механизмы защиты. Несмотря на то, что эти инструменты способны повышать эффективность коммуникации, уровень доверия общества во многом зависит от опасений по поводу конфиденциальности. Доступные объяснения принципов работы технологии, прозрачность в вопросах использования данных и четкие механизмы добровольного согласия — все это необходимо для сохранения общественного доверия и должной степени взаимодействия.
Ченг считает, что роль специалиста по коммуникациям меняется. ?В коммуникационной среде, где все чаще используется ИИ, значение человеческого суждения не уменьшается, а приобретает более стратегический характер. Роль специалиста по коммуникациям смещается от функций по созданию сообщений в сторону функций надзора, курирования и налаживания доверительных отношений?, — продолжает она.
Буто де ла Комб подчеркивает важность работы с дезинформацией при проведении национальных оценок рисков в чрезвычайных ситуациях и считает, что организациям, отвечающим за аварийное реагирование, следует на институциональном уровне формализовывать протоколы оперативного информирования общественности, обучать назначенных официальных представителей и заранее подготавливать многоязычные информационные материалы для общественности.
При разработке политики использования ИИ необходимо сосредоточиться на балансе между автоматизацией и подотчетностью. ?ИИ не сможет заменить человеческие суждения в чрезвычайных ситуациях, но он изменит подход к тому, как мы выявляем кризисные явления, реагируем на них и моделируем их, — комментирует консультант по коммуникациям в кризисных ситуациях из Дубая Филипп Борреманс. — В среде, изобилующей дезинформацией, он одновременно выступает и усилителем, и фильтром. Задача состоит в том, чтобы алгоритмы вносили ясность, а не путаницу и чтобы при этом человеческий голос сохранял свою ведущую роль?.
Этот голос — этичный, чуткий, аргументированный — может оказаться самым ценным стратегическим ресурсом из всех.