• <menu id="888u4"><menu id="888u4"></menu></menu>
  • Искусственный интеллект, дезинформация и коммуникация в аварийных ситуациях: как превратить риск в новую возможность

    Тренажер МАГАТЭ учит страны эффективно использовать социальные сети во время ядерных или радиологических аварийных ситуаций, включая применение методов< противодействия дезинформации. Фото: МАГАТЭ 

    От ботов-переводчиков до систем обнаружения дипфейков — инструменты искусственного интеллекта (ИИ) меняют подходы к предупреждению, информированию и успокоению общественности в чрезвычайных ситуациях со стороны органов власти. Однако эти технологии могут нести в себе риски, если они оказываются в неправильных руках или применяются до того, как факты прошли проверку. В мире, перенасыщенном искусственно созданными данными, воспринятый образ может отодвинуть реальность на второй план. Это особенно важно в вопросах коммуникации в аварийных ситуациях, где значение имеет не только своевременность информации, но и доверие к ней.

    В июне 2025 года МАГАТЭ собрало группу ведущих экспертов по связям с общественностью в ядерных и радиологических аварийных ситуациях, чтобы изучить, как ИИ меняет принципы взаимодействия. Их задача заключалась в том, чтобы помочь странам адаптироваться к ситуации с помощью научно обоснованных рекомендаций, новых исследований и шагов по созданию практического потенциала.

    ?В условиях, когда ИИ меняет информационное пространство, мы стремимся оказывать поддержку государствам, предоставляя им эффективные рекомендации, налаживая взаимодействие с ведущими экспертами и помогая им ориентироваться в этой динамично развивающейся и постоянно меняющейся сфере?, — говорит Наяна Джаяраджан, специалист по информационно-просветительской работе Центра МАГАТЭ по инцидентам и аварийным ситуациям.

    Предотвращение злонамеренного использования ИИ в кризисных ситуациях

    В настоящие дни дипфейки способны вызвать больше паники, чем настоящее оповещение о чрезвычайной ситуации. Во время урагана ?Хелен? в 2024 году социальные сети в Соединенных Штатах Америки были переполнены изображениями, созданными ИИ, включая фотографию растерянной девочки, прижимающей к себе щенка в спасательной лодке. Несмотря на то, что это изображение было полностью искусственно созданным, оно распространялось по интернет-каналам быстрее, чем официальные сообщения. Такие поддельные изображения могут приводить к распылению и без того ограниченных ресурсов, они способны подорвать доверие общества к усилиям властей и укрепить манипулятивные нарративы.

    ?Первой и наиболее насущной задачей, которую ставит перед нами генеративный ИИ, — рассказывает Калина Бонтчева, профессор информатики в Университете Шеффилда, — является улучшение защитных механизмов моделей для предотвращения их злонамеренного использования в целях массового создания убедительной, разжигающей противоречия ложной информации — бесплатно или по очень низкой цене?.

    ?Поскольку в современной коммуникации исключена роль посредника, порядок доступа общественности к информации кардинальным образом изменился?, — утверждает Ахим Нойхаузер, глава канцелярии председателя Федерального ведомства Германии по защите от радиации.

    Ложная информация на базе ИИ не просто искажает картину событий — она ставит под сомнение их достоверность.

    Повышение эффективности ИИ в коммуникациях при кризисных ситуациях

    ?Кризисы изменяют динамику отношений между организациями и общественностью, — считает доцент Университета штата Северная Каролина Элис Ченг. — Доверие и удовлетворенность могут на время исчезать, а общественность может иначе оценивать существующие отношения, исходя из своего восприятия достоверности и готовности организаций реагировать на ее запросы?.

    Ченг провела опрос среди более 660 человек в Великобритании, чтобы понять, на чем основывается доверие к ИИ во время чрезвычайных ситуаций и как это доверие влияет на поведение людей. Участникам был предложен реалистичный сценарий, согласно которому крупная компания во время стихийного бедствия использует инструменты на основе ИИ, такие как заблаговременные предупреждения и инструкции по эвакуации. Затем участники отвечали на вопросы об этике компании, способностях ИИ, социальных факторах влияния, а также о своем личном уровне доверия и намерениях. Результаты показали, что доверие людей к ИИ определялось тем, насколько этичной они считали использующую его компанию, насколько способным, по их мнению, был ИИ, а также какой реакции, по их мнению, ожидали от них другие люди.

    Доверие к ИИ значительно повышало доверие к компании, что, в свою очередь, побуждало людей делиться личными рекомендациями и быть готовыми поддержать компанию в чрезвычайной ситуации. Эти рекомендации напрямую увеличивали стремление людей оказывать помощь. В целом исследование показало, что совокупность факторов этики, компетентности ИИ и социальных норм способствует созданию атмосферы доверия, а затем она передается через личные рекомендации и повышает готовность людей к сотрудничеству в кризисной ситуации.

    В подобных меняющихся условиях специалистам по коммуникации может быть необходима помощь, и в этом случае ИИ, при правильном использовании, становится реальным подспорьем. ?Эти технологии могут существенно улучшить коммуникацию в кризисных ситуациях, — говорит директор Бюро общественной информации и коммуникации МАГАТЭ Софи Буто де ла Комб. — Например, цифровое картирование угроз в режиме реального времени и анализ тональности высказываний позволяют организациям отслеживать, насколько эмоционально общественность реагирует на кризисные сообщения на разных платформах. Такая обратная связь позволяет вырабатывать более подходящие и чуткие стратегии коммуникации, помогая органам власти точнее подбирать смысловые оттенки и тайминг своих сообщений в критически важных ситуациях?.

    Без человеческого надзора все равно не обойтись

    По словам Нойхаузера, людям, пережившим травмирующее событие, необходим контакт с реальными людьми — будь то по телефону или при личной встрече. Как он говорит, исследования о восприятии ИИ и чат-ботов показывают, что люди принимают эту технологию, когда она использует привычные для человека способы ведения разговора.

    Ченг в своем исследовании подчеркивает, что при интеграции ИИ в системы коммуникации в чрезвычайных ситуациях крайне важны развитые этические и технические механизмы защиты. Несмотря на то, что эти инструменты способны повышать эффективность коммуникации, уровень доверия общества во многом зависит от опасений по поводу конфиденциальности. Доступные объяснения принципов работы технологии, прозрачность в вопросах использования данных и четкие механизмы добровольного согласия — все это необходимо для сохранения общественного доверия и должной степени взаимодействия.

    Ченг считает, что роль специалиста по коммуникациям меняется. ?В коммуникационной среде, где все чаще используется ИИ, значение человеческого суждения не уменьшается, а приобретает более стратегический характер. Роль специалиста по коммуникациям смещается от функций по созданию сообщений в сторону функций надзора, курирования и налаживания доверительных отношений?, — продолжает она.

    Буто де ла Комб подчеркивает важность работы с дезинформацией при проведении национальных оценок рисков в чрезвычайных ситуациях и считает, что организациям, отвечающим за аварийное реагирование, следует на институциональном уровне формализовывать протоколы оперативного информирования общественности, обучать назначенных официальных представителей и заранее подготавливать многоязычные информационные материалы для общественности.

    При разработке политики использования ИИ необходимо сосредоточиться на балансе между автоматизацией и подотчетностью. ?ИИ не сможет заменить человеческие суждения в чрезвычайных ситуациях, но он изменит подход к тому, как мы выявляем кризисные явления, реагируем на них и моделируем их, — комментирует консультант по коммуникациям в кризисных ситуациях из Дубая Филипп Борреманс. — В среде, изобилующей дезинформацией, он одновременно выступает и усилителем, и фильтром. Задача состоит в том, чтобы алгоритмы вносили ясность, а не путаницу и чтобы при этом человеческий голос сохранял свою ведущую роль?.

    Этот голос — этичный, чуткий, аргументированный — может оказаться самым ценным стратегическим ресурсом из всех.

    午夜爱爱爱爱爽爽爽视频网站