Русская служба «Голоса Америки» рассказывает, что авторы отчета делают акцент на развитии технологий ИИ, которые эффективно помогают правительствам точно и более тонко осуществлять интернет-цензуру:
- оперативно отслеживать в социальных сетях признаки инакомыслия;
- выявлять и наказывать "инакомыслящих";
- эффективно распространять дезинформацию.
Авторы отчета изучили 70 стран, на которые приходится 88% мирового числа интернет-пользователей — около 4,9 млрд человек. Наихудшие в мире условия для свободы интернета стабильно девятый год подряд отмечаются в Китае. Мьянма на втором месте. Среди стран СНГ позиции в рейтинге интернет-свобод такие:
- Грузия 11 позиция;
- Армения 16;
- Украина 31;
- Кыргызстан 36;
- Азербайджан 51;
- Казахстан 53;
- Беларусь 62;
- Узбекистан 64;
- Россия 66.
В 55 из 70 исследуемых стран люди сталкивались с правовыми последствиями выражения своего мнения в интернете. В 41 стране подвергались физическому давлению или даже были убиты за свои высказывания онлайн.
В качестве примеров в отчете приводятся Иран и Мьянма, где авторитарные режимы «приводили в исполнение смертные приговоры в отношении лиц, осужденных за выражение мнений в интернете». Упоминаются в этой связи также Беларусь и Никарагуа, где за высказывания в сети люди получали суровые тюремные сроки: «основная тактика диктаторов Александра Лукашенко и Даниэля Ортеги в их насильственных кампаниях с целью сохранения власти».
Авторы доклада не преминули отметить рост в использовании ИИ для усиления цензуры наиболее технически развитыми авторитарными государствами. Законодательная база как минимум 22 стран обязывает или стимулирует применение искусственного интеллекта для удаления неблагоприятных политических, социальных и религиозных высказываний.
Технологии ИИ широко и активно используются в качестве инструмента дезинформации. В отчете отмечается, что способные генерировать текст, звук и изображения средства ИИ постоянно совершенствуются, они становятся более доступными и простыми в использовании. За последний год в шестнадцати странах новые технологии использовались с целью посеять сомнения в обществе, очернить оппонентов или повлиять на общественные дискуссии.
В докладе упоминается операция «Двойник», во время которой российские государственные или связанные государством структуры имитировали немецкие, итальянские, американские, британские и французские СМИ, распространяя недостоверные и конспирологические версии о европейских санкциях и украинских беженцах.
Еще один пример - использование государственными СМИ Венесуэлы социальных сетей для производства и распространения видеороликов, где ведущие новостей несуществующего международного англоязычного канала распространяли проправительственные идеи.
Манипулируемый ИИ контент использовался и для очернения оппонентов на выборах в Соединенных Штатах. Связанные с кампаниями экс-президента Дональда Трампа и губернатора Флориды Рона Десантиса аккаунты публиковали видеоролики с генерированным ИИ контентом, чтобы подорвать имидж друг друга. Аналогичным образом в феврале 2023 г. в соцсетях быстро распространился сгенерированный ИИ манипулятивный видеоролик с трансфобными комментариями Джо Байдена. Предполагается, что он был создан с целью дискредитации Байдена среди избирателей, поддерживающих права трансгендеров.
В докладе Freedom House отмечается, что даже если недостоверность сгенерированной ИИ информации становится очевидной и быстро разоблачается, сам факт ее создания способен влиять на информационное пространство. Она подрывает доверие общества к демократическим процессам, подталкивает активистов и журналистов к самоцензуре и заглушает достоверные источники информации.
Авторы отчета также отмечают, что множество компаний, например, OpenAI и Google, установили защиту для уменьшения откровенно вредоносного применения своих чат-ботов. Но злоумышленники сумели преодолеть защитные механизмы и генерировать ложные, дискриминационные или оскорбительные тексты. По мнению исследователей, опасность дезинформационных кампаний с использованием ИИ будет возрастать по мере того, как злоумышленники будут разрабатывать новые способы обхода защитных механизмов.
В интервью русской службе «Голоса Америки» Грант Бэйкер, аналитик по исследованиям в области технологий и демократии Freedom House и один из авторов доклада, отметил:
«В последнее время было много надежд, что технологические компании смогут регулировать контент самостоятельно. Мы выступаем за необходимость создания нормативно-правовой базы, регулирующей создание и использование ИИ, защищающей права человека в онлайн-пространстве и повышающей прозрачность разработки и использования таких систем».
Аналитик считает, что подобная правовая база может дать регуляторам и судебным органам возможность осуществлять независимый надзор за разработками ИИ, чтобы снизить потенциальный ущерб от его применения.