fbpx

GR EN FR DE ES CN
IL AL BG TR UA GE

Menu
Login

Исследование: уровень свободы в интернете снижается 13-й год подряд

Исследование: уровень свободы в интернете снижается 13-й год подряд

В ежегодном отчете Freedom House «Свобода в сети», опубликованном на днях, говорится о снижении уровня свободы в интернете, и все "благодаря" искусственному интеллекту.

Русская служба «Голоса Америки» рассказывает, что авторы отчета делают акцент на развитии технологий ИИ, которые эффективно помогают правительствам точно и более тонко осуществлять интернет-цензуру:

  • оперативно отслеживать в социальных сетях признаки инакомыслия;
  • выявлять и наказывать "инакомыслящих";
  • эффективно распространять дезинформацию.

Авторы отчета изучили 70 стран, на которые приходится 88% мирового числа интернет-пользователей — около 4,9 млрд человек. Наихудшие в мире условия для свободы интернета стабильно девятый год подряд отмечаются в Китае. Мьянма на втором месте. Среди стран СНГ позиции в рейтинге интернет-свобод такие:

  • Грузия 11 позиция;
  • Армения 16;
  • Украина 31;
  • Кыргызстан 36;
  • Азербайджан 51;
  • Казахстан 53;
  • Беларусь 62;
  • Узбекистан 64;
  • Россия 66.

В 55 из 70 исследуемых стран люди сталкивались с правовыми последствиями выражения своего мнения в интернете. В 41 стране подвергались физическому давлению или даже были убиты за свои высказывания онлайн.

В качестве примеров в отчете приводятся Иран и Мьянма, где авторитарные режимы «приводили в исполнение смертные приговоры в отношении лиц, осужденных за выражение мнений в интернете». Упоминаются в этой связи также Беларусь и Никарагуа, где за высказывания в сети люди получали суровые тюремные сроки: «основная тактика диктаторов Александра Лукашенко и Даниэля Ортеги в их насильственных кампаниях с целью сохранения власти».

Авторы доклада не преминули отметить рост в использовании ИИ для усиления цензуры наиболее технически развитыми авторитарными государствами. Законодательная база как минимум 22 стран обязывает или стимулирует применение искусственного интеллекта для удаления неблагоприятных политических, социальных и религиозных высказываний.

Технологии ИИ широко и активно используются в качестве инструмента дезинформации. В отчете отмечается, что способные генерировать текст, звук и изображения средства ИИ постоянно совершенствуются, они становятся более доступными и простыми в использовании. За последний год в шестнадцати странах новые технологии использовались с целью посеять сомнения в обществе, очернить оппонентов или повлиять на общественные дискуссии.

В докладе упоминается операция «Двойник», во время которой российские государственные или связанные государством структуры имитировали немецкие, итальянские, американские, британские и французские СМИ, распространяя недостоверные и конспирологические версии о европейских санкциях и украинских беженцах.

Еще один пример - использование государственными СМИ Венесуэлы социальных сетей для производства и распространения видеороликов, где ведущие новостей несуществующего международного англоязычного канала распространяли проправительственные идеи.

Манипулируемый ИИ контент использовался и для очернения оппонентов на выборах в Соединенных Штатах. Связанные с кампаниями экс-президента Дональда Трампа и губернатора Флориды Рона Десантиса аккаунты публиковали видеоролики с генерированным ИИ контентом, чтобы подорвать имидж друг друга. Аналогичным образом в феврале 2023 г. в соцсетях быстро распространился сгенерированный ИИ манипулятивный видеоролик с трансфобными комментариями Джо Байдена. Предполагается, что он был создан с целью дискредитации Байдена среди избирателей, поддерживающих права трансгендеров.

В докладе Freedom House отмечается, что даже если недостоверность сгенерированной ИИ информации становится очевидной и быстро разоблачается, сам факт ее создания способен влиять на информационное пространство. Она подрывает доверие общества к демократическим процессам, подталкивает активистов и журналистов к самоцензуре и заглушает достоверные источники информации.

Авторы отчета также отмечают, что множество компаний, например, OpenAI и Google, установили защиту для уменьшения откровенно вредоносного применения своих чат-ботов. Но злоумышленники сумели преодолеть защитные механизмы и генерировать ложные, дискриминационные или оскорбительные тексты. По мнению исследователей, опасность дезинформационных кампаний с использованием ИИ будет возрастать по мере того, как злоумышленники будут разрабатывать новые способы обхода защитных механизмов.

В интервью русской службе «Голоса Америки» Грант Бэйкер, аналитик по исследованиям в области технологий и демократии Freedom House и один из авторов доклада, отметил:

«В последнее время было много надежд, что технологические компании смогут регулировать контент самостоятельно. Мы выступаем за необходимость создания нормативно-правовой базы, регулирующей создание и использование ИИ, защищающей права человека в онлайн-пространстве и повышающей прозрачность разработки и использования таких систем».

Аналитик считает, что подобная правовая база может дать регуляторам и судебным органам возможность осуществлять независимый надзор за разработками ИИ, чтобы снизить потенциальный ущерб от его применения.

Читайте Афинские новости в Google News (нажать 'Подписаться')

Поделиться ссылкой:

О том, как поделиться
В связи с массовыми нарушениями правил, все комментарии премодерируются.
Последнее изменениеСуббота, 14 октября 2023 07:07
Комментарии для сайта Cackle
Наверх

Новости по Email

Не пропусти другие интересные статьи, подпишись:

Я согласен с Политика конфиденциальности

Новостные ленты

Партнеры сайта