Голос из ниоткуда: как синтезированная речь стала оружием мошенников и почему её хотят запретить в России

 »   » 
  • Опубликованно
  • Голос из ниоткуда: как синтезированная речь стала оружием мошенников и почему её хотят запретить в России

«Алло, это ваш банк»: депутаты объявили войну роботам-обманщикам, маскирующимся под людей

Представьте ситуацию: раннее утро, раздается телефонный звонок. На том конце провода взволнованный голос, до боли знакомый по интонации и тембру, говорит: «Мама, я в беде, срочно нужны деньги». Или представим звонок из «банка», где «сотрудник» с идеальной, профессиональной речью сообщает о блокировке счета. Еще пару лет назад такие сценарии требовали участия актера или записи. Сегодня их может создать любой злоумышленник за пару минут с помощью нейросети, которая синтезирует неотличимый от человеческого голос. Именно против этой технологии намерены выступить российские депутаты, предложив законодательный запрет на использование синтезированного голоса в массовых автоматизированных звонках.

Инициатива, о которой сообщил первый заместитель председателя комитета Госдумы по контролю Дмитрий Гусев, направлена на защиту граждан от введения в заблуждение. Согласно тексту законопроекта, под запрет попадает «воспроизведение естественных интонационных, тембровых и эмоциональных характеристик человеческой речи». Проще говоря, абонент с первых секунд разговора должен четко понимать, что на другом конце провода — компьютерная программа, а не живой человек. «Вольности в законодательстве позволяют злоумышленникам вводить граждан в заблуждение. Нередко этот инструмент используется мошенниками для обмана россиян», — отмечают авторы идеи.

Это предложение — логичный ответ на стремительную эволюцию методов социальной инженерии и мошенничества. Если раньше автоматические обзвоны легко вычислялись по металлическому, роботизированному голосу, то сегодня нейросети научились генерировать аудиозаписи с паузами, эмоциональными окрасками, легким придыханием и другими нюансами, свойственными живой речи. Такой инструмент открывает перед преступниками колоссальные возможности для фишинга, вымогательства и психологического давления.

Гражданин должен четко понимать, разговаривает он с программой или с человеком

Актуальность проблемы сложно переоценить. Правоохранительные органы и надзорные ведомства постоянно фиксируют новые схемы дистанционного мошенничества. Так, в одном из регионов в течение сентября 2025 года были выявлены случаи, когда злоумышленники, используя приложение «Телемост», осматривали вместе с потерпевшими их квартиры, после чего убеждали сдать ювелирные украшения в ломбард и перевести деньги . В других эпизодах мошенники представлялись сотрудниками «Почты России» или «Ростелекома», убеждали граждан сообщить коды доступа к «Госуслугам» или личным кабинетам банков, а затем склоняли к переводам на «безопасные» счета . Появление технологии реалистичного синтеза голоса делает подобные атаки в разы эффективнее и опаснее.

Эксперты в сфере информационной безопасности давно бьют тревогу, указывая на то, что современные технологии массово используются для вербовки, манипуляции сознанием и организации противоправной деятельности. «Критическое мышление у людей пытаются отключить максимально и массово. Это проблема», — отмечает эксперт Дмитрий Черных, обсуждая методы социальной инженерии . Он приводит показательный пример: «В этот Новый год в Америке тысячи людей в Нью-Йорке пошли смотреть в мороз фейерверк, узнав об этом событии из «ТикТока». А сообщение им отправил ИИ». Синтезированный голос в телефонных звонках — это тот же инструмент манипуляции, только действующий на более личном, доверительном уровне.

Предлагаемый запрет — не первая попытка российских властей взять под контроль цифровые инструменты, которые могут быть использованы во вред. Ранее суд уже обязал заблокировать на территории страны приложение для iPhone, изменяющее голос в реальном времени. Теперь оно вне закона для российских пользователей. Был заблокирован и мессенджер Snapchat — Роскомнадзор объяснил это решение тем, что сервис, по данным правоохранительных органов, используется для организации террористических действий. Эти прецеденты создают правовой контекст, в котором инициатива по запрету голосовых роботов выглядит закономерным шагом.

Однако новая инициатива ставит ряд сложных вопросов. Где проходит грань между вредоносным использованием технологии и ее легитимным применением? Сегодня синтезированный голос активно используется в бизнесе: в кол-центрах для информирования, в голосовых помощниках, в сервисах озвучивания книг для людей с ограниченными возможностями. Полный запрет технологии парализовал бы целые отрасли. Вероятно, законопроект будет дорабатываться, и речь идет именно о запрете на использование имитации человеческой речи при совершении массовых автоматических звонков без явного и однозначного предупреждения абонента.

Проблема усугубляется тем, что киберпреступники и экстремистские группировки все чаще действуют из-за рубежа, используя сложные схемы. Известны случаи, когда для вербовки или сбора данных создавались фишинговые (фальшивые) сайты, максимально похожие на ресурсы реальных организаций или оппозиционных движений . На такие сайты пользователь может попасть, поверив информации от «друга» в мессенджере или из рассылки, и добровольно оставить свои персональные данные. Синтезированный голос в телефонных звонках становится следующим логическим шагом в этой цепи: сначала жертву ловят на фишинговый контент в сети, а затем «дожимают» персональным, психологически выверенным звонком.

Вербовщики смотрят круг общения своих потенциальных агентов, выявляют друзей, условия проживания. Составляют так называемый профиль кандидата… Они умеют тонко вычислять тех, кто им нужен

Особую опасность такие технологии представляют для подростков и молодежи — наиболее уязвимой части общества в цифровом пространстве. «Чаще всего это подростки. И ещё выше риск успешной вербовки, если они из сельских территорий, где уровень доверия к сетевой информации выше, чем в городе», — поясняет эксперт. Звонок с убедительным, «своим» голосом, который знает твое имя и какие-то детали из жизни, может сломить барьер недоверия гораздо эффективнее, чем безликий текст в чате.

Борьба с экстремизмом и терроризмом в интернете — еще один важный аспект. Управления ФСБ по различным регионам регулярно пресекают противоправную деятельность граждан, размещавших в мессенджерах и соцсетях призывы к терроризму или оправдание запрещенных организаций . Для координации такой деятельности и осуществления вербовки злоумышленники активно используют зашифрованные каналы связи и анонимные аккаунты. Внедрение в их арсенал технологии deepfake-голосов значительно усложнит работу правоохранительных органов по отслеживанию и предотвращению преступлений.

Таким образом, законодательная инициатива депутатов — это попытка закрепить на правовом уровне принцип цифровой идентификации. В мире, где цифровая и физическая реальности все больше переплетаются, человек имеет право знать, с кем или с чем он взаимодействует. Запрет на маскировку робота под человека в телефонных коммуникациях — это базовый элемент цифровой гигиены и защиты психического пространства гражданина.

Ожидается, что обсуждение законопроекта вызовет серьезную дискуссию среди технологических компаний, операторов связи, правозащитников и представителей бизнеса. Предстоит найти баланс между безопасностью, свободой предпринимательства и развитием инноваций. Но уже сейчас ясно, что эпоха, когда доверие к человеческому голосу было безоговорочным, подошла к концу. Государство пытается дать ответ на этот вызов, создавая новые правила для новой цифровой реальности, где каждый звук, каждое слово и каждый голос могут оказаться искусно выполненной подделкой.


ЧИТАЙТЕ ТАКЖЕ:
Читайте также


Мультимедиа