IT-эксперт объяснил, как мошенники получают образец голоса, чтобы обмануть близких жертвы
Аферистам достаточно несколько секунд записи.
Заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев рассказал, каким образом мошенники могут подделывать голоса людей, чтобы ввести в заблуждение их близких.
"Технология голосового клонирования с помощью искусственного интеллекта превратилась в реальный и чрезвычайно опасный инструмент в руках мошенников, — прокомментировал ИТ-эксперт RT. — Ещё год назад для создания правдоподобной копии голоса требовались значительные вычислительные мощности и десятки минут чистого аудио. Сегодня для создания убедительной модели порой достаточно образца речи длиной в несколько секунд".
Последующие попытки психологического воздействия и атаки мошенников нацелены на самое уязвимое — наши эмоции и инстинкт защитить близкого человека в беде.
"Источники для сбора голосового материала у мошенников крайне обширны. В первую очередь это видео в соцсетях. А выступления в СМИ, подкасты и прямые эфиры — золотая жила для злоумышленников. Речь там обычно чистая и непрерывная, — предупредил он. — Достаточно нескольких голосовых сообщений в общем чате, чтобы предоставить мошенникам исчерпывающий материал. Кроме того, злоумышленники могут добыть образец голоса и при прямом звонке жертве".
Ранее киберэксперт Игорь Бедеров рассказал, как заставить мошенников прекратить телефонные звонки.
Тем временем губернатор Тюменской области Александр Моор дал старт проекту против кибермошенничества стопмошенники72.рф. Здесь размещены способы защиты аккаунтов, реальные истории людей, схемы обмана и практические советы, как его избежать.

