Аферисты могут подделывать новостные сюжеты, чтобы агитировать срочно якобы инвестировать в определённые активы.
Москва, 13 июня - АиФ-Москва. С распространением технологий искусственного интеллекта у мошенников появился особенно опасный инструмент — дипфейки. Эти фальсифицированные аудио- и видеозаписи отличаются высокой реалистичностью, из-за чего даже внимательные и осведомлённые люди могут попасться на уловки злоумышленников.
Об этом в беседе с RT сообщил заведующий лабораторией доверенного ИИ РТУ МИРЭА Юрий Силаев. По его словам, особую обеспокоенность вызывают случаи, когда с помощью дипфейков злоумышленники создают фальшивые видеозаписи от имени высокопоставленных политиков или руководителей крупных организаций. В бизнес-среде всё чаще фиксируются случаи, когда преступники имитируют голос руководителя во время телефонного разговора, обращаясь в финансовые службы компаний с просьбами о немедленном переводе крупных сумм на подконтрольные счета. Силаев отметил, что особенно опасны сценарии с фальшивыми новостными сюжетами. В таких роликах якобы эксперты или аналитики дают рекомендации срочно инвестировать в определённые активы — всё это часть схем по выманиванию денег. Кроме того, как указал специалист, участились попытки обмана с использованием дипфейков, в которых изображены знакомые или родственники жертвы. В таких видео звучат убедительные просьбы о срочной финансовой помощи, рассчитанные на эмоциональную реакцию. Для защиты от подобных афер эксперт посоветовал не поддаваться на эмоции, вызванные увиденным или услышанным, и всегда перепроверять информацию, используя альтернативные способы связи. В случае сомнительных просьб о деньгах он рекомендовал напрямую связаться с человеком другим способом — например, позвонить на известный номер или написать в другом мессенджере. Силаев также предупредил, что доверять исключительно голосу или видеоряду в современных условиях небезопасно — технологии позволяют точно воспроизводить не только речь, но и мимику, жесты и интонации. «Стоит ограничить количество личной информации в открытом доступе — чем больше фото и видео доступно в сети, тем проще злоумышленникам создать убедительный дипфейк. Будьте бдительны и помните: современные технологии позволяют мошенникам подделывать не только тексты, но и образы реальных людей», — посоветовал он. Оцените материал Общество
United States Latest News, United States Headlines
Similar News:You can also read news stories similar to this one that we have collected from other news sources.
На радость мошенникам. Три ошибки при операциях с картами и банкоматамиЭксперт объяснил, как обезопасить себя от действий финансовых мошенников при операциях с банковскими картами и банкоматами.
Read more »
Немкин: дипфейки стали использовать в качестве инструмента информационных атакЧлен комитета Госдумы по информационной политике, информационным технологиям и связи, федеральный координатор проекта «Цифровая Россия» партии «Единая Россия» Антон Немкин рассказал, что в стране дипфейки стали использовать не просто для распространения слухов, а в качестве инструмента целенаправленных информационных атак.
Read more »
Работодатели в России стали чаще запрашивать пет-проекты у кандидатовHR-эксперт Пак: работодатели стали интересоваться наличием пет-проектов
Read more »
Кондратьев рассказал о рекордной высоте 4900 м полета «Герани» в зоне СВОПодъем дрона-камикадзе на рекордную высоту эксперт назвал новым тактическим приемом.
Read more »
Эксперт объяснил, как не стать случайным участником преступной финсхемыЭксперт Семов: соблюдение правил при переводах позволит избежать схем мошенников
Read more »
Врач Никишина объяснила уязвимость подростков перед мошенникамиЭксперт: подростки уязвимы для мошенников из-за низкого уровня прогнозирования
Read more »
