DEEPFAKE КАК УГРОЗА СОВРЕМЕННОЙ ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ

  • Валентина Львовна Тихонова Астраханский государственный университет им. В.Н. Татищева https://orcid.org/0000-0003-3626-8757
  • Олег Игоревич Закутнов Астраханский государственный университет им. В.Н. Татищева
Ключевые слова: DeepFake, кибербезопасность, кибермошенники, искусственный интеллект, нейросеть, киберпреступления, аудио и видеоматериалы, цифровые двойники, соцсети, Интернет

Аннотация

С развитием технологии «машинного обучения» появляется разновидность фейковых информационных потоков, созданных на новом техническом уровне - «deepfake» аудио и видео контент, особая опасность которого заключается в сложности его экспертизы, так как программный алгоритм DeepFake, постоянно обучается за счет обработки видеороликов и библиотечных изображений, находящихся в открытом доступе в сети интернета. Во всем мире растет количество преступлений с использованием DeepFake технологии. В данной статье были рассмотрены применение DeepFake технологий кибермошенниками, приведены примеры манипуляцией общественным мнением. В итоге, неуправляемые потоки недостоверной информации подрывают важные общественные начала, построенные на доверии не только между людьми, но и к различным социальным институтам от государственных и экономических до социальных и культурных. В этой связи, нами предложено в средние и высшие профессиональные учебные заведения в курсы по Искусственному интеллекту, Цифровой грамотности или иных подобных дисциплин включать тематику, связанную с анализом DeepFake технологий, возможных сфер их применения и способов защиты от злоумышленников. В наших рекомендациях по данной тематике проанализированы имеющиеся способы распознавания DeepFake контентов, программы, помогающие специалистам по кибербезопасности выявлять DeepFake, сформулированы основные правила кибербезопасности и представлен основополагающий правовой аспект по данной теме. Анализ фейковых контентов и способов их выявления способствует формированию навыков критического мышления, которые будет сформированы непосредственно в процессе практической работы с фейковым и с дипфейковым контентом. В итоге, повысится эффективность развития аналитических навыков студентов необходимых в информационную эпоху.

https://doi.org/

Литература

Булгаков, Д. (2025). Над пропастью из лжи: нейросети стали чаще давать фейковые ответы. Известия. Получено из: https://iz.ru/1951667/dmitrii-bulgakov/nad-propastu-iz-lzi-neiroseti-stali-case-davat-feikovye-otvety

В ГД внесли законопроект об охране голоса человека при его генерации ИИ. ТАСС. Получено из: https://tass.ru/ekonomika/21878475

В Нью-Гэмшпире расследуют звонки «от Байдена», просившего людей не голосовать на праймериз. ТАСС. Получено из: https://tass.ru/obschestvo/19789511

Вымогатели создают дипфейки интимного характера из фото в соцсетях. Rambler/новости. Получено из: https://news.rambler.ru/internet/50877018/?utm_content=news_media&utm_medium=read_more&utm_source=copylink

Интервью Александра Камкина. Получено из: https://rutube.ru/video/105b8fef2c8c1f3f8f79e63c0766cd50/

Крылова, А. (2023). Чьи зубы?! Том Хэнкс пожаловался на рекламу стоматологии со своим лицом. Пятый канал. Получено из: https://www.5-tv.ru/news/452569/ci-zuby-tom-henks-pozalovalsa-nareklamu-stomatologii-sosvoim-licom/

Моисеев, Д. (2025). В США вступил в силу закон о борьбе с дипфейками и порноместью. Независимое военное обозрение. Получено из: https://nvo.ng.ru/world/2025-05-20/6_9256_usa.html

На кибермошенничества в РФ пришлось 40% от всех преступлений в 2024 года. Интерфакс. Получено из: https://www.interfax.ru/russia/1003799

Одинаковы с лица: в России выросло число атак с применением дипфейков. Получено из: https://iz.ru/1773345/oksana-belkina/odinakovy-s-lica-v-rossii-vyroslo-cislo-atak-s-primeneniem-dipfeikov

Панасенко, А. (2020). Технологии DeepFake, как угроза информационной безопасности. Получено из: https://www.anti-malware.ru/analytics/Threats_Analysis/Deepfakes-as-a-information-security-threat

Премьер Италии подала в суд на авторов фейковых порнороликов с ее участием. Дзен. Получено из: https://dzen.ru/a/ZTlumB4YtHUGFhEW

Сервис «Оплата улыбкой» в СберБанк Онлайн. Получено из: https://www.sberbank.com/ru/person/payments/sberpay/oplata-ulybkoi

Соковикова, Л. (2023). Голливудские студии хотят заменить актеров искусственным интеллектом. Чем это грозит? HI-News.ru. Получено из: https://hi-news.ru/eto-interesno/gollivudskie-studii-xotyat-zamenit-akterov-iskusstvennym-intellektom-chem-eto-grozit.html

Статья 1259. Гражданский кодекс Российской Федерации. Объекты авторских прав. Консультант плюс. Получено из: https://www.consultant.ru/document/cons_doc_LAW_64629/be05678dc42ddc67aae5be9ba9beebd367fb9a3f/

Статья 1274. Гражданский кодекс Российской Федерации. Свободное использование произведения в информационных, научных, учебных или культурных целях. Консультант плюс. Получено из: https://www.consultant.ru/document/cons_doc_LAW_64629/84bbd636598a59112a4fe972432343dd4f51da1d/

Статья 152. Гражданский кодекс Российский Федерации. Защита чести, достоинства и деловой репутации. Консультант плюс. Получено из: https://www.consultant.ru/document/cons_doc_LAW_5142/1de6cd3cbb386056a2ecd2c64ff087b13c8de585/

Статья 152.1. Гражданский кодекс Российский Федерации. Охрана изображения гражданина. Консультант плюс. Получено из: https://www.consultant.ru/document/cons_doc_LAW_5142/14c6c3902cffa17ab26d330b2fd4fae28e5cd059/

Статья 23.1. Конституции Российской Федерации. Консультант плюс. Получено из: https://www.consultant.ru/document/cons_doc_LAW_28399/2573feee1caecac37c442734e00215bbf1c85248/

Тейлор Свифт стала жертвой скандала с дипфейком. Кто еще пострадал. РБК life. Получено из: https://www.rbc.ru/life/news/65ba4a279a79478cb0c4cf9b

Хакеры прикрепили «обнаженные» фото Трампа к его старым постам в X. РБК. Получено из: https://www.rbc.ru/technology_and_media/04/02/2025/67a247129a7947654fa5baed

-летняя француженка ушла от мужа-миллионера ради мошенника, выдававшего себя за Брэда Питта. Woman.ru. Получено из: https://www.woman.ru/real-life/53-letnyaya-francuzhenka-ushla-ot-muzha-millionera-radi-moshennika-vydavavshego-sebya-za-breda-pitta-id6173262/

-Year-Old Scammed Out of £17,000 by Deepfake Scammer Using AI-Generated Videos. Получено из: https://youtu.be/1Kv5njt9X5c?si=sq1eWKGavLQGXG9L

AI scammers creating fake videos. Получено из: https://youtu.be/IdT-8MnvuXk?si=ote5-iTAL31KWDc5

Criminals using 'deep fake' videos. Получено из: https://youtu.be/vNdgB7YzFdM?si=0GXm1klGyatqGrn

Deepfake Martin Lewis scam. Получено из: https://youtu.be/iV3cD9oYij4?si=p5NCATSIqL8OOrRJ

DeepFake: как распознать и как защититься. Получено из: https://www.sberbank.ru/ru/person/kibrary/articles/deepfake-kak-raspoznat-i-kak-zashchititsya

Everyone looked real’: multinational firm’s Hong Kong office loses HK$200 million after scammers stage deepfake video meeting. Получено из: https://www.scmp.com/news/hong-kong/law-and-crime/article/3250851/everyone-looked-real-multinational-firms-hong-kong-office-loses-hk200-million-after-scammers-stage

Ivanka Trump: Beware of this scam using my name. New Jersey local news. Получено из: https://www.nj.com/politics/2025/01/ivanka-trump-beware-of-this-scam-using-my-name.html

Robinson, K. (2024). Tennessee Adopts ELVIS Act, Protecting Artists’ Voices From AI Impersonation. Billboard. Получено из: https://www.billboard.com/business/legal/tennessee-elvis-act-protecting-artists-voices-ai-impersonation-1235637934/

To Catch A Catfish: An Online Dating Predator Exposed. Получено из: https://youtu.be/acGImfRoZD8?si=80aEL7gdECxC3OaC

Опубликован
2025-10-13
Как цитировать
Тихонова, В., & Закутнов, О. (2025). DEEPFAKE КАК УГРОЗА СОВРЕМЕННОЙ ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ. Caspium Securitatis: журнал каспийской безопасности, 5(3), 92-105. извлечено от https://caspiumsecuritatis.ru/index.php/csj/article/view/163
Раздел
Информационная безопасность