Анализ возможностей искусственного интеллекта в выявлении и предотвращении кибератак

Ж. М. Даирбекова, А. Ю. Полуян

Аннотация


Статья предлагает новый подход к решению проблем кибербезопасности, используя нейронные сети для обнаружения и предотвращения угроз. Это позволяет создать более эффективные системы защиты данных и сетей, улучшить процессы мониторинга и анализа информации, а также повысить общий уровень безопасности в сети. В частности, рассмотрены рекомендации в сфере кибербезопасности со стороны нейросети в применении HTTP флуда, ddos  атак, фишинговых-рассылок, SQL-инъекции, brute force и защиты от этих воздействий. Высказано мнение о необходимости разработки нормативно-правовой базы для регулирования работы с нейросетями. Огромные возможности нейросетей привели к несогласованности с восприятием индивидуума. Это в свою очередь привело к тому, что разработчики ограничили скорость публикаций новых релизов версий нейросетей. В публикации отмечается, что нейросетевая технология способна выступать инструментом как для атаки, так и защиты критической интернет-инфраструктуры. Проведен анализ возможностей использования нейросетей в сфере кибербезопасности. Показано, что такая нейросеть как GPT4 способна приняв информацию от разных источников выработать оптимальный вариант защиты от кибератаки. Отмечается еще одна особенность – это перспектива применения круглосуточного контроля целостности системы. Преимущество такой системы защиты в том, что она на основе предыдущего опыта способна усовершенствовать свой алгоритм работы, оптимизировать и масштабировать возможности системы защиты по примеру Microsoft Azure Machine Learning. Наряду со всеми огромными возможностями нейросетей нельзя не отметить роль человеческого фактора. Только правильно составленный запрос даст необходимую информацию со стороны искусственного интеллекта. И, ключевым моментом, является именно правовая регулировка того, кто имеет доступ к этому инструменту и какую информацию выдаст система. В статье рассмотрен международный опыт вопроса правового регулирования нейросетей.

Ключевые слова


ChatGPT; нейросеть; машинное обучение; кибербезопасность; этичный хакер

Литература


Dhar S., Bose I. “Are we nearing singularity? A study of language capabilities of ChatGPT // Analytics Global Conference. Cham: Springer Nature Switzerland, 2023, pp. 125-135.

Dodig-Crnkovic G. “How GPT Realizes Leibniz’s Dream and Passes the Turing Test without Being Conscious” // Computer Sciences & Mathematics Forum. MDPI, 2023. V. 8, No. 1, p. 66.

Mei Q. et al. A Turing Test: Are AI Chatbots Behaviorally Similar to Humans? // Available at SSRN. 2023.

Bhattacharjee A., Liu H. “Fighting fire with fire: can ChatGPT detect AI-generated text?” // ACM SIGKDD Explorations Newsletter. 2024. V. 25, No. 2, pp. 14-21.

Sarcea O. A. “AI & Cybersecurity – connection, impacts, way ahead” // International Conference on Machine Intelligence & Security for Smart Cities (TRUST): Proceedings. 2024. V. 1, pp. 17-26.

Ubert J. Fake It: Attacking Privacy Through Exploiting Digital Assistants Using Voice Deepfakes : diss. Marymount University, 2023.

Lin S. et al. “Empathy-based communication framework for chatbots: A mental health chatbot application and evaluation” // Proceedings of the 11th International Conference on Human-Agent Interaction. 2023, pp. 264-272.

Li J. N. et al. OmniActions: Predicting digital actions in response to real-world multi-modal sensory inputs with LLMs // Proceedings of the CHI Conference on Human Factors in Computing Systems. 2024, pp. 1-22.

Ibáñez Lissen L. et al. “Characterizing poisoning attacks on generalistic multi-modal AI models // Information Fusion. 2023, pp. 1-15.

McKee F., Noever D. Safeguarding Voice Privacy: Harnessing Near-Ultrasonic Interference to Protect Against Unauthorized Audio Recording // arXiv preprint arXiv: 2404.04769. 2024.

Grossman M. R. et al. “The GPTJudge: Justice in a Generative AI World” // Duke Law & Technology Review. 2023. V. 23, No 1.

Hutiri W., Papakyriakopoulos O., Xiang A. Not My Voice! A Taxonomy of Ethical and Safety Harms of Speech Generators // arXiv preprint arXiv: 2402.01708. 2024.

Никонов А. В., Вульфин А. М., Гаянова М. М., Сапожникова М. Ю. Алгоритмы интеллектуального анализа данных банковских транзакций в составе системы противодействия финансовому мошенничеству // СИИТ. 2019. Т. 1, № 1(1). С. 32-40. EDN NLVIWK. [[ Nykonov A. N. at all. “Data mining algorithms of bank transactions data as a part anti-fraud system” // SIIT. 2019. V. 1, No. 1 (1), pp. 32-40. EDN NLVIWK. (In Russian). ]]

Васильев В. И., Картак В. М. Применение методов искусственного интеллекта в задачах защиты информации (по материалам научной школы УГАТУ) // СИИТ. 2020. Т. 2, № 2(4). С. 43-50. EDN ZTQFCW. [[ Vasyliev V. I., Karnak V. M. “Application of artificial intelligence technologies in the tasks of information protection (based on materials of USATU scientific school)” // SIIT. 2020. V. 2, No. 2 (4), pp. 43-50. EDN ZTQFCW. (In Russian). ]]

Goertzel B. “Human-level artificial general intelligence and the possibility of a technological singularity: A reaction to Ray Kur-zweil's The Singularity Is Near, and McDermott's critique of Kurzweil” // Artificial Intelligence. 2007. V. 171, No. 18, pp. 1161-1173.

В Госдуме одобрили проект о легализации деятельности белых хакеров [Электронный ресурс] // РИА Новости : [Сайт]. URL: https://ria.ru/20240325/khaker-1935609669.html. [[ “The State Duma approved a bill to legalize the activities of white hackers” // RIA Novosti : [Sait]. URL: https://ria.ru/20240325/khaker-1935609669.html. (In Russian). ]]

Carlini N. et al. “Extracting training data from diffusion models” // 32nd USENIX Security Symposium (USENIX Security 23). 2023, pp. 5253-5270.

Даирбекова Ж. М., Полуян А. Ю. Деструктивное и манипулятивное влияние социальных сетей // СИИТ. 2024. Т. 6, № 1(16). С. 59-66. EDN QGMIIO. [[ Dairbekova Zh. M., Poluyan A. Yu. “Destructive and manipulative influence of social networks” // SIIT. 2024. Vol. 6, No. 1(16), pp. 59-66. EDN QGMIIO. (In Russian). ]]


Ссылки

  • На текущий момент ссылки отсутствуют.


(c) 2024 Ж. М. Даирбекова, А. Ю. Полуян