Влияние и риски ложной информации, созданной с помощью искусственного интеллекта, в казахском обществе
DOI:
https://doi.org/10.59102/pedagogical/2025/iss4pp16-24Аннотация
В статье рассматривается влияние и риски дезинформации, созданной с помощью искусственного интеллекта (AI), на казахстанское общество. На сегодняшний день анализ AI-фейков является одной из наиболее новых и слабо исследованных областей медиазапросов в Казахстане. Цель исследования – определить влияние AI-дезинформации на восприятие общества и оценить связанные с ней риски.
Для анализа применялись качественные и количественные методы, контент-анализ и другие системные подходы. Были изучены одиннадцать образцов дезинформации, что позволило сформировать типологию AI-фейков и оценить скорость их распространения, уровень восприятия аудиторией и частоту информационных рисков.
Научная новизна исследования заключается в том, что это одно из первых системных исследований AI-фейков в Казахстане. Конкретные примеры собраны комплексно, предложена их типология. Эмпирический анализ показал, как доверие аудитории к государственным органам, склонность к конспирологическому мышлению и влияние российских информационных потоков воздействуют на распространение фейков. Также выявлены особенности платформозависимого распространения: WhatsApp – эмоциональные фейки, TikTok – deepfake видео, Telegram – политические фейки, Facebook Ads – фишинг.
Исследование позволяет оценить уровень медиаграмотности, практики фактчекинга, правовое регулирование и цифровую безопасность. Полученные результаты способствуют разработке национальной медиаполитики, цифровых стратегий безопасности и укреплению культуры общественной коммуникации.
Ключевые слова:
искусственный интеллект, ложная информация, казахское общество, общественное сознание, рискиБиблиографические ссылки
Zhao, B., Zhang, S., Xu, C., Sun, Y., & Deng, C. (2021). Deep fake geography? When geospatial data encounter Artificial Intelligence. Cartography and Geographic Information Science, 48(4), 338–352. https://doi.org/10.1080/15230406.2021.1910075
Lim, X. J., Quach, S., Thaichon, P., Cheah, J. H., & Ting, H. (2024). Fact or fake: information, misinformation and disinformation via social media. Journal of Strategic Marketing, 32(5), 659–664. https://doi.org/10.1080/0965254X.2024.2306558
Grotlüschen, A., Dutz, G., & Skowranek, K. (2024). Writing with artificial intelligence? Ad-hoc-survey findings raise awareness for critical literacy at the International Literacy Day. International Journal of Lifelong Education, 43(4), 371–384. https://doi.org/10.1080/02601370.2024.2349657
Hunter, L. Y., Albert, C. D., Rutland, J., Topping, K., & Hennigan, C. (2024). Artificial intelligence and information warfare in major power states: how the US, China, and Russia are using artificial intelligence in their information warfare and influence operations. Defense & Security Analysis, 40(2), 235–269. https://doi.org/10.1080/14751798.2024.2321736
Lou, C., Kiew, S. T. J., Chen, T., Lee, T. Y. M., Ong, J. E. C., & Phua, Z. (2022). Authentically Fake? How Consumers Respond to the Influence of Virtual Influencers. Journal of Advertising, 52(4), 540–557. https://doi.org/10.1080/00913367.2022.2149641
Day, T. (2023). A Preliminary Investigation of Fake Peer-Reviewed Citations and References Generated by ChatGPT. The Professional Geographer, 75(6), 1024–1027. https://doi.org/10.1080/00330124.2023.2190373
Giri, M., Eswaran, S., Honnavalli, P., & D, D. (2024). Automated and Interpretable Fake News Detection With Explainable Artificial Intelligence. Journal of Applied Security Research, 19(4), 628–648. https://doi.org/10.1080/19361610.2024.2356431
Perreault, G., & Ohme, J. (2025). ChatBots as Artificial Intermediaries? Adaptation to Artificial Intelligence in Newsrooms. Journalism Studies, 26(15), 1914–1935. https://doi.org/10.1080/1461670X.2025.2567894
Kavak, A., & Yılmaz, E. (2024). Information Professionals’ Metaphorical Perceptions of Artificial Intelligence Concept. Journal of Library Administration, 64(6), 695–718. https://doi.org/10.1080/01930826.2024.2371276
Ma, H. (Vivian), Huang, W. (Wayne), & Dennis, A. R. (2024). Unintended Consequences of Disclosing Recommendations by Artificial Intelligence versus Humans on True and Fake News Believability and Engagement. Journal of Management Information Systems, 41(3), 616–644. https://doi.org/10.1080/07421222.2024.2376381
cis-legislation.com, 2023. Order of the government of the Republic of Kazakhstan. URL: https://cis-legislation.com/document.fwx?rgn=149435
dig.watch, 2017. Kazakhstan’s Cyber Shield Concept. URL: https://dig.watch/resource/kazakhstans-cyber-shield-concept
itu.int, 2022. Implementing Kazakhstan’s cybersecurity concept. URL: https://www.itu.int/hub/2022/08/implementing-kazakhstan-cybersecurity/
sts.kz, 2025. National Coordination Center for Information Security (NCCIS). URL: https://sts.kz/en/nkcib?utm_source
gov.kz, 2025. Information security Committee of the Ministry of Artificial Intelligence and Digital Development of the Republic of Kazakhstan. URL: https://www.gov.kz/memleket/entities/infsecurity/activities/6?lang=en&utm_source
Опубликован
Как цитировать
Выпуск
Раздел
Лицензия
Copyright (c) 2025 Вестник Кокшетауского университета имени Ш.Уалиханова. Серия Педагогические науки

Это произведение доступно по лицензии Creative Commons «Attribution-NonCommercial» («Атрибуция — Некоммерческое использование») 4.0 Всемирная.