Главная Выпуски № 1 (47)

РИСКИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДЛЯ МЕНЕДЖМЕНТА: КЛАССИФИКАЦИЯ, УПРАВЛЕНИЕ, KPI

Отечественный и зарубежный опыт управления , УДК: 65.01 DOI: 10.24412/2312-6647-2026-147-163-187

Авторы

  • Елкина Ольга Сергеевна доктор экономических наук, профессор

Аннотация

Стремительное внедрение технологий искусственного интеллекта (ИИ) в бизнес-процессы качественно трансформирует природу управленческих рисков, порождая новые стратегические, операционные, этические и репутационные угрозы. Автономность и непрозрачность ИИ-систем требуют разработки специализированных подходов к их управлению, интегрированных в корпоративную стратегию. Цель исследования — систематизация рисков ИИ для менеджмента и разработка системы управления этими рисками, включая подбор оптимальных ключевых показателей эффективности (KPI). В основе работы лежит вторичный анализ данных отчетов, опросов и исследовательских публикаций. Использованы методы казуистического, количественного и системного анализа, а также нормативный подход для формирования управленческих рекомендаций. Исследование выявило и структурировало семь ключевых категорий рисков ИИ: стратегические, операционные, этико-правовые, организационные, финансово-инвестиционные, риски для управленческих ролей и репутационные. Для каждой категории предложены конкретные управленческие практики и система KPI, связывающая технические риски с бизнес-последствиями. Научная ценность работы заключается в комплексной систематизации ИИ-рисков для менеджмента. Практическая значимость состоит в предоставлении руководителям структурированного инструментария для интеграции управления рисками ИИ в корпоративную стратегию и операционную деятельность, что является критическим фактором устойчивого развития в условиях цифровой трансформации.

Как ссылаться

Елкина, О. С. (2026). РИСКИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДЛЯ МЕНЕДЖМЕНТА: КЛАССИФИКАЦИЯ, УПРАВЛЕНИЕ, KPI Вестник Московского городского педагогического университета. Серия «Экономика», № 1 (47), 163. https://doi.org/10.24412/2312-6647-2026-147-163-187
Список литературы
1. 1. Russel S. Human compatible. Artificial Intelligence and the problem of control. Viking, 2019. 336 p.
2. 2. Tan S., Taeihagh A., Baxter K. The risks of machine learning systems // MIT Technology Review. 2022. April. Р. 1–22. DOI: 10.48550/arXiv.2204.09852
3. 3. Accountable algorithm / J. A. Kroll [et al.] // University of Pennsylvania law review. 2017. Vol. 165.3. Р. 633–705. URL: https://scholarship.law.upenn.edu/cgi/viewcontent.cgi?article=9570&context=penn_law_review (дата обращения: 16.11.2025).
4. 4. Zuboff S. The age of surveillance capitalism: the fight for a human future at the new frontier of power. New York: PublicAffairs, 2019. 704 p.
5. 5. Largest Companies View AI as a risk multiplier / D. Kingsley [et al.] // Harvard Law Scool Forum of Corporate Governance. 2024. November 20. URL: https://corpgov.law.harvard.edu/2024/11/20/largest-companies-view-ai-as-a-risk-multiplier/ (дата обращения: 18.12.2025).
Скачать файл .pdf 413.18 кб