Комментарии.org Комментарии Российского законодательства
 Скачать

§ 8. Искусственный интеллект в корпоративном управлении: основные направления и риски использования (С.А. Чеховская)

style="max-height: 50vh;">
§ 8. Искусственный интеллект в корпоративном управлении:
основные направления и риски использования <1>

С.А. ЧЕХОВСКАЯ

--------------------------------
<1> Настоящий параграф продолжает изучение вопросов, касающихся влияния цифровых технологий на развитие корпоративного управления и права. См. также: Чеховская С.А. Корпоративное электронное управление и корпоративное управление для электронных корпораций: правовые аспекты // Предпринимательское право. 2018. N 4. С. 3 - 11; Она же. Модель корпоративного права для цифровых корпораций // Коммерческое право: научно-практический журнал. 2019. Т. 35. N 4. С. 38 - 47.

Новым умением в настоящее время является способность пребывать и действовать в условиях VLCA-мира <1>, характеризующегося непостоянством (volatility), неопределенностью (uncertainty), сложностью (complexity), неоднозначностью (ambiguity). Цифровые технологии проникают во все сферы жизни, в том числе и в систему корпоративного управления. В современных условиях у корпораций практически не остается альтернативного варианта действий быстрому оцениванию рисков изменений и стремлению получить как можно больше преимуществ.
--------------------------------
<1> URL: https://pro.rbc.ru/news/5feb31739a7947d95cf0e58b (дата обращения: 22 января 2021 г.).

В связи с использованием цифровых технологий в корпоративном управлении в научный оборот вводится специальный термин "корпоративные технологии" (КорпТех, CorpTech) <1>, используемый в качестве обобщающего термина для блокчейн-технологий, "больших данных", искусственного интеллекта (далее - ИИ) в контексте корпоративного управления. Специалисты, активно работающие в области стартапов, предсказывают, что сенсорные технологии и "большие данные" смогут оказывать огромное влияние на организацию и функционирование корпорации (и это не будет ограничиваться только крупными корпорациями) <2>. В литературе также отмечается, что традиционные модели корпоративного управления плохо приспособлены и к бизнесорганизационным потребностям нового формата построения бизнеса (например, платформ), поскольку эти модели поддерживают краткосрочное, ориентированное на соблюдение требований и осторожное корпоративное управление, что само по себе контрпродуктивно в мире, в котором корпорации должны быть динамичными и постоянно адаптироваться к меняющимся технологическим реалиям <3>. Высказываются и более радикальные мнения: прогнозируется начало "конца корпораций", организованных как закрытые, иерархические системы <4>, обращается внимание на особенности формирования бизнес-моделей в условиях сетевых технологий <5>, которые создают совершенно иную структуру взаимоотношений, в том числе и в системе корпоративного управления.
--------------------------------
<1> См.: Enriques Luca and Zetzsche Dirk Andreas. Corporate Technologies and the Tech Nirvana Fallacy (March 25, 2020). European Corporate Governance Institute (ECO!) - Law. Working Paper No. 457/2019, Hastings Law Journal, Forthcoffling. SSRN: https://ssrn.coffl/abstract=3392321 or http://dx.doi.org/10.2139/ssrn.3392321.
<2> См.: Ben Waber. People Analytics (FT Press, Pearson 2013) 178. Цит. по: AdaMs-Prassl Jerefflias. What if Your Boss Was an Algorithm? The Rise of Artificial Intelligence at Work (2019). [2019] 41 (1). Comparative Labor Law & Policy Journal 123. SSRN: https://ssrn.com/abstract=3661151 (дата обращения: 12 ноября 2020 г.).
<3> См.: Fenwick Mark and McCahery, Joseph A. and Vermeulen, Erik P.M. The End of "Corporate" Governance: Hello "Platform" Governance (August 16, 2018). Lex Research Topics in Corporate Law & Economics. Working Paper No. 2018-5, European Corporate Governance Institute (ECGI) - Law. Working Paper No. 430/2018. URL: https://ssrn.com/abstract=3232663 or http://dx.doi.org/10.2139/ssrn.3232663 (дата обращения: 2 декабря 2020 г.).
<4> См.: Fenwick Mark and Vermeulen, Erik P.M. The Future of Finance: Why Regulation Matters. URL: https://ssrn.com/abstract=3692529 or http://dx.doi.org/10.2139/ssrn.3692529 (дата обращения: 1 декабря 2020 г.).
<5> См.: Vermeulen Erik P.M. Corporate Governance in a Networked Age (August 9, 2015). Wake Forest Law Review, 2015 Forthcoming, Lex Research Topics in Corporate Law & Economics. Working Paper No. 2015-4, Tilburg Law School Research. Paper No. 16/2015. URL: https://ssrn.com/abstract=2641441 (дата обращения: 11 января 2020 г.).

Исследование, проведенное MIT Sloan CISR, показывает, что американские листинговые компании, в которых были созданы комитеты совета директоров (далее - СД) по цифровым технологиям, демонстрируют существенно лучшие финансовые показатели <1>. Обсуждаются многие вопросы, возникающие в связи с этим: какие требования должны предъявляться к членам СД, какие параметры состава совета будут позволять обеспечить наиболее эффективное управление, достаточно ли того, чтобы хотя бы один из членов СД обладал опытом в цифровой сфере, или необходимо, чтобы все директора улучшили свои цифровые компетенции; как обеспечить наиболее эффективное правовое обеспечение работы СД в целях минимизации рисков внедрения новых технологий, а также оценки того, имеются ли риски, если корпорация не намерена активно внедрять инновации. Так или иначе, мы видим, что формируется спрос на краткосрочные и долгосрочные организационные и правовые решения, позволяющие СД лучше ориентироваться в цифровой трансформации <2>, обладая необходимыми правовыми инструментами для этого.
--------------------------------
<1> См.: Massachusetts Institute of Technology, Sloan School of Management, Center for Information Systems Research, 2019.
<2> См.: Moerel E.M.L. Reflections on the Impact of the Digital Revolution on Corporate Governance of Listed Companies (December 1, 2019), first published in Ducth by Uitgeverij Paris in 2019 and written in assignment of the Dutch Corporate Law Association for their annual conference. SSRN: https://com/abstract=3519872_ (дата обращения: 1 ноября 2020 г.).

В контексте COVID-19 потребность в применении цифровых технологий в системе корпоративного управления только усилилась, всем странам до сих пор приходится оперативно вносить изменения в действующее корпоративное законодательство в части проведения собраний участников корпораций в заочной форме <1> либо дистанционно в виртуальной среде <2>. Анализ практики проведения виртуальных общих собраний акционеров показал неоднозначность выводов. Одни исследователи считают, что при правильном проведении виртуальные собрания смогут "оживить" ежегодные собрания, возродив демократию акционеров <3>, позволят снижать риски, потенциально возникающие при осуществлении акционерами своих прав <4>. Другие, основываясь на текстуальном анализе стенограмм собраний, утверждают, что виртуальные собрания демонстрируют меньшую активность акционеров в процессе принятия решений, в связи с этим высказываются опасения, что при возможности выбора формата проведения собрания корпорации могут злоупотреблять виртуальным способом для того, чтобы избежать пристального внимания акционеров к обсуждаемым вопросам при принятии решений <5>. Нельзя не согласиться с мнением О.В. Гутникова о том, что право должно обеспечить максимальные технологические возможности дистанционного осуществления корпоративных прав и корпоративного управления, когда все участники корпоративных отношений могут взаимодействовать между собой в удаленном режиме <6>.
--------------------------------
<1> В Российской Федерации были приняты Федеральные законы от 18 марта 2020 г. N 50-ФЗ "О приобретении Правительством Российской Федерации обыкновенных акций публичного акционерного общества "Сбербанк России" и признании утратившими силу отдельных положений законодательных актов Российской Федерации" и от 7 апреля 2020 г. N 115-ФЗ "О внесении изменений в отдельные законодательные акты Российской Федерации в части унификации содержания годовых отчетов государственных корпораций (компаний), публично-правовых компаний, а также регулирования корпоративных отношений в 2020 году и о приостановлении действия положений отдельных законодательных актов Российской Федерации" в целях обеспечения проведения общих собраний в заочной форме в 2020 г.
<2> В Российской Федерации подготовлен проект федерального закона "О внесении изменений в Федеральный закон "Об акционерных обществах" в части создания возможности проведения общих собраний акционеров в форме собрания путем совместного дистанционного присутствия для обсуждения вопросов повестки дня и принятия решений по вопросам, поставленным на голосование, с использованием информационных и коммуникационных технологий без определения места проведения". URL: https://regulation.gov.ru/.
<3> См.: Nili Yaron and Shaner Megan. Back to the Future? Reclaiming Shareholder Democracy Through Virtual Annual Meetings (August 26, 2020). Univ. of Wisconsin Legal Studies Research. Paper No. 1606. URL: https://ssrn.com/abstract=3681578 or http://dx.doi.org/10.2139/ssrn.3681578 (дата обращения: 12 января 2021 г.).
<4> См.: Медведева Т.М., Азимова Л.В. Электронные технологии в корпоративных отношениях // Хозяйство и право. 2020. N 9. С. 65.
<5> См.: Brochet Francois, Chychyla Roman and Ferri Fabrizio. Virtual Shareholder Meetings (November 1, 2020). URL: https://ssm.com/abstract=3743064 or http://dx.doi.org/10.2139/ssrn.3743064 (дата обращения: 12 января 2021 г.).
<6> См.: Гутников О.В. Тенденции развития корпоративного права в современных условиях // Журнал российского права. 2020. N 8. С. 70.

Открывается также научная дискуссия о том, в какой степени такое "кризисное" законодательство можно рассматривать в качестве плана общей реформы корпоративного управления и законодательства <1>. В связи с этим высказывается мнение о том, что при отсутствии достаточного опыта корпоративного управления в условиях цифровой экономики пока невозможно разработать принципиально новые подходы, ставится лишь вопрос о целесообразности адаптировать известные теории к новым экономическим условиям <2>. Кроме того, остается задача создания действенных механизмов защиты корпоративных прав и предупреждения возможных правонарушений при использовании электронных коммуникаций в новых технологических условиях и при открывающихся возможностях <3>. Все сказанное верно, однако моделирование правового реагирования на широкое применение цифровых технологий уже вполне возможно. Для этого необходимо постоянно мониторить состояние практического их внедрения и движение правовой мысли в этой сфере.
--------------------------------
<1> См.: Zetzsche Dirk Andreas, Anker-Sorensen Linn, Consiglio Roberta and Yeboah-Smith Miko. The COVID-19-Crisis and Company Law - Towards Virtual Shareholder Meetings (June 15, 2020). University of Luxembourg Faculty of Law, Economics & Finance WPS 2020007. URL: https://ssrn.com/abstract=3576707 or http://dx.doi.org/10.2139/ssrn.3576707 (дата обращения: 12 января 2021 г.).
<2> См.: Гусейнов Ш.Р. оглы, Иноземцев М.И. О противоречивости отдельных положений современного корпоративного управления и практики цифровой трансформации хозяйствующих субъектов и общества // Вестник МГИМО-Университета. 2018. N 6. С. 295.
<3> См.: Синицын С.А. Российское и зарубежное гражданское право в условиях роботизации и цифровизации // Опыт междисциплинарного и отраслевого исследования: монография. М.: Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации. 2020. С. 121.

Следует заметить, что могут наблюдаться и прогностические противоречия при моделировании будущего, вероятностные аспекты влияния цифровой трансформации на принципы и методы корпоративного управления <1>. Тем не менее при всех опасениях прогнозируется, что активное применение цифровых технологий обусловлено тем, что затраты на их использование будут меньше, чем неблагоприятные последствия, с учетом обеспечения минимизации всех рисков. Также отмечается, что управление организационной сложностью в условиях неопределенности становится одним из ключевых приоритетов в системе корпоративного управления, такие технологии, как "большие данные", блокчейн, ИИ, позволят справляться с этими новыми вызовами. Все это потребует от лиц, входящих в органы управления и принимающих решения, соответствующей компетенции. Это подтверждается, в частности, тем, что Европейская комиссия опубликовала исследование Ernst & Young (EY) об обязанностях директоров и устойчивом корпоративном управлении (Study on directors' duties and sustainable corporate governance) <2>. По данным EY-Parthenon, более 80% обследованных в 2020 г. компаний учредили в составе топ-менеджмента позиции Chief Growth Officer (директор по росту), Chief Transformation Officer (директор по трансформации) и Chief Sustainability Officer (директор по устойчивому развитию), которые ответственны именно за бизнес "за горизонтом планирования" <3>. В других источниках говорится о значимости директора по данным (Chief Data Officer) <4> или даже отдельного комитета в составе СД по управлению данными, состоящего из независимых директоров с опытом работы в области технологий. Подобный процесс наблюдается и в России: например, в правление МТС в 2020 г. был избран вице-президент МТС по ИИ <5>.
--------------------------------
<1> См.: Гусейнов Ш.Р. оглы, Иноземцев М.И. Указ. соч. С. 296.
<2> URL: https://op.europa.eu/en/publication-detail/-/publication/e47928a2-d20b-11ea-adf7-01aa75ed71a1/language-en (дата обращения: 27 декабря 2020 г.).
<3> URL: https://www.vedomosti.ru/opinion/articles/2020/11/13/846792-biznes-gorizontom (дата обращения: 13 ноября 2020 г.).
<4> URL: https://pro.rbc.ru/demo/5f8e6dcb9a7947ef98c60b8d (дата обращения: 1 ноября 2020 г.).
<5> URL: https://www.cnews.ru/news/line/2020-10-23_v_mts_naznachen_vitseprezident (дата обращения: 21 января 2021 г.).

Как считают эксперты, цифровая трансформация, спрос на технологии ИИ, "облачные" вычисления и суперкомпьютеры в России и в мире в ближайшей перспективе будут только расти <1>. Влияние цифровых технологий будет проявляться не только в проблеме признания цифрового способа существования объектов, субъектов и их действий, но, полагаем, с переходом на осуществление деятельности исключительно в цифровой среде потребуется пересмотр понимания корпорации как таковой, ее целей, правовых рамок.
--------------------------------
<1> URL: https://kaliningrad.plus.rbc.ru/news/5f96c6207a8aa95fd85ded08 (дата обращения: 1 ноября 2020 г.).

Рассмотрим отдельные вопросы применения систем ИИ в корпоративном управлении, направления и риски их использования. На первый взгляд это тема далекого будущего, однако с учетом взаимосвязанности развития цифровых технологий (одна влияет на развитие другой), а также скорости и совершенствования систем ИИ юристы должны быть готовы к решению новых вопросов. Становится очевидным, что ИИ может внести существенный вклад в процесс принятия решений в корпорации путем прогнозирования будущих событий на основе "больших данных" и машинного обучения, устранения человеческих предубеждений, предвидения поведения клиентов или конкурентов, мониторинга и прогнозирования бизнес-рисков с помощью передовых инструментов управления рисками, эффективности бизнеса и разработки финансовых прогнозов и т.д. Все это представляет интерес для бизнеса, который существует в условиях VUCA.
Если до 2020 г. системы ИИ рассматривались как перспективное направление развития цифровых технологий, то вследствие пандемии они стали насущной необходимостью в связи с потребностью организовать те или иные процессы без участия человека <1>. Корпорации применяют ИИ для алгоритмической торговли или используют торговых роботов на рынке ценных бумаг, для определения наиболее оптимальных инвестиционных стратегий за счет того, что ИИ может существенно повысить качество информации, на которой будут основаны выводы, принятие стратегических решений, требующих обработки больших объемов данных за короткое время, и т.д. Как видим, перечисленные направления использования ИИ главным образом являются содержанием стратегического управления корпорацией. Согласно п. 2.1 Кодекса корпоративного управления <2> СД осуществляет стратегическое управление обществом, определяет основные принципы и подходы к организации в обществе системы управления рисками и внутреннего контроля, контролирует деятельность исполнительных органов общества, а также реализует иные ключевые функции.
--------------------------------
<1> URL: https://pro.rbc.ru/news/5fe9d5c59a79476abe2cb933 (дата обращения: 21 января 2021 г.).
<2> См.: Письмо Банка России от 10 апреля 2014 г. N 06-52/2463 // СПС "КонсультантПлюс".

Наиболее обсуждаемой темой в данной сфере является влияние цифровых технологий, в том числе ИИ, на структуру и деятельность СД. С развитием ИИ главный вопрос, который возникает у исследователей, заключается в том, кому адресованы будут правила поведения, если в обороте будут автономно взаимодействовать системы ИИ с людьми или друг с другом. Необходимо определить основные принципы использования ИИ, рисков и этических дилемм, связанных с ИИ. Возникает закономерный вопрос, требует ли правовое регулирование корпоративного управления соответствующей корректировки, чтобы быть в состоянии обеспечить технологические трансформации.
Понимание ИИ <1>.
--------------------------------
<1> В тексте будут использоваться термины "ИИ", "система ИИ", "технология ИИ" как равнозначные.

В настоящее время нельзя говорить об общепризнанном понятии ИИ, которое используется в исследованиях и официальных документах, в том числе в правовых актах, как на национальном, так и на международном уровне. Более того, как правило, в них и не преследуется цель предложить единственно возможное определение ИИ, поскольку с течением времени и по мере развития технологий такое определение потребовало бы изменений и, возможно, даже стало бы сдерживающим развитие ИИ фактором. Тем не менее, как правило, под ИИ понимается имитация естественного интеллекта человека, выполняемая с помощью алгоритмов и компьютерных систем, которая в конечном счете стремится к оптимальному выполнению определенных действий <1>. Этот подход к пониманию ИИ отражен в российских стратегических документах.
--------------------------------
<1> См.: Luger G.F. Artificial Intelligence: Structures and Strategies for Complex Problem Solving 1 - 2 (6th ed. 2009). Цит. по: Gramitto Ricci, Sergio Alberto. Artificial Agents in Corporate Boardrooms // Cornell Law Review. Vol. 105. No. 3. 2020. URL: https://ssrn.com/abstract=3677627 (дата обращения: 20 октября 2020 г.).

Искусственный интеллект в качестве одной из цифровых "сквозных" технологий <1> в Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента РФ от 10 октября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации", понимается как комплекс технологических решений, позволяющих имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе с использованием методов машинного обучения), процессы и сервисы по обработке данных и поиску решений (п. 5). В соответствии с ГОСТом 33707-2016 (ISO/IEC 2382:2015) <2> ИИ (AI) определяется как способность функционального блока выполнять функции, обычно ассоциирующиеся с интеллектом человека, такие как, например, рассуждение и обучение (п. 4.464).
--------------------------------
<1> См.: Дорожная карта развития "сквозной" цифровой технологии "Нейротехнологии и искусственный интеллект" // СПС "КонсультантПлюс".
<2> Межгосударственный стандарт. Информационные технологии. Словарь, введенный в действие Приказом Росстандарта от 22 сентября 2016 г. N 1189-ст // СПС "КонсультантПлюс".

Тем не менее очевидно, что при отсутствии достаточного понимания, что представляет собой ИИ, юристы не смогут концептуализировать его во всем его разнообразии <1>. Как отмечал Д.Д. Гримм, конечная задача всякого научного исследования заключается в объяснении окружающих нас явлений, то есть в разложении сложных явлений на составные их элементы или в сведении сложных явлений к комбинациям более простым. Тем самым правовое осмысление предполагает как минимум выявление характерных признаков ИИ, имеющих правовое значение <2>.
--------------------------------
<1> См.: Loza de Siles Emile. AI, on the Law of the Elephant: Toward Understanding Artificial Intelligence (August 28, 2020). Duquesne University School of Law Research. Paper No. 2020 - 15. Buffalo Law Review. Vol. 69. URL: https://ssm.com/abstract=3682835 or http://dx.doi.org/10.2139/ssrn.3682835 (дата обращения: 12 декабря 2020 г.).
<2> См.: Гримм Д.Д. Основы учения о юридической сделке в современной немецкой доктрине пандектного права. Пролегомены к общей теории гражданского права. Т. 1 (часть вторая) // Вестник гражданского права. 2015. N 2. С. 218.

В литературе термин "искусственный интеллект" употребляется в очень широком значении и охватывает не только общий интеллект, который воспроизводит интеллект человека, но и быстро развивающиеся прикладные системы ИИ, применяемые в настоящее время в различных областях (финансовая сфера, транспорт, здравоохранение, образование, социальные сети и др.).
Исследователи условно разделяют системы ИИ на две категории: в первую категорию входят системы, которые действуют в рамках заложенного в них алгоритма, а также в которых люди предоставляют входные данные системе и используют выходные данные, во вторую - так называемые автономные системы, которые самостоятельно собирают и преобразуют входные данные (сигналы) в информацию или знания, затем используют их для создания выходных данных (действий) <1>. Разделяя системы ИИ по критерию автономности, в литературе рассматривают также ИИ как "слабый" <2> (первая категория систем) и "сильный" <3> (вторая категория).
--------------------------------
<1> См.: Franklin S. and Graesser A. Is it an agent or just a program? A taxonomy for autonomous agents. In Intelligent Agents Ill. Agent Theories, Architectures, and Languages / ed. by , M.J. Wooldridge, N.R. Jennings. Springer, 1997. Цит. по: The Cambridge Handbook of Artificial Intelligence / ed. by K. Frankish, W. Ramsey. Cambridge University Press, 2014. P. 24.
<2> Также используется термин "узкий" ИИ или "прикладной" ИИ (narrow AI).
<3> Также используется термин "общий" ИИ (general AI или AGI).

Теория "сильного" ИИ предполагает, что технологии могут приобрести способность мыслить и осознавать себя как минимум на уровне человека. Часто при определении ИИ имеют в виду именно "сильный" ИИ как "широкий набор методов, алгоритмов и технологий, которые делают программное обеспечение" умным "таким образом, что внешнему наблюдателю оно может показаться похожим на человека" <1>.
--------------------------------
<1> Noyes K. (2016). 5 things you need to know about A.I.: Cognitive, neural and deep, oh my! Computerworld, March 3. URL: www.computerworld.com/article/3040563/enterprise (дата обращения: 22 декабря 2020 г.).

Теория "слабого" ИИ предполагает, что технологии ИИ не в полном объеме соответствуют человеческому интеллекту, а применяются узкоспециализированным образом (при этом в конкретной области они значительно превосходят любого человека) <1>. "Прикладной" ИИ предписывает системе последовательно исполнять запрограммированные операции. Тем не менее при использовании машинного обучения <2> в "узком" ИИ система обучается умению разрабатывать правила, необходимые для достижения результатов, предопределенных ее разработчиком. Машинное обучение происходит путем подачи системе больших объемов релевантных данных, сопоставленных с результатами, чтобы она могла распознавать паттерны <3>. То есть система способна разработать более одного пути распознавания образов для достижения результата.
--------------------------------
<1> См.: Регулирование робототехники: введение в "робоправо". Правовые аспекты развития робототехники и технологий искусственного интеллекта / под ред. А.В. Незнамова. М., 2018.
<2> Согласно Плану мероприятий ("дорожная карта") национальной технологической инициативы "Автонет" (приложение N 2 к Протоколу заседания президиума Совета при Президенте Российской Федерации по модернизации экономики и инновационному развитию России от 24 апреля 2018 г. N 1) под машинным обучением (Machine Learning) понимается область знаний, входящая в состав основных источников технологий и методов, применяемых в областях "больших данных" и Интернета вещей, которая изучает и разрабатывает алгоритмы автоматизированного извлечения знаний из сырого набора данных, обучения программных систем на основе полученных данных, генерации прогнозных и (или) предписывающих рекомендаций, распознавания образов и т.п. (СПС "КонсультантПлюс").
<3> См.: Yanqing Duan, John S. Edwards, Yogesh K. Dwivedi. Artificial Intelligence for Decision Making in the Era of Big Data - Evolution, Challenges and Research Agenda // International Journal of Information Management, 2019. 48. P. 63. URL: https://www.sciencedirect.com/science/article/abs/pii/S0268401219300581 (дата обращения: 30 октября 2020 г.).

Сфера машинного обучения динамично развивается. Последние исследования показывают, как "деревья" принятия решений постоянно дорабатываются, что делает узор распознавания более точным за счет использования сложных лингвистических, статистических и вероятностных методов, таких как искусственные нейронные сети, обработка естественного языка, нечеткой логики <1>. Для аналитических целей целесообразно рассматривать контролируемые и неконтролируемые модели машинного обучения, отражающие степень участия человека в обучении этих систем. Тем самым и прикладные системы ИИ могут демонстрировать достаточно высокий уровень автономности. Понимание этих вопросов для юриста является крайне важным, поскольку степень автономности системы ИИ будет одним из главных критериев разграничения правовых режимов полностью автономных и автоматизированных (неавтономных) систем.
--------------------------------
<1> См.: Zysman John and Nitzberg Mark. Governing AI: Understanding the Limits, Possibility and Risks of AI in an Era of Intelligent Tools and Systems (August 26, 2020). BRIE Working Paper No. 2020-5. URL: https://ssrn.com/abstract=3681088 or http://dx.doi.org/10.2139/ssrn.3681088 (дата обращения: 30 октября 2020 г.).

Поскольку развитие систем ИИ является очень динамичным процессом, специалисты утверждают, что любые классификации ИИ являются либо неполными, либо неспособными охватить фундаментальные аспекты появляющихся новых технологий ИИ <1>. Тем не менее выделяются определенные классы алгоритмов, которые используются в ИИ. Алгоритмическими методами ИИ, используемыми для решения конкретных вопросов, являются: инструменты на основе логики (для представления знаний и решения проблем); методы, применяемые для представления знаний и решения проблем; инструменты, основанные на знаниях (онтологиях и объемных базах данных понятий, информации и правил); вероятностные методы (инструменты, позволяющие агентам действовать в неполных информационных сценариях); машинное обучение (инструменты, позволяющие компьютерам учиться на основе данных); воплощенный интеллект; поиск и оптимизация (инструменты, позволяющие разумно искать множество возможных решений). Система ИИ может включать в себя комбинацию таких методов.
--------------------------------
<1> См.: Francesco Corea. AI Knowledge Map: how to classify AI technologies. A sketch of a new AI technology landscape. URL: https://fiancesco-ai.medium.com/ai-knowledge-map-how-to-classify-ai-technologies-6c073b969020 (дата обращения: 1 октября 2020 г.).

Список технологий ИИ постоянно пополняется, и в настоящее время он включает в себя системы разного функционального назначения <1>. Для решения конкретной задачи можно следовать одному или нескольким методам, что, в свою очередь, означает использование одной <2> или нескольких технологий, учитывая, что многие из них дополняют друг друга.
--------------------------------
<1> Технологиями ИИ считаются: роботизированная автоматизация процессов (RPA); экспертные системы; нечеткие системы (основаны на правилах, которые отображают переменные значений от 0 до 1, в отличие от традиционной цифровой логики, которая приводит к результату 0/1); компьютерное зрение (CV); обработка естественного языка (NLP) (понимание языка, генерация языка и машинный перевод); нейронные сети (NNs или ANNs с основными подклассами - глубокое обучение и генеративные состязательные сети (GANs - две сети, которые обучают друг друга)); автономные системы (сочетание робототехники и интеллектуальных систем); распределенный искусственный интеллект (DAI, класс технологий, которые решают проблемы, распределяя их между автономными "агентами", взаимодействующими друг с другом); мультиагентные системы (MAS); аффективные вычисления (Affective Computing (AC), распознавание эмоций, интерпретация и моделирование); эволюционные алгоритмы (EA) (в том числе генетические алгоритмы); индуктивное логическое программирование (ILP); сети принятия решений (Decision Networks) (обобщение наиболее известных байесовских сетей (Bayesian networks)/выводов); вероятностное программирование (Probabilistic Programming, фреймворк, который не заставляет жестко кодировать конкретную переменную, а скорее работает с вероятностными моделями; байесовский программный синтез (BPS) - в некотором роде форма вероятностного программирования, где байесовские программы пишут новые байесовские программы, а не человек, как в более широком подходе вероятностного программирования); окружающий интеллект (AmI) (технология, которая требует физических устройств в цифровой среде, чтобы чувствовать, воспринимать и реагировать с контекстной осведомленностью на внешний стимул, обычно вызванный действием человека). См.: Francesco Corea.
<2> См.: Отдельные технологии ИИ, например распознавание речи, уже активно применяются (https://www.rbc.ru/finances/03/09/2020/5f4fa88e9a794703cca88d24) (дата обращения: 10 ноября 2020 г.). Эта технология начала работать в 32 кафе и ресторанах Москвы. Сервис, разработанный на платформе "Яндекс.Диалоги" (https://ict.moscow/card/yandeks-dialogi/), позволяет бесконтактно заказывать еду и напитки в ресторанах, оплачивать их и оставлять чаевые, не дожидаясь официанта. Для заказа необходимо попросить "Алису" (https://ict.moscow/card/alisa/) вызвать опцию голосового помощника Bartello. При первом запуске ассистент попросит создать кодовое слово, с помощью которого в дальнейшем будет подтверждаться проведение платежа.

Например, считается, что для систем ИИ, создаваемых в области права, наиболее востребованными являются технологии обработки естественного языка (Natural Language Processing, NLP) как ключевой компонент понимания и применения правовых норм <1>. Данная технология преобразует неструктурированный текст в формальное представление, которое компьютеры могут понять и проанализировать. В настоящее время растет число хранилищ оцифрованных машиночитаемых юридических текстовых данных и наблюдается прогресс в методах NLP, обусловленный алгоритмическими и аппаратными усовершенствованиями. В связи с этим в ближайшей перспективе следует ожидать постепенного роста систем ИИ, которым будут делегировать принятие правовых решений, в том числе корпоративных.
--------------------------------
<1> См.: Nay John. Natural Language Processing and Machine Learning for Law and Policy Texts (April 7, 2018). Available at SSRN: https://ssrn.com/abstract=3438276 or http://dx.doi.org/10.2139/ssrn.3438276 (дата обращения: 19 ноября 2020 г.).

Проводя правовые исследования, необходимо учитывать прогнозы развития систем ИИ. Так, по данным Technology Review, ученые считают, что через 60 лет ИИ будет представлять серьезную угрозу для человечества, к 2022 г. сходство между процессами мышления робота и человека составит около 10%, к 2040 г. - 50%, а к 2075 г. мыслительные процессы роботов уже нельзя будет отличить от процессов мышления человека <1>. Эти цифры важно принимать во внимание, чтобы понимать, как быстро в повестке дня окажутся вопросы правового обеспечения деятельности полностью автономных систем ИИ. Необходимость и срочность изучения, а также поиска подходов к регулированию ИИ во всем мире уже неоспоримы. В 2014 г. в Стэндфордском университете был начат проект "The One Hundred Year Study on Artificial Intelligence (AI100)" <2> ("Столетнее исследование ИИ"), представляющий собой долгосрочное исследование в области ИИ. В рамках данного проекта группа экспертов каждые пять лет намерена проводить оценку текущего состояния ИИ и публиковать соответствующие отчеты. Основная идея проекта состоит в том, чтобы постоянно оценивать, насколько все исследования, разработки и проектирование систем ИИ, а также программы и стратегии приносят пользу человеку и обществу в целом.
--------------------------------
<1> См.: Etzioni Oren. No. the Experts Don't Think Superintelligent AI is a Threat to Humanity. URL: https://www.technologyreview.com/s/602410/no-the-experts-dont-think-superintel-ligent-aiis-a-threat-to-humanity_ (дата обращения: 28 августа 2020 г.).
<2> URL: https://ai100.stanford.edu/ (дата обращения: 2 ноября 2020 г.).

Таким образом, при использовании системы ИИ в корпоративном управлении важно определить, какое правовое значение будет иметь степень автономности ее функционирования, способность самообучаться и способность без участия человека принимать решения в соответствии с заданной целью, В настоящее время правовые разработки нацелены главным образом на моделирование и прогнозирование в этой области, поскольку эмпирические данные пока могут быть получены только в пилотных проектах создания систем ИИ, в рамках экспериментальных правовых режимов <1>, в которых будут апробироваться в том числе и правовые цифровые инструменты.
--------------------------------
<1> См.: Федеральный закон от 31 июля 2020 г. N 258-ФЗ "Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации" // СПС "КонсультантПлюс".

Направления использования систем ИИ в корпоративном управлении: принципы и возникающие правовые вопросы.
Корпоративное управление охватывает систему взаимоотношений между исполнительными органами акционерного общества, его СД, акционерами и другими заинтересованными сторонами <1>. В связи с применением систем ИИ в деятельности корпорации, в том числе для принятия решений, круг заинтересованных в экономической деятельности корпорации лиц расширится за счет разработчиков систем ИИ, операторов, поддерживающих их работу, и др. Представляется, что потребуется оценка того, какие требования к ним должны предъявляться. Например, для обеспечения интересов корпорации необходимо будет оценить степень их влияния на систему корпоративного управления.
--------------------------------
<1> См.: Письмо Банка России от 10 апреля 2014 г. N 06-52/2463 "О Кодексе корпоративного управления" // СПС "КонсультантПлюс".

Применение систем ИИ может осуществляться любым субъектом корпоративного управления. Мы не рассматриваем ситуации использования ИИ для автоматизации отдельных операций, производимых человеком и не связанных с функциями интеллекта (рассуждение и обучение). Например, система по распознаванию речи может применяться директором, чтобы избавить его от самостоятельного написания текста.
В настоящее время обсуждаются различные вопросы в связи с алгоритмической формой осуществления деятельности корпорации: как изменятся правоотношения, если руководителя заменит алгоритм <1>, как новые технологии могут трансформировать деятельность СД, если предоставят возможность ИИ не только осуществлять поддержку принятия решений директорами, но заменять их. Пока можно встретить лишь скептические мнения по поводу автоматизации процесса принятия решения ОД <2>. Такие же высказывания можно встретить по поводу деятельности инвестора на рынке ценных бумаг (в том числе и участника корпорации), считается, что такая деятельность будет одной из последних, которая отступит под натиском ИИ <3>. Тем не менее все признают быстроту и сложность изменений, происходящих в обществе. Аргументы в пользу интегрирования ИИ в деятельность корпораций достаточно веские, поскольку система ИИ может анализировать большие объемы информации и принимать решения на основе сложных алгоритмов <4>. В литературе описан случай, когда компания Deep Knowledge Ventures <5> использовала алгоритм под названием Vital (Validating Investment Toolfor Advancing Life Sciences) при принятии решений в ОД. Алгоритму было предоставлено, условно говоря, "право голоса" по вопросу, касающемуся инвестиций в конкретный проект. Vital не имел статуса директора в юридическом смысле, однако члены ОД в полной мере полагались на данные, которые были предоставлены этим роботом <6>.
--------------------------------
<1> См.: Ben Waber People Analytics (FT Press, Pearson 2013) 178, Цит. по: dams-Prassl Jeremias, What if Your Boss Was an Algorithm? The Rise of Artificial Intelligence at Work (2019), [2019] 41 (1), Comparative Labor Law & Policy Journal 123, SSRN: https://ssrn.com/abstract=3661151 (дата обращения: 12 ноября 2020 г.).
<2> URL: https://sloanreview.mit.edu/arficle/ai-m-the-boardroom-the-next-realm-of-corpo-rate-governance/ (дата обращения: 22 января 2021 г.).
<3> См.: Так говорит Мильнер: возвращения к "прежней норме" не будет // РБК Pro (rbc ru) (дата обращения: 20 декабря 2020 г.).
<4> URL: https://www.cglytics.com/ai-in-the-boardroom-fantasy-or-reality/ (дата обращения: 22 января 2021 г.).
<5> URL: http://www.deepknowledgeventures.com/ (дата обращения: 30 марта 2018 г.).
<6> См.:  Robots in the Boardroom: Artificial Intelligence and Corporate Law (September 15, 2017) in: Woodrow Barfield and Ugo Pagallo (eds), Research Handbook on the Law of Artificial Intelligence, Edward Elgar, (2017/18). URL: https://ssrn.com/abstract=3037403 or http://dx.doi.org/10.2139/ssrn.3037403 (дата обращения: 20 декабря 2020 г.).

Правовая регламентация деятельности в сфере ИИ во всех странах находится на подготовительном этапе внедрения ИИ во все сферы жизни. В повестке международного научного дискурса и стратегических национальных документах стран, заинтересованных в развитии ИИ, стоит вопрос о формировании общих принципов создания и эксплуатации систем ИИ <1>. Одним из ключевых направлений применения систем ИИ является использование их функционального назначения для принятия решений.
--------------------------------
<1> См. подробнее о принципах применения систем ИИ: Чеховская С.А. Использование систем искусственного интеллекта для принятия решений: построение системы принципов регулирования // Предпринимательское право. 2021. N 1; Finck M. (2019) Automated Decision-Making and Administrative Law, Max Planck Institute for Innovation and Competition Research. Paper No. 19-10. URL: www.researchgate.net/publication/342827120_Algorithmic_Decision-making_and_the_Law (дата обращения: 11 ноября 2020 г.).

Главным фактором, который будет влиять в будущем на систему принятия решений, в том числе в управлении, и на правовое отражение развития общества, называют изменение способа измерения скорости происходящих процессов. Человекометричное восприятие всех общественных процессов во многих областях жизни будет постепенно уступать машинометричному. То есть при планировании определенных действий и в дальнейшем при их правовом регулировании будут полагаться не на скорость людей при их выполнении, а на скорость алгоритмического кода <1>. Значит, нужно быть готовым к тому, что право станет развиваться в совершенно другой парадигме.
--------------------------------
<1> В литературе обсуждается вопрос о децентрализованных автономных организациях (decentralized autonomous organization): вместо того чтобы полагаться на статические механизмы регулирования прав личности хозяйствующего субъекта, которые выполняются со скоростью людей, DAOs предлагают алгоритмические механизмы управления, которые выполняются со скоростью кода (см.: Ganado Max and Ellul Joshua and Pace Gordon J. and Tendon Steve and Wilson Bryan. Mapping the Future of Legal Personality (November 20, 2020). MIT Computational Law. Vol. 1, Iss. 3, 2020. Available at SSRN: https://ssrn.com/abstract=3735466 (дата обращения: 12 января 2021 г.)).

Значимой общеотраслевой задачей регулирования технологий ИИ, закрепленной в Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года (далее - Концепция развития ИИ), утвержденной распоряжением Правительства РФ от 19 августа 2020 г. N 2129-р <1>, названо создание правовых условий для применения систем ИИ при принятии юридически значимых решений. В Концепции развития ИИ устанавливается, что в период до 2024 г. законодательство Российской Федерации должно допускать только точечное "делегирование" определенных решений системам ИИ, где это объективно целесообразно и не несет угрозы основополагающим правам и свободам человека, обороне страны и безопасности государства. Для обеспечения наиболее безопасного делегирования системам принятия решений всеми заинтересованными в развитии ИИ странами предпринимаются усилия по формированию основных принципов использования ИИ. Таким образом, предполагается, что будет различаться правовое регулирование делегирования системам ИИ принятия юридически значимых решений и решений, которые не направлены на создание юридически значимых последствий, поскольку первая названная категория может нести больше риска наступления неблагоприятных последствий и потребует формирования более строгих требований их эксплуатации.
--------------------------------
<1> СПС "КонсультантПлюс".

Делегирование принятия решений системам ИИ ставит новые задачи перед юридической наукой и практикой. Среди ключевых правил делегирования принцип обеспечения прозрачности принимаемых алгоритмами решений занимает одно из главных мест <1>. Принципами, которые выделяются Большинством национальных правопорядков, являются конфиденциальность, подотчетность, безопасность, прозрачность и объяснимость, справедливость и недискриминация, человеческий контроль над технологией, профессиональная ответственность, приоритет общечеловеческих ценностей <2>.
--------------------------------
<1> См.: Ananny M., Crawford K. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society. 2018; 20 (3): 973 - 989. DOI: 10.1177/1461444816676645.
<2> URL: https://cyber.harvard.edu/publication/2020/principled-ai (дата обращения: 10 ноября 2020 г.).

Группа экспертов, называющая себя сообществом справедливости, подотчетности и прозрачности в области машинного обучения (FATML), выделяет пять принципов алгоритмической прозрачности и подотчетности, а именно справедливость, объяснимость, проверяемость, ответственность и точность <1>.
--------------------------------
<1> URL: https://www.fatml.org/resources/principles-for-accountable-algorithms.

Путь к автономии ИИ непредсказуем, и потому, например, в рамках ЕС предпринимаются осторожные и последовательные действия по созданию наиболее безопасных условий для его применения. Большое значение имеет Резолюция Европейского парламента от 20 октября 2020 г. с рекомендациями Комиссии по этическим аспектам искусственного интеллекта, робототехники и связанных с ними технологий (2020/2012)(INL) <1>, в которой кроме руководящих этических положений в сфере ИИ предлагается обеспечение единообразного внедрения системы оценки рисков с определением исчерпывающего перечня секторов с высоким риском применения ИИ, а также регулярной переоценки этого списка, учитывая развивающийся характер этих технологий. Согласно п. 14 указанной Резолюции технологии ИИ должны признаваться высокорисковыми, если их разработка, внедрение и использование влекут наступление риска причинения значительного вреда отдельным лицам или обществу при нарушении основных прав личности и требований безопасности, учитывая сектор, в котором они разрабатываются или используются, и конкретную цель их применения. Тем самым выделяются два критерия для определения перечней использования ИИ, сопряженного с высоким риском: сфера и цель применения ИИ. В качестве высокорисковых секторов предлагается рассматривать сферы занятости, образования, здравоохранения, транспорта, энергетики, государственного сектора (миграция, пограничный контроль, судебная система и службы социального обеспечения), обороны и безопасности, финансов, а также банковскую сферу и страхование. Высокорисковым использованием или целью являются подбор персонала, оценивание студентов, выделение государственных средств, предоставление кредитов, трейдинг, брокерская деятельность, налогообложение, медицинские процедуры, избирательные процессы и политические кампании, принятие решения в государственном секторе, оказывающие существенное и непосредственное влияние на права и обязанности физических или юридических лиц, автоматизированное вождение, управление дорожным движением, автономные военные системы, производство и распределение энергии, управление отходами, контроль выбросов.
--------------------------------
<1> Framework of ethical aspects of artificial intelligence, robotics and related technologies European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies. URL: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.html#top (дата обращения: 9 ноября 2020 г.).

Также устанавливается, что государства - члены ЕС должны прибегать к технологиям ИИ только в том случае, если есть исчерпывающие доказательства их надежности, значимое вмешательство человека в случаях, когда затрагиваются основные права и свободы человека (п. 68 Резолюции). В п. 79 этого документа предлагается использовать стандартизованную маркировку систем ИИ, помогающую пользователям определять уровень сложности системы. Предлагаются и другие конкретные меры: разработка и внедрение европейского сертификата соблюдения этических норм, который в том числе повысит осведомленность граждан о возможностях и рисках, присущих этим технологиям (п. 129); создание центра экспертных знаний, объединяющего академические круги, исследователей, промышленность и отдельных экспертов на уровне ЕС для обмена знаниями и техническим опытом (п. 150). Национальное европейское законодательство, в частности французское, воспринимает такой осторожный подход, разрабатывая новую норму Кодекса Франции о здравоохранении, и устанавливает, что никакое медицинское лечение не может быть назначено только на основе алгоритмического решения. Разработчики алгоритмической обработки медицинских данных обеспечивают прозрачность работы алгоритма <1>.
--------------------------------
<1> См.:  Les  d'intelligence artificielle: quelle ? // Science & Pseudo-Sciences, jan. - jun. 2020, Iss. 332. P. 49.

Представляется, что позицию ЕС, закрепленную в указанной Резолюции, следует принять во внимание, определяя национальные правовые условия использованием систем ИИ в корпоративном управлении. Полагаем, все вышесказанное является важным общим руководством для корпораций, намеренных использовать системы ИИ, в том числе в сфере корпоративного управления. Корпорации, осуществляющие свою деятельность, используя ИИ, разработали собственные акты, устанавливающие основополагающие положения эксплуатации ИИ <1>.
--------------------------------
<1> Например, в Google разработан документ "Искусственный интеллект в Гугл: наши принципы" (Artificial Intelligence at Google: Out Principles), URL: https://ai.google/principles/ (дата обращения: 16 декабря 2020 г.). Компания Microsoft разработала и применяет свои собственные Принципы ответственного ИИ на практике, создав специальное подразделение - Управление ответственного ИИ: Ihe Office of Responsible AI, или ORA, и Комитет по ИИ, этике и эффектам в инженерии и исследованиях (AI, Ethics, and Effects in Engineering and Research (Aether) Committee), URL: https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6 (дата обращения: 10 ноября 2020 г.).

Как было сказано выше, в настоящее время наиболее перспективным направлением использования систем ИИ в корпоративном управлении является их применение в деятельности ОД. В результате изучения влияния цифровой экспертизы принимаемых решений ОД (DEB, digital experience on boards) на эффективность работы корпорации (выборка из SSO фирм FTSE за период с 2013 по 2018 г.) было обнаружено, что присутствие экспертов в ОД, обладающих знаниями и опытом в сфере цифровых технологий, существенно и положительно связано с эффективностью деятельности корпорации. В частности, анализ показал, что присутствие цифрового эксперта в ОД повышает эффективность деятельности корпорации на 5% <1>. Похожие результаты были описаны и в других исследованиях <2>. Кроме того, прогнозируется, что в условиях цифровизации роли исполнительных и неисполнительных директоров будут сближаться и им придется выстраивать новые взаимоотношения <3>.
--------------------------------
<1> См.: Mathew Sudha, and Puwanenthiren Premkanth, and Sivaprasad Sheeja, The Value Effects of Digital Expertise on Corporate Boards (October 22, 2020). URL: https://ssrn.com/abstract=3716771 or http://dx.doi.org/1O.2139/ssrn.3716771.
<2> См.: Weill P., Apel T., Woerner S.L. and Banner T.S. (2019). It Pays to Have a Digitally Savvy Board, Magazine accessed on 20/02/20, URL: https://dsrmit.edu/publication/2019_O1O1_Digi-tallySavvyBoards_WeillWoemerApelBanner; Joshi Anant, van Peteghem Mathijs, Mithas Sunil, Bollen Laury, and De Haes Steven, Board IT Competence and Firm Performance (2019), ICIS 2019 Proceedings, 16, URL: https://aisel.aisnet.org/icis2019/governance_is/governance_is/16.
<3> См.: Moerel E.M.L. Reflections on the Impact of the Digital Revolution on Corporate Governance of Listed Companies (December 1, 2019), First published in Ducth by Uitgeverij Paris in 2019, and written in assignment of the Dutch Corporate Law Association for their annual conference, URL: https://ssm.com/abstract=3519872 or http://dx.doi.org/1O.2139/ssrn.3519872 (дата обращения: 11 января 2021 г.).

Происходящие процессы ставят серьезные правовые вопросы, которые могут возникать при оценке действий директоров при принятии решений, требующих специальных экспертных знаний в цифровой сфере. Прежде всего это касается установления того, какие действия директора будут считаться разумными.
В силу п. 3 ст. 53 ГК РФ лицо, которое в силу закона, иного правового акта или учредительного документа юридического лица уполномочено выступать от его имени, должно действовать в интересах представляемого им юридического лица добросовестно и разумно. Такую же обязанность несут члены коллегиальных органов юридического лица (наблюдательного или иного совета, правления и т.п.). В нормах ст. 71 Закона об АО и ст. 44 Закона об ООО также закрепляются указанные обязанности.
Под разумностью в общенаучном значении Л.В. Волосатова предлагает понимать присущую субъекту познавательную способность, предполагающую нормальную деятельность его сознания, направленную на установление, упорядочение, систематизацию и выявление смыслового содержания, внутренних и внешних связей вещей и явлений <1>. В этом смысле обязанность быть разумным является безграничной, что может привести к невозможности определения границ ответственности директора. По мнению Б.Р. Карабельникова, разумными будут считаться, в частности, действия, соответствующие современным знаниям и опыту <2>. Е.Е. Богданова считает, что разумность означает наличие соответствующего опыта у субъекта права <3>.
--------------------------------
<1> См.: Волосатова Л.В. Принцип разумности в реализации субъективных гражданских прав: автореф. дис. ... канд. юрид. наук. М., 2005. URL: https://www.dissercat.com/content/prtosip-razumnosti-v-realizatsii-subektivnykh-grazhdanskikh-prav (дата обращения: 23 декабря 2020 г.).
<2> См.: Карабельников Б.Р. Трудовые отношения в хозяйственных обществах. М., 2003. С. 33.
<3> См.: Богданова Е.Е. Принцип разумности в гражданском праве РФ // Адвокат. 2013. N 1. С. 11.

В корпоративном праве уточняется общее гражданско-правовое понимание разумности поведения применительно к лицам, входящим в органы управления. Обратимся к п. 3 Постановления Пленума Высшего Арбитражного Суда РФ от 30 июля 2013 г. N 62 "О некоторых вопросах возмещения убытков лицами, входящими в состав органов юридического лица", в подп. 2 которого разъясняется, что неразумность действий (бездействия) директора считается доказанной, в частности, когда директор до принятия решения не предпринял действий, направленных на получение необходимой и достаточной для его принятия информации, которые обычны для деловой практики при сходных обстоятельствах, в частности, если доказано, что при имеющихся обстоятельствах разумный директор отложил бы принятие решения до получения дополнительной информации. Какой объем экспертных знаний в сфере применения цифровых технологий будет признаваться обычным для деловой практики в современных условиях и свидетельствовать о разумности действий директора?
В настоящее время представляется очевидным, что в оценку того, насколько действия директора соответствуют знаниям и опыту, являющимся обычными для деловой практики, будет включаться и показатель уровня цифровой компетенции. Кроме того, современный подход к образованию, основанный на непрерывном овладении новыми знаниями и навыками (life-long learning) <1>, полагаем, будет существенно менять и понимание стандартного набора знаний и навыков, какими должен обладать директор в корпорации. В бизнес-сообществе все больше утверждается мнение, что технологическая грамотность - это уже не преимущество, а ключевая обязанность директоров <2>. Представляется, что член СД как минимум должен быть способен сформулировать соответствующее требование о предоставлении необходимой для принятия решения информации (п. 4 ст. 65.3 ГК РФ), а также о привлечении соответствующих экспертов, обладающих специальными знаниями в сфере применения отдельных технологий, чтобы исключить риск признания его поведения неразумным.
--------------------------------
<1> См.: Кузнецов Е.Б., Энговатова А.А. "Университеты 4.0": точки роста экономики знаний в России // Инновации. 2016. N 5. URL: https://cyberleninka.ru/article/n/universitety-4-0-tochki-rosta-ekonomiki-znamy-v-rossii (дата обращения: 21 января 2021 г.).
<2> URL: https://pro.rbc.ru/news/6006a9099a79471353937a6b?from=newsfeed&utm_source=rbc.ru&utm_medium=inhouse_media&utm_campaign=newsfeed&utm_content=6006a9099a79471353937a6b (дата обращения: 28 января 2021 г.).

Ситуация усложняется в случае, если СД использует систему ИИ для принятия корпоративного решения. Как было показано выше, степень автономности системы ИИ может быть различной. Следовательно, необходимо будет различать степень делегирования принятия решения в корпоративном управлении системам ИИ:
- полное делегирование системам ИИ принятия корпоративных решений;
- применение ИИ для автоматизированной поддержки принятия решений, то есть ратифицированное человеком решение системы ИИ.
Прогнозируя направления и способы использования систем ИИ, в литературе обсуждают разные сценарии их вовлечения в работу СД <1>.
--------------------------------
<1> См.: Gramitto Ricci, Sergio Alberto. Artificial Agents in Corporate Boardrooms (August 20, 2020). Cornell Law Review. Vol. 105. No. 3. 2020. URL: https://ssm.com/abstract=3677627 (дата обращения: 10 ноября 2020 г.).

Во-первых, возможно применение ИИ в качестве экспертной системы, мнение которой может быть использовано членами СД при принятии конкретного решения. В этом случае в правовом поле ничего не меняется, юридически решения принимаются СД. Тем не менее проблема, касающаяся принятия информированного решения, наполняется новым содержанием. Директор может излишне доверять экспертному мнению системы <1> либо, наоборот, с предубеждением его игнорировать. Действительно, использование ИИ при принятии решения директором может повлиять на его способность высказывать свое независимое суждение.
--------------------------------
<1> Вера человека в непогрешимость компьютера привела к проблеме принятия большого числа неверных решений компьютерными системами еще в 1970-е гг. в США, несмотря на то что квалифицированные работники их контролировали и дорабатывали, см.: Citron Danielle Keats. Technological Due Process. U of Maryland Legal Studies Research. Paper No. 2007-26, Washington University Law Review. 2007. Vol. 85. P. 1249 - 1313. URL: https://ssrn.com/abstract=1012360 (дата обращения: 2 августа 2020 г.).

Во-вторых, использование ИИ в СД может заключаться в создании гибридных органов, состоящих из смеси "искусственных" директоров (систем ИИ) и традиционных директоров. Этот сценарий уже начал реализовываться, выше был описан пример с Vital. Можно предположить, что в долгосрочной перспективе избранным директором может стать, например, София Hanson Robotics <1>.
--------------------------------
<1> Behind the Scenes: How Sophia Works. URL: https://perma.ccX5JE-3RZZ (дата обращения: 20 января 2020 г.).

В-третьих, применение ИИ предполагает замену всего состава СД системой ИИ. Этот способ представляется наиболее радикальным, тем не менее он также обсуждается. Заметим, что вопрос аутсорсинга СД обсуждается давно <1>. У этой идеи немного сторонников, поскольку использование провайдера услуг СД сводит на нет корпоративные отношения в обществе. Можно предположить, что третий сценарий, по сути, будет предполагать использование автоматизированного провайдера таких услуг. При этом возможны два варианта: использование одной системы ИИ для замены всего СД (как органа корпорации) или нескольких различных систем ("искусственных" директоров) для замены каждого директора-человека. С технической точки зрения обе возможности осуществимы. С юридической точки зрения помимо изменения требования, установленного в большинстве стран, о том, что членом СД общества может быть только физическое лицо <2>, потребуется разработка в доктрине стандарта "разумного алгоритма", который мог бы применяться на практике лицами, принимающими решения <3>. Требование разумности системы ИИ должно быть закодировано и запрограммировано в этом случае, то есть, по сути, это должно быть уже требование к функциональным характеристикам системы ИИ.
--------------------------------
<1> См., например: Bainbridge S. & Henderson M. (2018). The Board Service Provider. In Outsourcing the Board: How Board Service Providers Can Improve Corporate Governance. Cambridge University Press, 2018. P. 85 - 134.
<2> В России это установлено в п. 2 ст. 66 Закона об АО; в штате Делавэр США это закреплено в § 141 Общего закона о корпорациях (General Corporation Law) (https//delcode.delaware.gov/title8/c001/sc04/) (дата обращения; 21 января 2021 г.).
<3> См.: Chagal-Feferkorn Kami. How Can I Tell If My Algorithm Was Reasonable? April 17, 2020. Michigan Telecommunications and Technology Law Review. URL: https://ssrn.com/abstract=3578399 (дата обращения: 25 декабря 2020 г.).

Следует обратить внимание на то, что корпоративное законодательство и практика его применения в условиях широкого использования ИИ корпорациями потребуют пересмотра многих выработанных подходов. В частности, действующее регулирование строится на фундаментальном положении, согласно которому директора должны действовать в интересах общества, подобные нормы закреплены в корпоративном законодательстве большинства стран. Например, в соответствии с действующим немецким законодательством правление акционерной корпорации должно действовать в наилучших интересах общества <1>. Полагаем, законодательство должно быть модифицировано в этой части - для случаев автономного алгоритмического принятия решения, то есть для полного делегирования этого процесса системам ИИ. Представляется, что распространение правила действовать по своему усмотрению в интересах корпорации на действия "искусственного" директора будет нецелесообразным.
--------------------------------
<1> § 93 Закона об акционерных обществах (AktG). URL: https;//www.gesetze-im-internet.de/aktg/__93.html.

Цифровые корпорации.
Несмотря на кажущиеся далекими перспективы, тема субъектов состава бизнес-деятельности, которая осуществляется только в цифровой форме <1>, является предметом дискуссий и в зарубежной литературе. В связи с применением ИИ одной из тем международного дискурса в корпоративном праве являются самоуправляемые корпорации (self-driving corporations) <2>. В частности, как вполне реальную перспективу эксперты рассматривают создание дочерних обществ в цифровой форме, то есть самоуправляемых дочерних обществ, SPV на финансовом рынке и т.д. <3>. В картине будущего рисуется создание цифровой корпорации, которая управляет функционированием автопарка беспилотных транспортных средств. Представляется, что пандемия ускорит создание правовых условий для образования гибридных холдинговых структур, в состав которых будут входить как традиционные общества, так и цифровые субъекты. Полагаем, в целях построения национальной цифровой экономики, ее экосистемы <4> создание и юридическое признание наряду с цифровыми объектами и цифровых субъектов практически неизбежно. Можно говорить о постепенной подготовке в России к созданию и функционированию цифровой экосистемы, в том числе и условий для образования цифровых лиц, в том числе корпораций. С 1 января 2021 г. действует Федеральный закон от 31 июля 2020 г. N 259-ФЗ "О цифровых финансовых активах, цифровой валюте и о внесении изменений в отдельные законодательные акты Российской Федерации", закрепляющий возможность выпуска акций непубличного акционерного общества в виде цифровых финансовых активов. В Германии подготовлен проект закона об цифровых ценных бумагах, который пока касается только облигаций на предъявителя (Inhaberschuldverschreibungen), регулирование цифровых акций, а также паев цифровых инвестиционных фондов планируется осуществлять на более позднем этапе <5>.
--------------------------------
<1> Чеховская С.А. Коммерческое право // Научно-практический журнал. 2019. Т. 35. N 4. С. 42.
<2> См.: Armour J. and Eidenmueller Horst G.M. Self-Driving Corporations? August 25, 2019. Harvard Business Law Review, Forthcoming, European Corporate Governance Institute Law. Working Paper No. 475/2019, Oxford Legal Studies Research. Paper No. 5/2020 // ssrn.com/abstract=3442447 (дата обращения: 2 ноября 2020 г.).
<3> См.: Armour J. and Eidenmueller Horst G.M. Self-Driving Corporations? August 25, 2019. Harvard Business Law Review, Forthcoming, European Corporate Governance Institute Law. Working Paper No. 475/2019, Oxford Legal Studies Research. Paper No. 5/2020 // ssrn.com/abstract=3442447 (дата обращения: 2 ноября 2020 г.).
<4> См.: Указ Президента РФ от 9 мая 2017 г. N 203 "О Стратегии развития информационного общества в Российской Федерации на 2017 - 2030 годы" // СПС "КонсультантПлюс".
<5> См.: Zeranski S. and Sancak I.E. Implications of Germany's Draft Electronic Securities Regulation for RegTech and SupTech. September 14, 2020. ZWIRN. Working Paper ZWP/2020/3. URL: https://ssrn.com/abstract=3692401 or http://dx.doi.org/10.2139/ssrn.3692401 (дата обращения: 1 ноября 2020 г.).

Следует отметить, что предметом экспертного обсуждения <1> уже давно являются децентрализованные автономные организации <2> (ДАО, или Decentralized Autonomous Organizations (DAO)), организуемые на основе технологии блокчейна. Активное практическое применение блокчейна в настоящее время стимулирует дальнейшие исследования <3> и создает реальные возможности функционирования систем, в которых взаимодействуют ИИ и технология блокчейна через набор смарт-контрактов <4>.
--------------------------------
<1> См., например: . Law and Blockchain; A Legal Perspective on Current Regulatory Trends Worldwide (January 17, 2018). Revue Trimestrielle de Droit Financier (Corporate Finance and Capital Markets Law Review) RTDF N 4 - 2017 - December 2017. SSRN: https://ssrn.com/abstract=3080639 or http://dx.doi.org/10.2139/ssrn.3080639; Chohan Usman W. The Decentralized Autonomous Organization and Governance Issues. December 4, 2017. SSRN: https://ssrn.com/abstract=3082055 or http://dx.doi.org/10.2139/ssrn.3082055; Hacker P. Corporate Governance for Complex Cryptocurrencies? A Framework for Stability and Decision Making in Blockchain-Based Organizations (November 22, 2017) in: Regulating Blockchain. Techno-Social and Legal Challenges / ed. by Ph. Hacker, Ioannis Lianos, Georgios Dimitropoulos and Stefan Eich. Oxford University Press, 2019. P. 140 - 166. SSRN: https://ssrn.com/abstract=2998830 or http://dx.doi.org/10.2139/ssrn.2998830.
<2> Децентрализованные автономные организации функционируют как совокупность "умных" (самоисполняемых) контрактов с использованием блокчейна. Степень автономности, так же как у ИИ, может быть различной.
<3> См.: Kaal Wulf A. Decentralized Autonomous Organizations - Internal Governance and External Legal Design. July 15, 2020. Annals of Corporate Governance (2021), U of St. Thomas (Minnesota) Legal Studies Research. Paper No. 20 - 14. URL: https://ssrn.com/abstract=3652481 or http://dx.doi.org/10.2139/ssrn.3652481.
<4> См.: De Filippi P., Wright A. Blockchain and the Law: The Rule of Code, Harvard University Press, Cambridge Massachusetts, 2018. P. 148.

Интересен зарубежный опыт правового обеспечения построения бизнеса на основе блокчейна. В отдельных штатах США (Вермонт, Вайоминг, Делавэр и Монтана) соответствующие законы были дополнены специальными нормами, в которых реализованы разные подходы к интеграции новых технологий в действующую правовую систему. Например, в штате Вермонт прямо закреплена возможность создания новой формы компании с ограниченной ответственностью на основе блокчейна (BBLLC), которая может использовать любые алгоритмы для проведения своих операций и технологию блокчейна. Чтобы стать BBLLC, организация должна указать об этом в своем уставе, а также разработать специальное операционное соглашение, определяющее цели компании, протоколы доступа, будет ли блокчейн BBLLC полностью или частично децентрализован, полностью или частично публичным или частным, а также порядок обеспечения системной безопасности компании, права и обязанности каждой группы участников в рамках BBLLC <1>. Такой подход основывается на доктринальных разработках в отношении организации ДАО. Ранее высказывалось мнение, что ДАО будет представлять собой гибридную договорную организацию <2>, сочетающую применение генерального соглашения и закодированных условий, реализованных на блокчейне.
--------------------------------
<1> См.: Melissa Palat Murawsky, Kathy E. Herman. Vermont Continues Its Blockchain Play: A Look inside the State's New Legislation. Blank Rome, September 13, 2018. URL: https://www.blankrome.com/publications/vermont-continues-its-blockchain-play-look-inside-states-new-legislation (дата обращения: 12 января 2021 г.).
<2> См.: De Filippi P., Wright A. Op. cit. P. 76.

Риски использования систем ИИ.
Серьезнейшего изучения требует определение рисков использования технологий ИИ. Этот вопрос имеет межотраслевое значение независимо от того, касается ли это применения систем ИИ в корпоративном управлении или случаев, когда они интегрированы в структуру цифровой корпорации. Могут возникнуть ситуации, когда непрозрачность операций систем ИИ и широкий круг вовлеченных в эти отношения субъектов сделают чрезмерно дорогостоящим и затруднительным определение того, кто контролировал риски использования системы ИИ и мог влиять на их минимизацию, кто может быть привлечен к ответственности. Эта проблема усугубляется взаимосвязанностью всех цифровых технологий, их зависимостью от внешних данных и уязвимостью к нарушению кибербезопасности. Можно выделить следующие группы рисков:
- риски, связанные с ошибками, сбоями в системе, а также с несанкционированным доступом к системе ИИ;
- риски, связанные с использованием недостоверных, неактуальных или не соответствующих действующему законодательству данных;
- риски, связанные с ненадлежащим механизмом обучения систем ИИ.
В настоящее время все эти вопросы разрабатываются главным образом применительно к беспилотным транспортным средствам. В литературе обсуждаются модели построения правового оформления отношений в сфере ИИ <1>. При этом не вызывает сомнений необходимость применения к ним дополнительного правового режима (в дополнение к традиционным нормам корпоративного или обязательственного права) <2>. Полагаем, наиболее вероятным сценарием будет создание общего правового режима для всех систем, построенных на базе ИИ, который будет определять их градацию по уровню автономности, принципы их применения, общие требования к безопасности и порядок ответственности. Ключевой идеей формирования правил поведения в сфере ИИ является направленность на сочетание обеспечения безопасности применения систем ИИ, создания компенсационного механизма в случае возникновения у участников оборота потерь в связи с этим и поощрения развития надежных систем ИИ. Ядром правового режима для всех систем и будут являться правила, направленные на минимизацию вышеназванных рисков.
--------------------------------
<1> См.: Юридическая концепция роботизации: монография / Н.В. Антонова, С.Б. Бальхаева, Ж.А. Гаунова и др.; отв. ред. Ю.А. Тихомиров, С.Б. Нанба. М.: Проспект, 2019.
<2> См.: L'intelligence artificielle et le droit. , 2017. ProQuest Ebook Central. URL: https://ebookcentral.proquest.com/lib/hselibrary-ebooks/detail.action?docID=5165039 (дата обращения: 1 ноября 2020 г.).

Как было уже рассмотрено выше, правовое значение будет иметь степень автономности системы ИИ. Применительно к беспилотным транспортным средствам Ассоциация автомобильных инженеров (SAE) выделяет пять уровней автономности <1>. Представляется, что подобная градация на категории систем ИИ будет необходима для любых сфер применения, а также независимо от того, действует система в овеществленной форме или нет. Подобный подход уже предлагают использовать для определенной градации технологии блокчейна <2>, то есть подтверждается правильность такого подхода.
--------------------------------
<1> SAE Standards News: J3016 automated-driving graphic update. URL: https://www.sae.org/news/2019/01/sae-updates-j3016-automated-driving-graphic (дата обращения: 1 сентября 2020 г.).
<2> См.: Wilkinson S. Six Levels of Contract Automation: Evolution to Digitalised Smart (and Legal) Contracts. SSRN 3748266-2020 (дата обращения: 1 октября 2020 г.).

Исследователями отмечается значимость правовых требований, обеспечивающих безопасность систем ИИ, разработки технических стандартов для их отдельных категорий. Важным требованием к системе ИИ является ее надежность. Согласно Этическим принципам для надежного искусственного интеллекта, разработанным и представленным Европейской комиссии 8 апреля 2019 г. (Ethics Guidelines for Trustworthy AT) <1>, надежность системы ИИ обеспечивается тремя компонентами, которые необходимы на протяжении всего жизненного цикла системы: 1) она должна быть законной, соответствующей всем применимым правовым актам; 2) она должна быть этичной, обеспечивая соблюдение этических принципов и ценностей; 3) она должна быть надежной как с технической, так и с социальной точки зрения, поскольку даже при наличии благих намерений системы ИИ могут причинить непреднамеренный вред.
--------------------------------
<1> URL: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (дата обращения: 10 августа 2020 г.).

При этом исследователи предлагают сосредоточиться на характерных и сложных проблемах, создаваемых именно узким, прикладным ИИ, поскольку в настоящее время правовые вопросы могут возникать не столько с регулированием суперинтеллектуальных систем как таковых, сколько с поддержкой применения ИИ в узких, четко определенных сферах <1>.
--------------------------------
<1> См.: Zysman J., Nitzberg M. Governing AI: Understanding the Limits, Possibility, and Risks of AI in an Era of Intelligent Tools and Systems, August 26, 2020. BRIE Working Paper No. 2020-5. URL: https://ssrn.com/abstract=3681088 or http://dx.doi.org/10.2139/ssm.3681088 (дата обращения: 12 ноября 2020 г.).

Кроме того, большое значение имеет формирование требований к качеству систем ИИ, используемых в корпоративном управлении, как совокупности условий, определяющих как качественные характеристики программного обеспечения, так и качество данных, используемых системой ИИ, в том числе для самообучения. Более того, проблемы, связанные с доступом к данным, а также с обеспечением режима конфиденциальности используемой информации, рассматриваются в качестве первостепенных <1>. В литературе отмечается, что данные, используемые системой ИИ, могут быть незаконными, дискриминационными, недостоверными, ненадежными или неполными. Чем больше данных обрабатывает система ИИ, тем выше риск того, что она может принимать необъективные, дискриминационные решения или нарушать режим конфиденциальности.
--------------------------------
<1> См.: Yanisky-Ravid Shlomit and Hallisey Sean, Equality and Privacy by Design: Ensuring Artificial Intelligence (AI) Is Properly Trained & Fed: A New Model of AI Data Transparency & Certification As Safe Harbor Procedures, November 5, 2018, URL: https://ssrn.com/abstract=3278490 or http://dx.doi.org/10.2139/ssrn.3278490 (дата обращения: 11 января 2021 г.).

Особое место в системе мер, направленных на минимизацию рисков, связанных с использованием систем ИИ, занимают вопросы, касающиеся ответственности в этой сфере. Это очень серьезный вопрос, требующий отдельного рассмотрения. В данном исследовании будут обозначены лишь его контуры.
При разработке норм об ответственности в сфере ИИ необходимо учитывать широкий круг субъектов, так или иначе вовлеченных в разработку и эксплуатацию системы ИИ. Речь идет о создателях ИИ, операторах и контролерах, собирающих и обрабатывающих данные, производителях устройств, правообладателях программного обеспечения, конечных пользователях <1>. С учетом трудности установления ответственного лица (или лиц) в литературе предлагается создание системы страхования в этой сфере, а также обсуждается возможность формирования специального фонда страхования (с обязательными отчислениями в него от владельцев систем ИИ) <2>. Представляется, что в зависимости от уровня автономности системы должны применяться разные правовые режимы порядка привлечения к ответственности и ее страхованию. Более того, применительно к цифровым корпорациям, например, регистрация самоуправляемой цифровой корпорации может быть поставлена в зависимость от наличия необходимого страхового покрытия <3>.
--------------------------------
<1> См.: Giuffrida I. Liability for AI Decision-Making: Some Legal and Ethical Considerations, 88: Fordham L, Rev, 439 (2019), URL: https://www.semanticscholar.org/paper/Liability-for-AI-Decision-Making%3A-Some-Legal-and-Giuffrida/7b0e4436bffa0a627e3efc33c1f2a3480d74a3 (дата обращения: 19 сентября 2020 г.).
<2> См.: Lior A., Insurability of Artificial Intelligence Algorithms and Robots - A Different Version of the Same Policy, URL: https://csrcl.huji.ac.il/blog/anat-lior-Insurability-AI#_ftn7 (дата обращения: 10 августа 2020 г.).
<3> См.: Armour J., and Eidenmueller Horst G.M. Self-Driving Corporations? August 25, 2019, Harvard Business Law Review, Forthcoming, European Corporate Governance Institute - Law, Working Paper No. 475/2019, Oxford Legal Studies Research, Paper No. 5/2020, URL: ssrn.com/abstract=3442447 (дата обращения: 2 ноября 2020 г.).

Во всех странах на различных уровнях активно обсуждается и вопрос о возможности признания правосубъектности ИИ <1>, в том числе с уголовно-правовых позиций <2>. Данный вопрос не является предметом настоящего исследования. Так или иначе в перспективе будет найден наиболее приемлемый способ вписать в действующую национальную правовую систему порядок использования систем ИИ в любой деятельности по мере накопления необходимого опыта. В настоящее время разработка самостоятельной правосубъектности систем ИИ представляется преждевременной.
--------------------------------
<1> См., например: Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). URL: https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html?redirect (дата обращения: 2 сентября 2020 г.); Themistoklis T., (2018). Artificial intelligence as global commons and the "international law supremacy" principle, Proceedings of the 10th International RAIS Conference on Social Sciences and Humanities organized by Research Association for Interdisciplinary Studies (RAIS) at The Erdman Center at Princeton University, Princeton, New Jersey, United States, Cambridge, MA: The Scientific Press, URL: https://www.researchgate.net/publication/338244302_Artificial_Intelligence_as_Global_Commons_and_the_International_Law_Supremacy_Principle (дата обращения: 22 декабря 2020 г.); Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: автореф. дис. ... д-ра юрид. наук. М., 2018; Ястребов О.А. Искусственный интеллект в правовом пространстве: концептуальные и теоретические подходы // Правосубъектность: общетеоретический, отраслевой и международно-правовой анализ: сборник материалов к XII Ежегодным научным чтениям памяти профессора С.Н. Братуся. М., 2017. С. 271 - 284; Степанов О.А. О проблеме правосубъектности роботизированных систем // Правосубъектность: общетеоретический, отраслевой и международно-правовой анализ: сборник материалов к XII Ежегодным научным чтениям памяти С.Н. Братуся. М., 2017. С. 284 - 294; Дремлюга Р.Ж., Дремлюга О.А. Искусственный интеллект - субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. N 2. С. 120 - 125.
<2> См.: Бегишев И.Р. Искусственный интеллект как правовая категория: доктринальный подход к разработке дефиниции / И.Р. Бегишев, Э.Ю. Латыпов, Д.В. Кирпичников // Актуальные проблемы экономики и права, 2020. N 1. С. 79 - 91.

Заключительные положения.
Изучение состояния вопроса, связанного с использованием систем ИИ в корпоративном управлении, через призму практических потребностей бизнеса, правового осмысления происходящих цифровых трансформаций показало, что намечается постепенное изменение сути правового регулирования. Правовые правила будут формироваться с учетом не непосредственно человеческих действий как результата следования этим правилам, а результата алгоритмических операций. Требования к этому результату должны будут выполнять все субъекты, которые будут создавать или использовать систему ИИ. Другими словами, будет совершаться переход от регулирования действий к регулированию алгоритмических систем.
Главным направлением использования систем ИИ в сфере корпоративного управления является деятельность, связанная с принятием решений. При этом правовое значение будет иметь, являются ли эти решения юридически значимыми или нет.
Корпоративное право и законодательство постепенно начнут учитывать, что субъекты корпоративных отношений (признаваемые в настоящее время таковыми) могут не только самостоятельно осуществлять свою деятельность, свои полномочия, права и обязанности, но и применять системы, позволяющие автоматизировать полностью или частично эту деятельность, полностью делегировать автономным системам действовать от их имени. Моделируя будущие сценарии развития общества, исследователи приходят к выводу, что развитие ИИ окажет сильное влияние на корпоративное управление и корпоративное право в предстоящие годы и десятилетия, при этом становясь научно и практически значимым. Уже реализуемые и предполагаемые направления использования систем ИИ можно обозначить по двум траекториям: применение "узкого" ИИ для автоматизации отдельных процессов, в том числе для принятия решений, и появление "автономного" ИИ, а с ним и автономных, самоуправляемых корпораций.
Принципиальное значение будет иметь тот факт, что традиционный конфликт интересов в корпорациях, с одной стороны, может быть оптимизирован с помощью алгоритмов, с другой - наполнится другим содержанием в части определения круга заинтересованных лиц в автономных цифровых корпорациях.
Основные риски использования систем ИИ носят общий, межотраслевой характер. В связи с этим предполагается, что поскольку использование системы ИИ может повлечь риски в случаях, когда ее автономные действия предполагают вероятность выхода за рамки того, что можно разумно ожидать, то есть риски принятия решений, которые изначально не предполагались разработчиками или пользователями ИИ, можно спрогнозировать, что потребуются специальные меры минимизации таких рисков путем применения обязательного страхования ответственности в высокорискованных сферах и для систем высокого уровня автономности, а также создания компенсационных фондов для покрытия убытков, которые могут оказаться незастрахованными. Важно также учитывать то, что чем меньше человеческого контроля будет в конкретном случае делегирования системам ИИ осуществления деятельности, тем более жесткие требования должны предъявляться к тестированию и системному регулированию технологий ИИ.

 Скачать
Поиск:
Реклама:
Счетчики:
На правах рекламы:
Copyright 2007 - 2022 гг. Комментарии.ORG. All rights reserved.
При использовании материалов сайта активная гипер ссылка  обязательна!