РАЭК и Microsoft изучили возможные подходы к разработке этичных решений в области искусственного интеллекта
www.samag.ru
     
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
Журнал "Системный администратор"
Журнал «БИТ»
Наука и технологии
Подписка
Где купить
Авторам
Рекламодателям
Архив номеров
Контакты
   

  Опросы
  Статьи

Учебные центры  

Карьерные мечты нужно воплощать! А мы поможем

Школа Bell Integrator открывает свои двери для всех, кто хочет освоить перспективную

 Читать далее...

Гость номера  

Дмитрий Галов: «Нельзя сказать, что люди становятся доверчивее, скорее эволюционирует ландшафт киберугроз»

Использование мобильных устройств растет. А вместе с ними быстро растет количество мобильных

 Читать далее...

Прошу слова  

Твердая рука в бархатной перчатке: принципы soft skills

Лауреат Нобелевской премии, специалист по рынку труда, профессор Лондонской школы экономики Кристофер

 Читать далее...

Как хорошо вы это знаете  

Портал Инкоманд. Для чего он? Для кого? Какие проблемы решает?

Компания «ЕМДЕВ» – создатель интернет-портала, предлагает всем желающим протестировать себя на

 Читать далее...

1001 и 1 книга  
19.03.2018г.
Просмотров: 10102
Комментарии: 0
Потоковая обработка данных

 Читать далее...

19.03.2018г.
Просмотров: 8311
Комментарии: 0
Релевантный поиск с использованием Elasticsearch и Solr

 Читать далее...

19.03.2018г.
Просмотров: 8407
Комментарии: 0
Конкурентное программирование на SCALA

 Читать далее...

19.03.2018г.
Просмотров: 5343
Комментарии: 0
Машинное обучение с использованием библиотеки Н2О

 Читать далее...

12.03.2018г.
Просмотров: 6030
Комментарии: 0
Особенности киберпреступлений в России: инструменты нападения и защита информации

 Читать далее...

Друзья сайта  

 РАЭК и Microsoft изучили возможные подходы к разработке этичных решений в области искусственного интеллекта

Просмотров: 3894

Использование технологий искусственного интеллекта (далее - ИИ) постепенно переходит из плоскости футурологии в плоскость повседневности. Положительные эффекты от применения ИИ уже сегодня подкреплены множественными практическими примерами. Эксперты и аналитики говорят о позитивном влиянии ИИ на рост стоимости бизнеса и отмечают общественную значимость использования ИИ для решения национальных задач. В IDC ожидают, что по итогам 2021 года объем глобального рынка ИИ, включая ПО, устройства и сервисы, достигнет $341,8 млрд, увеличившись на 15,2% по сравнению с 2020 годом, а к 2024 году преодолеет отметку в $500 млрд

Чем больше задач делегируется алгоритмам, тем более остро встают вопросы безопасности и ответственного применения систем ИИ. Ответом на вызовы, связанные с использованием ИИ, становятся различные рекомендации, принципы, стандарты и технологические решения, которые призваны снизить уровень существующих рисков и обеспечить эффективную, надежную и безопасную работу алгоритмов.

Проблематике этики ИИ посвящено достаточно большое число работ ведущих экспертов и исследовательских агентств. Например, в базе данных инициативы AlgorithmWatch содержится более 160 документов, описывающих различные подходы к изложению принципов разработки автоматизированных систем принятия решений с соблюдением этических норм. Вместе с тем только 10 из них предлагают практические механизмы реализации данных принципов. Как следствие, большинство этих документов едва ли способно оказать реальное влияние на снижение степени риска. 

В своем исследовании подходов к разработке этичных решений в области ИИ РАЭК и Microsoft сконцентрировали внимание на практических решениях и инструментах, которые могут помочь разработчикам в создании доверенного ИИ (“trustworthy AI”).

Чтобы считаться этичными, системы ИИ должны соответствовать ряду условий. На основе экспертных исследований и обсуждений на различных международных площадках появился определенный контур общих подходов к вопросам этики в области ИИ. Чаще всего такой контур или подходы формализуются в рамках общих принципов или рекомендаций относительно развития ИИ, к которым относятся прозрачность, непредвзятость, подотчетность, приоритет интересов человека и контроль с его стороны, ответственность разработчиков, пользователей и других заинтересованных лиц. Соблюдение данных рекомендаций в совокупности с выполнением требований действующего законодательства и следованием существующим стандартам лежат в основе создания доверенного ИИ.

 

Разработка доверенного ИИ включает в себя применение совокупности принципов, практик и инструментов, которые помогают разработчикам минимизировать риски возникновения негативных последствий использования систем ИИ и создавать этичные, безопасные, прозрачные и подотчетные технологические решения. Применение различных требований и принципов к системам ИИ основывается на риск-ориентированном подходе, при котором к системам с высоким уровнем риска предъявляются повышенные требования. Необходимо отметить, что риск возникновения негативных последствий едва ли возможно устранить полностью, поэтому необходим комплексный подход к выявлению, изучению, измерению, управлению рисками и их минимизации.

 

Начало обсуждения вопросов создания доверенного ИИ является следствием осознания рисков, связанных с использованием технологий ИИ, включая риски дискриминации, необъективности, предвзятости, угрозы конфиденциальности и возникновения ошибок. Выделяется несколько уровней, на которых могут возникнуть ошибки, приводящие к несправедливым, неверным или дискриминирующим результатам работы систем ИИ:

 

  • уровень разработки;
  • уровень обучения алгоритмов;
  • уровень данных для работы алгоритмов;
  • уровень внедрения.

На каждом из этих уровней существуют собственные источники неверных, несправедливых или предвзятых решений. При распространении систем ИИ данные источники могут оказать существенное влияние на сохранение дискриминации и предрассудков, существующих в обществе, а также иметь существенные негативные последствия для лиц, в отношении которых данные системы были использованы.  Поэтому инициативы по снижению рисков принятия таких решений играют важную роль для безопасного и ответственного развития технологий.

Такие инициативы особенно важны сейчас, когда национальное регулирование, направленное на построение этичных систем ИИ, и технологические стандарты в этой сфере пока еще находятся в стадии формирования. 

Одной из таких инициатив является Национальный кодекс этики в сфере искусственного интеллекта, принятый 26 октября 2021 года в России. Собственные рекомендации, принципы и своды правил, добровольное соблюдение которых способствует разработке доверенного ИИ и его ответственному использованию, сегодня разрабатывают все страны, претендующие на лидерство в сфере ИИ. В условиях отсутствия нормативного регулирования подобные документы являются важными инструментами, определяющими рамки разработки и использования ИИ и позволяющими снизить риск возникновения негативных последствий для людей и общества. В этой связи, Национальный кодекс этики в сфере искусственного интеллекта является своевременной и необходимой инициативой, которая, безусловно, окажет стимулирующее воздействие на развитие ИИ-технологий в стране. 

Кодекс включил в себя как общие принципы создания этичного ИИ и его ответственного использования, так и “точечные” рекомендации, направленные на различных участников жизненного цикла систем ИИ. Механизмы реализации Кодекса включают в себя такие актуальные и международно признанные инструменты, как риск-ориентированный подход и создание свода наилучших практик решения возникающих этических вопросов в жизненном цикле ИИ. Несмотря на то, что Кодекс и подобные ему документы не имеют юридической силы, они, тем не менее, могут использоваться как ориентиры на пути к доверенному ИИ.

Изучить подробнее: https://raec.ru/activity/analytics/12732/ 

Актуальность и необходимость создания этического Кодекса для искусственного интеллекта подтверждает запущенные в последние два года инициативы, демонстрирующие заинтересованность в развитии данной отрасли со стороны государства. В частности, утверждена Национальная стратегия развития искусственного интеллекта (2019), запущен федеральный проект “Искусственный интеллект” (2020), большой частью которого является серия хакатонов и лекций по ИИ (2021).

 

 

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-41
Fax: (499) 277-12-45
E-mail: sa@samag.ru