Все о доверии

Время на чтение: Несколько минут
Опубликован на
Поделиться , ,

Искусственный интеллект (ИИ) может помочь прогрессу во всем, начиная с медицины и заканчивая спасением планеты, но по мере того, как технология становится все более сложной, возникают вопросы доверия. Ужесточение мер регулирования помогло восстановить данное доверие, но еще имеются неизученные области. Каким образом мы можем гарантировать, что ИИ заслуживает доверия, не препятствуя развитию прогресса?

 

 

Close up view of 52 Facebook notifications on a smart phone.

Использование наших персональных данных без разрешения для рассылки спама с продукцией – это одно, но совсем другое, когда они используются в попытке манипулировать политикой. Данная ситуация была лучше всего продемонстрирована в деле с Cambridge Analytica affair, где были собраны миллионы профилей избирателей США в Facebook, чтобы смоделировать систему, которая могла бы привлечь таких избирателей к рекламной кампании. Опасность этого была признана американским регулирующим органом, который оштрафовал Facebook на 5 миллиардов долларов, но доверие к тому, как организации используют наши данные, было, мягко говоря, подорвано. Скандал также подверг опасности неграмотно используемый искусственный интеллект.

Но ИИ у нас для того, чтобы остаться навсегда. При хорошем использовании он может помочь улучшить нашу жизнь и решить некоторые проблемы в мире. Такой подход позволяет людям и машинам работать совместно, с потенциалом для расширения возможностей людей и технологий за пределами того, что мы даже себе не можем представить. Для организаций это может означать, в частности, повышение производительности, снижение затрат, быстрый выход на рынок и улучшение отношений с клиентами. Данные факты отражены в опросе Forbes Insights под названием «по местам»: бизнеслидеры готовятся к гонке вооружений в области искусственного интеллекта, который показал, что 99% руководителей на технических должностях заявили, что их организации собираются увеличить расходы на ИИ в следующем году.

Технология развивается молниеносно, поднимая столько же вопросов о безопасности и надежности, сколько о преимуществах, которые она обещает предоставить. Если речь идет о том, чтобы превзойти людей в принятии решений и оценок, таких как прогнозирование вспышек заболеваний или управление поездами, как мы можем быть уверены, что все контролируем?

Верим ли мы в ИИ?

Ведущие отраслевые эксперты считают, что обеспечение надежности с самого начала является одним из важнейших аспектов широкого внедрения этой технологии. В связи с этим ИСО и Международная электротехническая комиссия (МЭК) учредили совместный технический комитет ИСО/МЭК СТК 1, Информационные технологии, подкомитет ПК 42, Искусственный интеллект, который будет служить координационным центром по стандартизации ИИ. В рамках своих многочисленных мандатов группа экспертов изучает различные подходы к установлению доверия к системам ИИ.

Руководитель рабочей группы по надежности в рамках ПК 42 д-р Дэвид Филип, научный сотрудник Центра адаптации в Тринитиколледже Дублина, динамичного исследовательского института цифровых технологий, резюмирует: «Когда программное обеспечение начало «пожирать мир», надежность программного обеспечения начала выходить на передний план. Теперь, когда ИИ охватывает функции программного обеспечения, нет ничего удивительного в том, что ИИ можно будет доверять.

«Однако, – анализирует он, – у меня сложилось впечатление, что люди опасаются ИИ по неправильным причинам. Они боятся Судного дня, вызванного искусственным образом… Гораздо большая проблема, я ощущаю, заключается в том, что отсутствие прозрачности позволит системе глубинного обучения принять решение, которое должен проверять человек, но это не так».

Естественно, уровень вреда зависит от того, как будет использоваться ИИ. Отсутствие соответствующего инструмента, который рекомендует пользователям музыку или рестораны, очевидно, причинит меньше вреда, чем алгоритм, который помогает диагностировать рак. Существует также опасность использования данных для манипулирования результатами, как, например, в случае с Cambridge Analytica.

Угрозы для кредитоспособности

Fully automatic bottling plant in operation.

По данным Организации экономического сотрудничества и развития (ОЭСР), являющейся совместным международным правительственным органом, занимающимся вопросами содействия экономическому прогрессу и мировой торговле, ожидается, что неправомерное использование искусственного интеллекта будет возрастать, поскольку оно становится менее дорогим и более доступным[1]. Вредоносное использование, утечка личных данных и кибербезопасность являются ключевыми угрозами нашей надежности.

Самоходные автомобили, например, которые участвуют в авариях, могут быть взломаны, и информация, связанная с ответственностью, искажена. Система, которая собирает данные о пациентах и использует их для рекомендации лечения или постановки диагноза, может пострадать от ошибок, в том числе от ошибок, которые могут привести к катастрофическим последствиям.

К другим рискам относятся последствия искажения данных или алгоритмов – явлений, возникающих, когда алгоритм дает результаты, которые систематически компрометируются из-за ошибок в процессе машинного обучения. Под влиянием расистского, предвзятого или иного субъективного поведения такая ситуация может оказать глубокое влияние на все, начиная с того, что Вы видите в своих социальных сетях, до профилей преступников в политических системах или обработки иммиграционных требований.

Системы ИИ, требующие доступа к личной информации, также создают риски для конфиденциальности. В здравоохранении, например, ИИ может помочь в продвижении новых методов лечения путем использования данных пациентов и медицинских записей определенными способами. Но это создает возможность для неправильного использования данных. Законы о конфиденциальности снижают этот риск, но также ограничивают развитие технологий. Очевидно, что если системы ИИ являются надежными, безопасными и транспарентными, то вероятность этого события исключается, и их потенциал может быть раскрыт в полной мере, чтобы мы могли в полной мере пользоваться выгодами.

Какие задачи решаются?

Woman holding her smartphone and printing on a 3D printer.

Отрасль прекрасно осознает необходимость обеспечения надежности, и многие соответствующие технологии были разработаны и постоянно развиваются, такие как дифференциальная конфиденциальность, которая вносит фактор случайности в агрегирование данных, чтобы снизить риск повторной идентификации и сохранить вклад отдельных пользователей. Другие примеры включают в себя криптографические инструменты, такие как гомоморфное шифрование и многосторонние вычисления, которые позволяют алгоритмам машинного обучения анализировать данные, которые все еще зашифрованы и, следовательно, безопасны, или использование проверенных инструментов, которые являются технологией защиты и проверки выполнения законного программного обеспечения.

Европейский союз (ЕС) сформировал группу экспертов высокого уровня по искусственному интеллекту (AI HLEG) для поддержания реализации европейской стратегии по искусственному интеллекту, которая включает этические, правовые и социальные аспекты. Ранее, в этом году, эта группа опубликовала «Рекомендации по политике и инвестициям в области искусственного интеллекта, заслуживающего доверие», в которых изложено видение группы в отношении нормативно-правовой и финансовой основ для надежной ИИ.

В международном масштабе партнерство в области ИИ в интересах общества направлено на продвижение общественного понимания ИИ и создание передовой практики для будущих технологий. Объединяя различные глобальные мнения, взаимодействие в рамках партнерства направлено на рассмотрение таких областей, как справедливость и инклюзивность, объяснение и прозрачность, безопасность и конфиденциальность, ценности и этика, сотрудничество между людьми и системами ИИ, совместимость систем, и их надежности, сдерживания, безопасности с надежностью технологии, тем самым обеспечивая возможности поддержки для исследователей ИИ и других ключевых заинтересованных сторон.

«Мы являемся соучредителем партнерства по ИИ, – отмечает Оливье Колас (Olivier Colas), старший директор по международным стандартам Microsoft, который также занимает активную роль в ПК 42, – и мы также учредили отраслевые партнерские отношения с Amazon и Facebook, чтобы сделать ИИ более доступным для всех». Он утверждает, что по мере того, как системы ИИ становятся все более распространенными, мы, как сообщество, несем общую ответственность за создание надежных систем ИИ и должны работать вместе, чтобы достичь консенсуса, решить, какие принципы и ценности должны руководить развитием и использованием ИИ. Инженерная практика, которая может быть кодифицирована в международных стандартах, должна поддерживать эти принципы и ценности. По его словам, Microsoft создала внутренний консультативный комитет, чтобы помочь обеспечить соответствие своих продуктов этим принципам и принимать участие в отраслевых дискуссиях по международной стандартизации.

Влияние стандартов

Engineer works a robotic arm from a tablet.

Итак, стандарты являются ключевым фактором. Д-р Филип объясняет почему: «Мы никогда не можем гарантировать доверие пользователей, но с помощью стандартизации мы можем проанализировать все аспекты надежности, такие как прозрачность, надежность, устойчивость, конфиденциальность, безопасность и т.д., и рекомендовать лучшие практики, которые заставляют системы ИИ функционировать надлежащим и выгодным образом».

Стандарты помогают налаживать партнерские отношения между промышленными кругами и директивными органами, содействуя формированию единого языка и решений, которые разрешают как вопросы конфиденциальности нормативных правовых актов, так и вопросы, касающиеся технологий, необходимые для их поддержания, без сдерживания инноваций. Г-н Колас считает, что стандарты будут играть важную роль в передовой практике разработки. Они также будут дополнять новые стратегии, законы и нормативные акты, касающиеся ИИ.

«Международные стандарты успешно использовались для кодификации оценки рисков и управления рисками на протяжении десятилетий. Серия стандартов ISO/IEC 27000 по управлению информационной безопасностью является отличным примером такого подхода к кибербезопасности и конфиденциальности. Стандарты помогают организациям управлять безопасностью своих активов, таких как финансовая информация, доверенная третьими лицами. Более того, ИИ – это сложная технология, – отмечает Колас. – Стандарты для ИИ должны предусматривать инструменты прозрачности и общего языка, тогда они смогут определять риски и способы их управления».

Время пришло

Rear view of humanoid robot with screen on torso displaying directions to ice cream.

Рабочая программа ИСО/МЭК СТК 1/ПК 42 включает несколько тем ИИ, многие из которых в настоящее время разрабатываются в рабочей группе РГ 3 «Надежность». Проекты включают ряд нормативных документов, непосредственно направленных на то, чтобы помочь заинтересованным сторонам в отрасли искусственного интеллекта укрепить доверие к своим системам. Одним из примеров является будущий технический отчет ISO/IEC TR 24028, Информационные технологии. Искусственный интеллект. Обзор вычислительных методов для ИИ-систем, в котором рассматриваются факторы, которые могут способствовать подрыву доверия к системам ИИ, и подробно описываются возможные пути их улучшения. Документ учитывает интересы всех заинтересованных лиц и определяет уязвимости ИИ, такие как угрозы безопасности, конфиденциальности, непредсказуемость, систематические отказы системы и многое другое.

ПК 42 применяет горизонтальный подход, тесно сотрудничая как можно с большим числом людей в промышленности, правительстве и соответствующих технических комитетах, с тем чтобы опираться на то, что уже существует, а не дублировать. Например, ИСО/ТК 262, Управление рисками, разработал стандарт ISO 31000 по оценке рисков, который служит основой для разработки ISO/IEC 23894, Информационные технологии. Искусственный интеллект. Менеджмент риска. Новые руководящие принципы помогут организациям лучше оценивать типичные риски и угрозы для систем ИИ и эффективно интегрировать управление рисками для ИИ в свои процессы.

Данный стандарт будет включать другие важные технические отчеты по оценке надежности нейронных сетей (ISO/IEC TR 24029-1) и смещения в системах искусственного интеллекта (ISO/IEC TR 24027). Все это будет дополнять будущий стандарт ISO/IEC TR 24368, предназначенный для решения этических и социальных проблем, возникающих в связи с ИИ (см. статью «Этизировать или неэтизировать…»).

Рассмотрение вопроса о надежности стандартизации в ближайшее время имеет важное значение для обеспечения успешной роли искусственного интеллекта в обществе. «Людям нужно доверие, чтобы выжить во всех смыслах, – отмечает доктор Филип. – Что включает в себя доверие к технологиям и инфраструктуре? Чтобы они были безопасными и надежными. Мы полагаемся на наших политиков, которые могут ввести законы и системы, которые будут защищать нас, и мы полагаемся на людей вокруг нас, чтобы функционировать с ними повседневно. Теперь мы должны иметь возможность доверять программному обеспечению и цифровым технологиям во всех его формах. Стандарты открывают возможности для достижения данной цели».

  1. ОЭСР, Искусственный интеллект в обществе. Париж: Публикация ОЭСР, 2019
Default ISOfocus
Elizabeth Gasiorowski-Denis
Editor-in-Chief of ISOfocus