Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

O'qishni davom ettirish uchun tizimga kiring. Bu tez va bepul.

Roʻyxatdan oʻtish orqali men foydalanish shartlari 

Tavsiya etilgan maqolalar

«Нельзя быть безразличным к своей профессии» «Нельзя быть безразличным к своей профессии»

Энолог винодельни «СоберБаш» о важности рейтингов и выборе профессии

РБК
Отпуск по обмену Отпуск по обмену

Восстановление дома 1485 года постройки

AD
Вместе с семьёй Вместе с семьёй

Этот дом можно назвать воплощением мечты любого горожанина

Идеи Вашего Дома
Путешествие в Рождество Путешествие в Рождество

Подмосковный дом, которому позавидовал бы и сам Дед Мороз

AD
Несколько страниц из жизни… пня Несколько страниц из жизни… пня

Пень многолик. Присмотримся к нему повнимательнее

Наука и жизнь
Бизнес в особом режиме Бизнес в особом режиме

Московская область — один из благоприятных регионов для развития формата ОЭЗ

РБК
Вот так встреча Вот так встреча

Долгие новогодние каникулы дают шанс поупражняться в искусстве принимать гостей

AD
Новое изобретение для телефона Новое изобретение для телефона

С момента изобретения телефона техника для связи успела сильно измениться

Наука и жизнь
Девичьи грезы Девичьи грезы

Хозяйка этой квартиры мечтала воссоздать обстановку своего детства

AD
Медленное чтение: семь книг о художественной жизни начала XX века Медленное чтение: семь книг о художественной жизни начала XX века

Семь книг о художественной жизни начала XX века

Seasons of life
«Ждем, когда 5G станет реальностью, а не только поводом для хайпа» «Ждем, когда 5G станет реальностью, а не только поводом для хайпа»

Александр Чуб — о том, как в России развивается инфраструктура для сотовой связи

РБК
Сказки на ночь: 19 книг, которые помогут ребенку уснуть Сказки на ночь: 19 книг, которые помогут ребенку уснуть

Любимые книги, которые стоит читать перед сном

Seasons of life
В свете полной луны… В свете полной луны…

...происходят странные вещи с поведением животных

Вокруг света
Приключения Электроника Приключения Электроника

Фабрика «цифровых сотрудников» позволяет людям не чувствовать себя роботами

Forbes
Из России с дизайном Из России с дизайном

Российские дизайнеры рассказывают, как им удалось открыть “окно в Европу”

AD
Вокруг да около Лувра Вокруг да около Лувра

Все, что вы хотели бы узнать о самом знаменитом музее мира, под одним переплетом

Forbes
Семь фильмов, которые помогут в поисках себя Семь фильмов, которые помогут в поисках себя

Как решиться сделать шаг в новом направлении или найти силы вернуться к себе?

Seasons of life
На одной ноте На одной ноте

Что помогло Майклу Джексону 5 раз получить премию «Грэмми»

Вокруг света
«Положительные эмоции клиента — самое ценное в премиальном сегменте» «Положительные эмоции клиента — самое ценное в премиальном сегменте»

Какие банковские продукты и решения предпочитают премиальные клиенты банков?

РБК
Кто в тереме живет? Кто в тереме живет?

Жостовские шкатулки и русские терема подсказали дизайнерам интерьер квартиры

AD
Заповедники: «Умный дом» для природы Заповедники: «Умный дом» для природы

Уйдут ли заповедники в прошлое или, наоборот, станут более востребованными?

Наука и жизнь
Франчайзи отвечают сиюминутным запросам потребителей Франчайзи отвечают сиюминутным запросам потребителей

Пандемия стала драйвером роста для отдельных сегментов рынка франчайзинга

РБК
«Эндаумент — это не про деньги, а про возможность одних людей помогать другим» «Эндаумент — это не про деньги, а про возможность одних людей помогать другим»

Как российские эндаументы зарабатывают на добрые дела и что им мешает это делать

РБК
Трагическое наследство Трагическое наследство

Как Катерина Босов оказалась втянутой в борьбу за активы мужа

Forbes
Безотходная пшеница для космического огорода Безотходная пшеница для космического огорода

Как работают биолого-технические замкнутые системы жизнеобеспечения человека

Наука и жизнь
В области балета В области балета

Сергей Дягилев — феномен русского балета и создатель легендарных русских сезонов

Вокруг света
«Здоровое питание человека начинается со здорового питания животных» «Здоровое питание человека начинается со здорового питания животных»

Иоганн-Каспар Гаммелин — о новых технологиях, которые повышают экологичность

РБК
Ветви одного дерева Ветви одного дерева

Этот герой родился в джунглях, работает в Джакарте и рассказывает о об асматах

Вокруг света
Престо, модерато, адажио Престо, модерато, адажио

Фантастическая повесть Игоря Вереснева

Наука и жизнь
Сыр, пир и мир в медицинской маске Сыр, пир и мир в медицинской маске

Почему гостей истринского сырного фестиваля пугали цены на вино

Forbes
Открыть в приложении