Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Коробка без рака Коробка без рака

Стартап молодого ученого из Москвы получил гранты на диагностику онкологии

Forbes
Заха Хадид. Гостья из будущего Заха Хадид. Гостья из будущего

«Любой ее проект — невиданная новость, и каждый — отважнее предыдущего»

Караван историй
Мировой уровень Мировой уровень

Пять глобальных предпринимателей из России, известных далеко за пределами Рунета

Forbes
Все о звездах сериала «Ход королевы»: личная жизнь и истории успеха Все о звездах сериала «Ход королевы»: личная жизнь и истории успеха

Чем известен блестящий состав мини-сериала «Ход королевы»

Cosmopolitan
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
Периодическую часть спектра быстрого радиовсплеска объяснили дифракционным линзированием Периодическую часть спектра быстрого радиовсплеска объяснили дифракционным линзированием

В роли линзы могло выступать облако плазмы или небольшой массивный объект

N+1
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
Дизайнер костюмов сериала «Корона» о том, как создавались образы королевской семьи Дизайнер костюмов сериала «Корона» о том, как создавались образы королевской семьи

Художник по костюмам Эми Робертс — почему иногда хочется послать все к черту

GQ
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Игра протоколов Игра протоколов

Татьяна Алешичева о трех главных женщинах Британии 1980-х

Weekend
Социальный заказ Социальный заказ

Две студентки МИФИ превратили увлечение волонтерством в ESG-агентство You Social

Forbes
Мирный атомный взрыв и еще 6 сногсшибательных пейзажей! Мирный атомный взрыв и еще 6 сногсшибательных пейзажей!

7 фотографий, которые заставят тебя зауважать природу и попросить у нее автограф

Maxim
Сахаров: портрет на фоне эпохи Сахаров: портрет на фоне эпохи

Что заставило академика Сахарова вступить в противостояние с политбюро и КГБ?

Дилетант
«Государственная машина учит мыслить правильно»: выходит в прокат фильм-лауреат Венеции «Дорогие товарищи!» Кончаловского «Государственная машина учит мыслить правильно»: выходит в прокат фильм-лауреат Венеции «Дорогие товарищи!» Кончаловского

«Дорогие товарищи!» — актуальная история о протестах в Новочеркасске в 1962

Forbes
Заклятие «Массандры» Заклятие «Массандры»

Хозяйству на Южном берегу Крыма нужна новая идеология развития

Forbes
Второй пол Второй пол

Феминистская классика о том, как из женщины сделали «другой» пол

kiozk originals
Чем болели президенты США (втайне от простых американцев) Чем болели президенты США (втайне от простых американцев)

Кто основал среди американских лидеров традицию болеть

Maxim
Верблюжий полк, голуби-камикадзе и еще 5 экспериментов военных США Верблюжий полк, голуби-камикадзе и еще 5 экспериментов военных США

Если вы думаете, что у военных туговато с фантазией, то вы сильно заблуждаетесь

Популярная механика
Отрывок из книги Патриции Черчленд «Совесть. Происхождение нравственной интуиции» Отрывок из книги Патриции Черчленд «Совесть. Происхождение нравственной интуиции»

Глава из книги Патриции Черчленд, посвященная равновесию в суждениях

СНОБ
Сезон спокойствия Сезон спокойствия

Какие стрессовые факторы действуют на вас сильнее всего?

Домашний Очаг
Кто инициировал путь «из варяг в греки»? Кто инициировал путь «из варяг в греки»?

Путь «из варяг в греки» стал главным для формирования древнерусского государства

Культура.РФ
15 мыслей Михаила Пиотровского 15 мыслей Михаила Пиотровского

Как Михаил Пиотровский, вопреки всем правилам, уберег от жертв великую красоту

GQ
12 неловких вопросов про инвалидность 12 неловких вопросов про инвалидность

Правильно ли говорить «человек с инвалидностью» и зачем слепым ходить в музей?

СНОБ
Юозас Будрайтис. Одинокий ковбой Юозас Будрайтис. Одинокий ковбой

«Тебя можно обвинить в бродяжничестве», — говорили мне в советские времена

Караван историй
Рассеянный склероз: причины, симптомы и лечение Рассеянный склероз: причины, симптомы и лечение

Разбираемся, что такое рассеянный склероз и можно ли его вылечить

РБК
23 классические шутки Марка Твена 23 классические шутки Марка Твена

Вспоминаем великие цитаты Марка Твена

Maxim
Функциональный спектрометр-шапочку впервые испытали на шестимесячных младенцах Функциональный спектрометр-шапочку впервые испытали на шестимесячных младенцах

Британские исследователи впервые испытали LUMO на шестимесячных младенцах

N+1
Руки дошли: как будут выглядеть новейшие протезы и можно ли управлять ими силой мысли Руки дошли: как будут выглядеть новейшие протезы и можно ли управлять ими силой мысли

Когда потеря руки или ноги не конец привычной жизни, а начало новой

Esquire
Как погибший в Сочи Игорь Коропов создал одну из самых крупных компаний на рынке онлайн-образования России Как погибший в Сочи Игорь Коропов создал одну из самых крупных компаний на рынке онлайн-образования России

Кем был Игорь Коропов и как он развивал Skillbox

Forbes
Нонконформист, космополит, мечтатель: вспоминаем творчество Бернардо Бертолуччи Нонконформист, космополит, мечтатель: вспоминаем творчество Бернардо Бертолуччи

Вспоминаем самые важные фильмы и сюжеты Бернардо Бертолуччи

Esquire
Открыть в приложении