Ответственность программистов

Зачем искусственному интеллекту этика?

Почему нужен диалог между гуманитариями и инженерами, разработчиками искусственного интеллекта, и к каким бонусам приведет создание по-настоящему этичных машин?

Текст: Павел Готовцев, к.т.н., НИЦ «Курчатовский институт»

Словосочетание «искусственный интеллект» звучит сегодня во множестве разных контекстов. Его используют как для кинематографических рассказов про фантастические сверхразумные машины, так и в процессе маркетингового продвижения «умных» приложений для обычных смартфонов. Хотя, если настаивать на корректности технического описания, некоторые из таких приложений подпадают скорее под термин «интеллектуальные и автономные системы» (ИИ/АС). Именно такая терминология используется применительно к многочисленным «умным» системам, которые так активно входят в нашу жизнь в последние годы.

Основной особенностью этих систем оказывается их способность автономно принимать решения, опираясь на имеющиеся данные. Такой системой может быть, например, автопилот автомобиля, который определяет, как, с какой скоростью и по какому маршруту ехать. То же можно сказать о программах, анализирующих наше поведение в интернете и замеряющих активность в социальных сетях, поисковые запросы, местоположение по комментариям под фотографиями и т.д. По мере обработки данных программы предлагают пользователям оптимальные решения под ту или иную задачу. И, хотя эти предложения носят консультативный характер, в силу их заведомой «рациональности» людям удобно им следовать. В итоге мы сталкиваемся с ситуацией, когда машины принимают решения, которые непосредственно влияют на нашу жизнь. И по мере дальнейшего развития технологий мы вправе ожидать, что областей применения таких «умных» машин будет становится все больше. Более того, сегодня наиболее ценные и интересные результаты во многих научных областях (от геномных исследований до интернета вещей) получаются как раз там, где имеет место анализ больших данных. И понятно, что такого рода аналитика невозможна без помощи машин: человек не может обрабатывать такой объем информации, а машина — вполне.

Направления поиска

Чарльз Уильямс. «Оживший инвентарь». Ок. 1811

The Metropolitan Museum of Art

Значит, те, кто говорят о новых особенностях взаимодействия машин и людей, более чем правы. Только нужно помнить, что речь идет не о соседстве человека и сверхразумного искусственного интеллекта (о чем так любят рассуждать современные философы-футурологи), а о существовании достаточно ограниченных по своим возможностям программных продуктов, способных очень хорошо решать лишь одну определенную задачу. Их многозадачность конечна, они не способны, скажем, одновременно управлять автомобилем и анализировать медицинские данные для постановки корректного диагноза. И, конечно же, уступают в многозадачности человеку.

Пока особенности взаимодействия человека и машины обсуждаются в контексте определенных, самых репрезентативных кейсов. Вот некоторые из них:

• Автономное транспортное средство везет пассажиров. Водителя нет, роль «таксиста» выполняет ИИ/АС. На дороге встретилась авария, есть пострадавшие, а машины скорой помощи еще нет. Что делать в этой ситуации пилоту-автомату? Объехать место аварии, остановиться и дать возможность пассажирам убедиться, что скорая в пути? А если среди пассажиров врач, который может помочь?

• Домашний робот осуществляет простейшую уборку пола. Для совершенствования своего обучаемого программного обеспечения он передает все данные компании-разработчику. Получается, что этот незаметный домашний робот, по сути, транслирует данные о частной жизни своих владельцев организации, которая никак не обязана и не способна заботиться об их сохранности.

• Программа, анализирующая поведение пользователя в сети, может получить о пользователе те данные, которые он предпочел бы скрыть.

Кроме того, возникают многочисленные вопросы о том, как выстраивание диалога с программой-советчиком формирует степень доверия к ИИ/АС.

Разработка «этичного» ИИ это создание моста между машинным искусственным состоянием и человеческим естественным

По мере увеличения количества подобных кейсов возникает такое направление исследований, как этика ИИ/АС. Надо сказать, что разработки в этой области привели к появлению ряда инициатив. Среди них особенно следует выделить глобальную инициативу Института инженеров в области электротехники и электроники (Institute of Electrical and Electronics Engineers — IEEE), в рамках которой начата работа по созданию нормативно-технических документов, способных заложить основы этических паттернов «поведения» систем с ИИ/АС. Первым шагом в этой работе выступает формирование рекомендаций, призванных направить внимание инженеров ИИ/АС на проблему этически обоснованных решений при разработке и применении систем ИИ/АС. Эти рекомендации распространяются как на ситуацию, в которой система с ИИ/АС или автономная система принимает решение в какой-либо этической ситуации, так и на ситуацию, в которой применение ИИ/АС или автономных систем приводит к каким-либо социальным последствиям, например, в виде сокращения определенного персонала. Таким образом, на сегодняшний день можно выделить два направления исследований:

1. непосредственно этику ИИ/АС, которая описывает этические проблемы, вызванные работой машин, самостоятельно принимающих решения;

2. этические проблемы, связанные с массовым внедрением ИИ/АС, способные привести к изменению известной нам культуры труда (сокращениям персонала, занятого рутинными работами).

Этика и выгода

Уильям Хит. «Марш интеллекта». 1828

The British Museum

В этом тексте я не буду акцентировать внимание на втором вопросе — сегодня еще нет достаточно однозначного мнения о том, насколько массовым оказывается воздействие внедрение ИИ/АС на рынок труда, да и предсказать, как эти технологические инновации повлияют на общественные отношения, довольно сложно. Будем ли мы наблюдать только эффект сокращения занятости, или наблюдаемые трансформации приведут к смене экономических режимов управления, принятию решения о, скажем, необходимости безусловного дохода? Это благодатное поле для разных, вполне научных спекуляций; меня же интересует в данный момент в большей степени именно этика ИИ/АС.

В конечном итоге все исследования в этой области ведут к созданию нормативных документов, чем и занимается IEEE. Замечу, что этическое регулирование ИИ/АС и автономных систем не ведет к ограничениям развития таких технологий или каким-то рестриктивным мерам. Например, система «умный дом» может вызвать помощь, если определит, что человек в доме потерял сознание. Система принимает решение, вызывая помощь, и тем самым потенциально спасает жизнь пользователю. Ограничение таких систем кажется просто антигуманным по отношению к самим клиентам.

Способность «машин» работать с учетом этических норм является конкурентным преимуществом

Тем не менее довольно частые опасения разработчиков ИИ/АС в контексте обсуждения моральной составляющей взаимодействия машин и человека можно описать просто: «Вот сейчас придут гуманитарии и начнут нас своей этикой ограничивать». В ответ на это надо сказать, что обсуждение «moral machines» — удел далеко не только философов, психологов и культурологов, но также инженерного сообщества. Именно перед разработчиками ИИ/АС возникает задача создать алгоритмы, способные в области своей деятельности демонстрировать поведение, учитывающее границы «этичного», предварительно выработанные научным сообществом. Решение этих задач может стать еще одним из двигателей прогресса в области ИИ/АС. По сути, это акт построения связей между формальными математическими системами и содержанием таких фундаментальных понятий, как «этика», «нравственность» и «мораль», создание моста между машинным искусственным состоянием и человеческим естественным. 

Кроме того, конструирование способных к моральному поведению ИИ/АС может быть выгодно для компаний-разработчиков. Способность ИИ/АС работать с учетом этических норм на данный момент точно является существенным конкурентным преимуществом. Пользователю важно знать, что используемая им программа не передает личные данные тем, кто не может их сохранить, что автопилот на его машине адекватно отреагирует в случае аварии на параллельной полосе, что его программа-советчик не поведет его сложным маршрутом мимо магазинов компаний, специально заплатившим разработчикам, а укажет по-настоящему удобный и кратчайший маршрут. При построении грамотной маркетинговой стратегии инженер, первым создавший продукт, способный быть хоть частично этичным, может получить существенное превосходство на рынке. Следовательно, на самом деле нет необходимости ждать, пока появятся нормативно-технические документы. Стоит начинать частные исследования в этой области уже сейчас.

Что делать

О каких же исследованиях идет речь? Вероятно, находящихся на пересечении естественных и инженерных наук с гуманитарными. В случае каждой ИИ/АС будет возникать необходимость анализа возможных последствий ее применения, а значит, нужны базовые этические понятия, усваиваемые машинами, а также выработанная у последних способность к оценке своих действий на соответствие некоторым «нравственным стандартам». Как это все описать математически? А если речь идет о роботе, которому необходима еще и коммуникация с человеком? Так что, как бы ни хотелось алармистам безапелляционно заявлять, что разработка этики ИИ/АС ведет к введению ограничений свободы разработчика, соответствующие исследования, в первую очередь, оказываются двигателем прогресса в этой сфере. И заодно провокатором полезных изменений в сфере подготовки молодых специалистов, работающих с digital-реалиями.

Работа над «этичным» ИИ поможет наконец отказаться от страха «восстания машин»

Если для настройки отношений человека и машины нам нужно прислушиваться к мнению самых разных экспертов, способных договариваться о понятиях и переводить их в контекст математических решений, то само разграничение «физиков» и «лириков» оказывается нерелевантным. В учебных курсах специалистов в области ИИ должны разбираться философские дилеммы (подобные проблеме вагонетки), а для гуманитарных специальностей вопросы технической этики должны стать чем-то большим, нежели фрагментом курсов по истории науки и техники. На фоне умножения стратегий обучения технической, цифровой грамотности возникнут и более чувствительные языки обсуждения этой проблематики, не замкнутые в принятых вокабулярах конкретных узких областей знания. 

В конце концов, все это может привести даже к развитию диалога между законодателями, разработчиками и конечными пользователями. Если одни не будут вводить примитивные запреты, другие сосредоточатся не только на инженерной деятельности, но и обратятся к исследованиям, а третьи научатся видеть в «этичности» предлагаемых продуктов конкурентные преимущества, возможно, мы сможем наконец отказаться от фантастического страха «восстания машин» и выстроить утилитарно полезные отношения с ИИ/АС.