Существа второго сорта

Научный контекст: абьюз роботов

Обзор научных публикаций о нормах грамотного и толерантного взаимодействия с роботами

©
Текст: Оксана Мороз

По оценкам Международной ассоциации робототехники, к 2019 году человечество будет располагать более 30 миллионами бытовых роботов, используемых для повседневных нужд. И уже сейчас рядом с нами существуют не только пылесосы с искусственным интеллектом, но и т.н. социальные роботы. Выполняя функции персональных помощников, наученные составлять компанию практически любому, эти машины постепенно становятся полноценным элементом нашего социального мира. Разработчики, прекрасно знакомые с эффектом «зловещей долины», делают все возможное, чтобы создаваемые устройства вызывали только положительные эмоции у потенциальных владельцев. Впрочем, усилия, похоже, напрасны: то и дело в прессу просачиваются новости о нападениях на роботов. А исследователи на специализированных конференциях обмениваются мнениями относительно того, как научить робота планировать свои действия в условиях агрессии со стороны людей — например, детей. Итак, существует ли, с точки зрения ученых, опасность системного абьюза роботов, новой дискриминации — на этот раз, машин? Или же подобные случаи — частные девиации, свидетельствующие о невоздержанности конкретных членов общества?

Допустим, мы совершаем в адрес машин агрессивные действия. При чем тут этика?

Bartneck C., Hu J. Exploring the abuse of robots // Interaction Studies. – 2008. – Т. 9. – №. 3.

В общем-то роботы никогда не воспринимались людьми как «просто» машины. В научной фантастике (даже в пьесе «R.U.R.» Карла Чапека, не говоря уже о более поздних сочинениях, например, Айзека Азимова) они описывались как «другое» человека. Создаваемые по образу и подобию живого существа человеческой природы, роботы всегда рисовались ужасающе или чарующе похожими на своих конструкторов и даже наделенными прототипом человеческого разума. Самим своим существованием такие машины свидетельствовали об антропоцентричности мира людей, что придумывают аппараты, не только способные выполнять какие-либо действия, но и обладающие идентичностью «почти живых».

Конечно, если мы применим все вышесказанное к промышленным или обычным бытовым роботам, возникнет много вопросов. Все-таки вряд ли владельцы охранных девайсов, похожих на камеры наружного наблюдения, испытывают какие-то эмоции по отношению к устройствам. Разве что могут быть раздосадованы, когда аппарат ломается. Более того, как свидетельствует Кристофа Бартнек, известный критик роботехнических систем, люди в целом не рассматривают агрессию в адрес таких механизмов как нечто предосудительное. Например, когда группу испытуемых попросили воспроизвести с участием лишь условно похожего на человечка робота эксперимент Стэнли Милгрэма «Подчинение авторитету», 85% наблюдаемых показали себя как безжалостные агрессоры, а именно безостановочно били машину током, все повышая напряжение, несмотря на предварительно записанные и озвучиваемые роботом жалобы. Правда, когда дело доходит до действий, прямо ассоциирующихся с уничтожением робота, который непосредственно контактирует с людьми, мы можем демонстрировать большую человечность. В следующем эксперименте студентам или работникам Технологического университета Эйдховена предлагалось с помощью ударов молотка буквально «убить» робота (серии Crawling Microbug). Мотивация для выполнения такого действия была описана крайне просто. Когда устройство не справлялось с простейшими заданиями, его объявляли негодным. Для предупреждения экстраполяции ошибок на других роботов, объединенных с неисправным в систему, его предлагалось сломать. И несмотря на то, что в итоге машины были разломаны на множество кусочков, участники эксперимента оказались не слишком довольны собой. Маленькие аппараты, реагировавшие на свет и потому пусть и невербально, но общавшиеся с людьми, описывались как «невинные», не заслуживающие такого негуманного отношения.

Так что мы способны «оживлять» даже такие девайсы, которые вовсе не похожи на нас, но вступают с нами в то, что мы полагаем «отношениями». И если мы готовы увидеть в совсем нечеловекоподобной машине агента социальных отношений, то что уж говорить о современных роботах-гуманоидах (андроидов и гиноидов), способных общаться и выполнять серии действий непосредственно в акте коммуникации с человеком. Очевидно, что антропоморфизм подобных устройств еще в большей степени провоцирует изменение системы социальных отношений, поскольку человекоподобие повышает вероятность восприятия робота как «почти живого» существа. А в адрес себе подобных мы производим массу действий, так или иначе маркирующих наше расположение или, напротив, враждебность. И пока в мире существуют один более или менее масштабный документ, регулирующий нормы гражданского права о роботах, а национальные юридические системы пестрят многообразием, приходится рассматривать ситуации машинно-человеческой коммуникации в оптике этики — ну и роботехники, конечно.

А можно выработать этические принципы относительно ситуации унижения роботов?

Whitby B. Sometimes it’s hard to be a robot: A call for action on the ethics of abusing artificial agents // Interacting with Computers. – 2008. – Т. 20. – №. 3.

Конечно. Для разработки таких принципов, по мнению специалистов в области информатики и кибернетических систем, нужно последовательно ответить на несколько вопросов. Считаем ли мы морально приемлемым производить в адрес артефактов — роботических и/или снабженных искусственным интеллектом — действия, которые считаем неэтичными по отношению к людям? Отрицательный ответ на этот вопрос делает невозможными последующую дискуссию. Высказывая такое мнение, мы признаем за механическими устройствами статус социального актора, члена общества, и легитимируем наказание и преследование любого субъекта, позволившего себе во взаимодействии с машиной действия, расцениваемые в любой другой ситуации как насилие. Однако подобный ответ в целом маловероятен, и его может озвучить лишь малочисленная на данный момент группа защитников прав роботов. Или люди, полагающие любые действия человека в цифровом окружении маркером обычных социальных практик. Такая позиция может считаться даже морально устаревшей — в конце концов, психологи так и не пришли к мнению, существует ли безусловная связь между, скажем, насилием в онлайн-играх и непосредственным агрессивным офлайн-поведением.

Если же мы считаем, что притеснения роботов бывают оправданными, то возникает другой вопрос: насколько серьезным должен быть совершаемый террор, чтобы мы признали его преступным? Скажем, если кто-то покупает Aibo и затем играет дома в догхантера, стоит ли счесть такого человека абьюзером? Или же действия, совершаемые приватно, не должны никак регламентироваться — во имя защиты личной свободы и прав человека в современном неолиберальном мире?

Наконец, раз уж у обсуждения этики машинно-человеческих взаимодействий возникает столько контекстов, не проще ли потребовать от дизайнеров и программистов конструировать такие устройства с таким ПО, что минимизируют возможность деструктивных действий со стороны человека?

Как замечает британский информатик Блэй Уитби, с каждым годом необходимость формулирования четких ответов на эти вопросы возрастает. Во-первых, на рынке появляются новые роботы-помощники, которые предназначены для тесного общения с людьми. И уже сейчас разработки в этой области внушают опасения. Например, некоторые автономные виртуальные личные роботы настолько сильно вторгаются в жизнь своих владельцев (по умолчанию — они просто так сконструированы), что могут фундаментально изменить качество их коммуникации с внешним миром. Возникающая тесная взаимосвязь неизбежно вызывает антропологизацию  машины, за которой следует реализация привычные социальных практик. И где гарантии, что они не будут содержать в себе элемент насилия? Во-вторых, недостаточность существующих сегодня моральных принципов означает их неадекватность современным вызовам технологической революции. Можно, конечно, признать за машинами обладание статусом «электронной личности». Собственно, именно в этом направлении движется Европа, представители которой в 2017 году приняли резолюцию «Нормы гражданского права о робототехнике» и Хартию робототехники. Однако этот юридический жест не снимает проблем нравственного порядка. Согласно Кодексу этики для разработчиков роботехники, «исследования, разработки и использование робототехники должны осуществляться с учетом основных прав человека и только в интересах их благосостояния и самоопределения как отдельно взятого человека, так и общества в целом. Права на уважение человеческого достоинства и самостоятельность (как физическую, так и психологическую) должны неукоснительно соблюдаться». К сожалению, эта декларация о намерениях выглядит весьма романтично, особенно если учесть, насколько зыбким оказывается соблюдение даже естественных прав людей и живых существ.

С какой стати тогда нас вообще должны волновать проблемы роботов?

Broadbent E. Interactions With Robots: The Truths We Reveal About Ourselves // Annual review of psychology. – 2017.

Sparrow R. Robots, Rape, and Representation // International Journal of Social Robotics. – 2017.

Проблема в том, что как бы мы ни хотели относиться к роботам как к машинам, предназначенным для выполнения конкретных задач, на практике действует теория уравнивания медиаторов. Видя перед собой устройства, которые с каждым годом становятся все более антропоморфными, обретают все более узнаваемые и ориентированные на наши ожидания черты, подстраиваются под нужды конкретных владельцев и превращаются в почти незаменимых помощников в самых разных ситуациях, мы начинаем привязываться к ним. Успех роботов-компаньонов и увеличение количества разработок именно в этой области демонстрируют: люди действительно готовы проявлять эмпатию по отношению к устройствам, отвечающим определенным эстетическим и функциональным требованиям и/или предпочтениям. Более того, нередко расценивают некоторых из них, специально сконструированных человекоподобными, в качестве субъектов социальных взаимоотношений. Именно поэтому объективация роботов может рассматриваться как этическая проблема. Конечно, машины не обладают собственным сознанием и волей. Но они действуют в интересах людей, поэтому их унижение, насилие как продолжение идеи подчинения техники человеку кажутся кощунством.

Есть и еще одна проблема: человечество создает роботов для таких практик, которые требуют серьезной правовой регуляции и общественных дискуссий. Например, на данный момент существует несколько фирм, производящих человекоподобные секс-машины, а в некоторых странах действуют публичные дома, где услуги оказывают роботы. Пока в секс-индустрии роботизация — новинка, хотя очевидно, что у нее большое будущее. Все-таки в отличие от своих предшественниц — надувных кукол — роботы вполне могут имитировать физиологические реакции, а благодаря искусственному интеллекту запоминают партнеров и способны с ними общаться — и вербально в том числе. Правда, они, в отличие от живых людей, не в состоянии дать согласие на участие в половом акте. А, значит, с точки зрения ряда исследователей, вольно или невольно самим фактом своего присутствия в половой жизни людей пропагандируют культуру изнасилования. И делают абьюз системным, даже более того — превращают его в условие взаимодействия с технологиями современности. Возникает парадокс: формально робота, особенно созданного для удовлетворения сексуальных импульсов, изнасиловать нельзя. Но нельзя и утверждать, что, избавившись в процессе коммуникации с машиной от излишней в данном случае нормы уважительного отношения к сексуальному партнеру, человек сохранит ее в социальных взаимодействиях с другими людьми.

Этот одиозный пример призван проиллюстрировать простую идею: в коммуникации с роботами, которые становятся все более значимыми социальными контрагентами, люди проговаривают свои желания, страхи и мотивы. Поэтому разрешение этических парадоксов роботехники можно считать своего рода обучающей игрой. Возможно, если мы обозначим границы морального поведения относительно собственных изобретений и поймем, что эти границы подвижны, мы можем сформулировать более или менее разделяемую систему этических конвенций относительно межличностных отношений.

Но роботы-то вобще не знают, что такое этичное поведение, эмпатия. Робот – вот настоящий психопат!

Scheutz M., Arnold T. Feats without heroes: norms, means, and ideal robotic action // Frontiers in Robotics and AI. – 2016. – Т. 3.

Sharkey A. Can we program or train robots to be good? // Ethics and Information Technology. – 2017.

Sharkey A. Can robots be responsible moral agents? And why should we care? // Connection Science. – 2017. – Т. 29.

На самом деле, одно из самых перспективных, хотя и критикуемых направлений исследований в робототехнике, связано с созданием машин, способных выступать в роли моральных субъектов. Иначе говоря, имеющих возможности совершения поступков в ситуации нравственных дилемм. Эти разработки необходимы, особенно в современных условиях, когда не за горами массовое распространение беспилотных автомобилей, роботов-сиделок и прочих устройств, от взаимодействия с которыми напрямую зависит жизнь и здоровье человека, и которые нередко вынуждены быстро реагировать на новые обстоятельства. 

По сути, роботов надо научить работать с «проблемой вагонетки», переставшей быть только мысленным экспериментом и превратившейся в вызов нейроэтике и робототехнике. Ученые предполагают, что поскольку речь идет о необходимости принимать рациональное решение (пусть и морального свойства), то роботы, способные обучаться в процессе применения решений множества задач (скажем, учиться на прецедентах) в целом могут справиться с такой задачей. Например, можно предложить вычислительной системе проанализировать огромное количество кейсов с тем, чтобы в конечном итоге она сформировала некие усредненные этические рекомендации. В таком случае машина не сможет быть в полной мере самостоятельным моральным агентом, но и обвинить ее в бесчеловечности будет невозможно: ее действия окажутся продиктованы опытом и привычками людей, релевантными той или иной ситуации. Может, машина и не сможет пережить определенные ощущения, но будет в состоянии их выразить — а ведь именно умение правильно репрезентировать определенные решения и эмоции мы традиционно считаем признаком социализированного, «нормального» индивида. 

Да и, кроме того, современные роботы функционально не в состоянии действовать, как психопаты. Они созданы социальными, следовательно, их реакции зависят от существующих общественных норм и не могут быть направлены на их нарушение. Так что пока мы трепещем от ответа Софии, обещавшей уничтожить человечество, стоит задуматься о том, каковы моральные основания действия людей, задающих вопросы, что предполагают столь жестокие ответы.

Это вообще нормально?

Как писал философ Вилем Флюссер, история знает несколько промышленных революций, но сегодня мы наблюдаем качественно новый виток отношений между человеком и техникой. Сегодня люди создают аппараты, способные функционировать как не-вещи, как нечто большее, чем пассивный объект. Так что, даже не имея возможности сконструировать электронный дубликат воли, человек все равно неизбежно встречается с необходимостью калибровать этику социальных взаимодействий. Судя по всему, при наблюдении за развитием робототехники люди задумываются о справедливости и нравственности существующих систем поступков, о том, чему именно они могут «научить», и как не воспроизвести в собственных созданиях то, что интуитивно или вполне откровенно считается этически амбивалентным. Пожалуй, в процессе таких раздумий фундаментальными остаются два вопроса. Не придумываем ли мы роботов оттого, что в своем антропоцентризме оказались слишком одиноки? И почему при взгляде на производимую жизнь – пусть и вполне механистического свойства — нас вновь и вновь посещают мысли о насилии?