Это я, Этичка

Научный контекст: человек, машина и цифровая этика

Что исследователи думают про этику в мире, где машины и люди плотно взаимодействуют друг с другом  

Джованни Баттиста Брачелли. Гравюра из серии «Bizzarie di varie figure». 1624. The British Museum
Текст: Оксана Мороз

Цифровые технологии в описании ученых, писателей-фантастов, инженеров и даже менеджеров, управляющих лабораториями, представляется чем-то янусианским. Сами они есть свидетельство прогресса изобретательской мысли, совокупность инструментов, не обладающих очевидной злокозненностью. А вот их применение может приводить к самым разным последствиям, довольно часто — деструктивным.

Так что источником этического измерения машин на первый взгляд всегда оказываются действия человека — разработчика и пользователя. Потому и рассматривать цифровую среду, представленную данными, алгоритмами, программным обеспечением и девайсами, в отрыве от антропологических, экономических и политических практик невозможно. Совокупно исследования по цифровой, машинной этике, этике робототехники выглядят затеей чрезвычайно масштабной и ориентированной на изучение принципиально незавершенного объекта. И в общем неудивительно, что во всем мире существует множество научных центров, в той или иной мере занимающихся этой проблематикой.

В одной только Англии на базе Королевского колледжа Лондона в Centre for Technology, Ethics & Law in Society разрабатывают проект «Law & Ethics in a Data-Driven Digital Society», а в Оксфордском университете действует Oxford Internet Institute, в котором работает специальная Лаборатория цифровой этики. Международные организации вроде ОЭСР (Организация экономического сотрудничества и развития) постулируют разговор о цифровой этике как важнейший элемент дискуссий о современных социальных изменениях. А профессиональные комьюнити — скажем, международная некоммерческая ассоциация Институт инженеров электротехники и электроники (Institute of Electrical and Electronics Engineers, IEEE) — ставят вопросы об этике в контексте современных IT-разработок (например, рассуждая об этике искусственного интеллекта).

Мы не планируем присоединяться к спорам о том, кто более правильно и корректно исследует цифровую среду и ее гуманитарное измерение (такие специалисты есть и среди экспертов по компьютерным наукам, и среди представителей новых направлений — например, Critical Cyberculture Studies). Мы задаемся более фундаментальным вопросом: а что именно и зачем изучают ученые, рассуждающие об этике цифры?

Зачем говорить о новой, «цифровой» этике? Может, надо сделать более этичным поведение пользователей?

Anderson M., Anderson S. L. (ed.). Machine ethics. Cambridge University Press, 2011.

Такой подход в значительной степени наследует всей истории моральной философии. Однако коль скоро человечество создает нормы взаимодействий в пределах цифровой среды посредством, в том числе, разработок в области искусственного интеллекта и самообучающихся систем, он не слишком корректен и даже парадоксален. Если мы так хотим добиться автономности машин, то почему лишаем их шанса на субъектность? Или почему считаем, что только позиция Ника Бострома относительно эффектов современной технологической революции имеет право на существование? Напомним, именно Бостром, один из основателей Института этики и новых технологий, директор Института будущего человечества Оксфордского университета, включенный в Топ-100 мировых мыслителей («global thinkers») по версии журнала «Foreign Policy», вдохновляет многих — даже Илона Маска или Билла Гейтса — на алармизм в духе «если машины станут умнее, они нас поработят». Что если перенести акцент в обсуждении цифровой этики с противостояния людей и создаваемых ими устройств на необходимость вдумчивой инженерии, результаты которой будут достойны доверия?

Авторы упомянутой выше книги исходят именно из таких спокойных позиций. Они считают, что необходимо дополнить привычные рассуждения об ответственности пользователя и разработчика интеллектуальных систем принципиально междисциплинарным обсуждением собственно машинного принятия этичных решений (ethical decision-making). Хотя бы потому, что мы сами все больше включаемся в производство автономных машин, а, значит, кровно заинтересованы в том, чтобы те имели алгоритмически выверенное представление о моральных издержках «поступка». Любопытно, что в качестве поддержки своей позиции редакторы коллективной монографии использовали авторитет Джеймса Мура, автора практически культового эссе 1985 года под названием «Что такое компьютерная этика?». Именно статья Мура, в которой он утверждал о возможностях фактически безграничного потенциала применения компьютерных технологий и необходимости привлечения к работе с этими системами философов, открывает книгу и задает общий тон последующим рассуждениям.

Последние развиваются от общих суждений на тему «почему мы вообще должны думать на эту тему?» до более специфичных сюжетов. В частности, авторы задаются вопросами о том, насколько этично вообще делегировать машинам принятие моральных решений? Существует ли в принципе некий «стандарт» нравственного поведения, который можно сделать пригодным для вычислительных систем и программного обеспечения? И в состоянии ли машина, даже весьма качественно имитирующая человеческое поведение, «понять» этические положения в том ключе, в котором понимаем их мы? А даже если технике не надо (или не свойственно) все это «понимать», может ли она разделить с нами создаваемые человечеством конвенции, если они могут выглядеть как непреложные истины лишь в определенном контексте? И хотя значительная часть этих сомнений так и не превращается в готовые ответы, в дальнейшем ученые переходят к относительно инструментальному описанию возможных этических решений машинных систем (на примере, скажем, машин, обслуживающих сектор здравоохранения). Да, высказываемые ими позиции вряд ли претендуют на доскональную презентацию основ цифровой этики. Но они задают вектор выдержанного и научного, а не алармистского подхода к анализу цифрового мира.

ОК, кто-то думает о машинной этике. Но есть ли модель нравственности, которой можно снабдить все автономные системы?

Lin P., Abney K., Bekey G. A. Robot ethics: the ethical and social implications of robotics. MIT press, 2011.

Это отличный вопрос, ставящий перед исследователями цифровой этики следующие проблемы. Во-первых, если мы говорим именно о моральных машинах, то стоит задуматься о сферах их применения. Скажем, беспилотники, участвующие в военных операциях, обслуживают сферу, в которой нравственное измерение поступков определяется не теми же основаниями, что деятельность секс-роботов. Во-вторых, в каждой из отраслей, где роботические объекты обретают прописку (а это военное дело, секс-индустрия, системы здравоохранения), или в каждой совокупности социальных практик, в которые они вторгаются (например, практики проявления насилия, заботы, беспокойства и помощи), представление об «этичном» не является константой. И если люди между собой не могут договориться (и вряд ли на каком-то глобальном уровне когда-либо договорятся) о том, всегда ли убийство есть преступление, в каких случаях секс означает совершенное насилие, то как можно рассчитывать, что они научат роботические системы каким-то нормам? В лучшем случае те будут опять ситуативны и зависимы от местных правовых установок. Значит, будут представлять опасность для людей, что по разным причинам исходят в своем отношении к миру из других конвенций.

Впрочем, не пытаясь провидеть будущее, авторы книги усматривают уже в настоящих технологиях вызовы описанной выше бинарной оптике противопоставления человека и используемых им техники. А также недвусмысленно намекают, что роботическая составляющая цифровой среды обитания людей ставит под вопрос очень многие основания их социального мира. Например, конструирование машины, которая в состоянии воспроизвести действия, отсылающие к аффективно заряженным практикам «заботы», может пошатнуть прежние институты, обеспечивающие людей социальными связями. 

Будут ли люди искать дружбы и любви друг друга, если роботические тепло и ласка более достижимы? Или другое опасение: если мы создаем машин, которых люди готовы рассматривать как условно «близких», «похожих», почему мы не защищаем их права? Мы же таким образом утверждаем, что человек может позволить себе по отношению к этим сложным системам любое агрессивное поведение. И вообще, разве само развитие онлайн-офлайн реальности, все более населяемой роботическими системами, не ведет к этическому нигилизму? Если далеко не всем взаимодействиям в ее пределах можно дать этическую оценку (ну, например, какова может быть этическая оценка действий военного дрона?), то насколько этика вообще оказывается важна? Может, проще ввести какую-нибудь меру уголовной или административной ответственности для разработчиков подобных систем или вообще прекратить думать в направлении создания машин с моральными обязательствами? 

Поскольку авторы вовсе не футурологи, а откликаются на взрывное развитие робототехники как элемента дигитализации, они видят свою задачу в создании карты адекватных исследовательских подходов и мнений. А также в формировании такого понимания предмета обсуждения, что будет отличаться как от устаревших предположений фантастов, так и от восхищения (плавно переходящего в алармизм) евангелистов цифровых компаний.

А этические дилеммы изучают только в контексте машинной составляющей цифровой среды?

Tavani H. T. Ethics and technology: Controversies, questions, and strategies for ethical computing. John Wiley & Sons, 2011.

Davisson A., Booth P. (ed.). Controversies in Digital Ethics. Bloomsbury Publishing USA, 2017.

Вовсе нет, все зависит от оптики исследователей. В книгах, собранных специалистами в сфере медиа, теории коммуникации и философии, в основном тексты, ставящие во главу угла социальные и антропологические аспекты жизни людей, существующих в цифровой среде обитания. В центре внимания авторов находятся проблемы трансформации понятий приватного и публичного, новые определения свободы слова, самовыражения и тотальной слежки, эффекты все большего вовлечения людей в пользование онлайн сервисами (в том числе, играми, социальными сетями), способы конструирования идентичностей в условиях создания виртуальных альтер-эго и сообществ, а также проблемы коммуникации в разных профессиональных областях (политике, маркетинге, сферах производства культурных артефактов — журналистике, сериальной индустрии), индуцированные сосуществованием офлайн и онлайн режимов жизни и требующие выработки частных «этик», представлений о моральной ответственности.

Несмотря на то, что эти тексты вовсе не претендуют на статус путеводителей по гуманитарным теориям «цифры», в них можно обнаружить довольно большое количество концептов, знаковых для разных социогуманитарных дисциплин. Здесь есть место и рассуждениям о роли человека как деятельностного субъекта, получающего в условиях цифры новые инструменты борьбы за соблюдение прав, достоинство, информированность, а также за такое качество культурных продуктов, которое коллегиально считается приемлемым и желаемым. Обнаруживаются интересные прецедентные кейсы, позволяющие взглянуть на едва ли разрешимые исключительно инженерной логикой противоречивые явления (например, буллинг и троллинг, совершаемые «во имя добра») с точки зрения множественных этических систем. Возможно, в отличие от предыдущих сборников, эти монография в меньшей степени построены на попытке организовать диалог между теми, кто цифровую среду строит, и непосредственными пользователями. Однако, организовав эту совокупность текстов в соответствии с логикой, казалось бы, недопустимого антропоцентризма, авторы пошли на определенные моральные (а, возможно, и познавательные) издержки, что открыли многообещающую перспективу именно гуманитарного взгляда на цифру. Кстати, весьма амбициозно заявив в одном из заглавий о необходимости помыслить «этичный компьютинг»!

Для этого аналитического взгляда цифровая среда — суть эквивалент смешанной реальности, пространства, где, возможно, далеко не все обретаются, но все рано или поздно окажутся. И в этом пространстве необходимо не только уходить от оппозиции техника-человек, но и от прочих жестких структур и фреймов, с помощью которых мы объясняем и определяем мир вокруг себя. Это не детей надо защищать от пагубного воздействия интернета, не читателей — от таргетированной рекламы, не пользователей — от алгоритмов социальных сетей. В мире цифры, построенной как минимум с уважением к равенству возможностей (соучастия в производстве любых товаров, борьбы за мнение, способности выражать свое «я»), каждый потенциально субъектен, каждый может стать источником новых норм или катастроф, каждый — возможный хактивист. Да, этот мир не безопасен — но именно потому, что цифровой жизнью живут люди. И как бы алгоритмы не обустраивали наше бытие в коммуникационных сервисах, как бы геймдизайнеры не пытались угодить общественности, обеспокоенной уровнем агрессии в играх, никакая властная или экспертная регуляция не решит проблему конкурентности систем нравственности и морали, с которой люди подходят к цифровым реалиям. А именно в этой соревновательности, в том числе, и состоит феноменологически новых характер современной этики.

Это вообще нормально?

Инженеры, специалисты по компьютерным наукам довольно часто выбирают успокаивающую и иногда менторскую интонацию («не волнуйтесь, мы создаем эти технологии, мы разберемся») и создают объяснительную схему на основе конструктивистского взгляда на мир. «Этику можно настроить», — как бы говорят они, делая упор на механистический характер предстоящей работы. 

Гуманитарии же предлагают каждому читателю встать перед воображаемым зеркалом и спросить себя: а как именно я проживаю свои цифровые дни, недели, годы? Могу ли я хотя бы кому-нибудь, да даже самому себе, объяснить мотивы некоторых собственных онлайн поступков? Готов ли я на диалог с теми, кто поступает иначе или считает этичным иное поведение? И вообще смогу ли я — а делать нечего, видимо, придется — жить в мире, где в постоянном режиме буду сталкиваться с конкурирующими моральными установками и представлениями о нравственном? 

Конечно, мы не планируем потворствовать такому размежеванию исследователей с разной оптикой. Мы предлагаем видеть современность — технологическую, цифровую — как набор фундаментальных и инструментальных искажений, разрывов, нарушений прежних норм и, одновременно, как их вечно обновляемое, для нас, живущих сегодня, экспериментальное продолжение. Нам потребуются точки зрения самых разных специалистов, и мы будем искать их — чтобы спорить, сомневаться и приходить к ответам, нисколько не смиряющим любопытство.