• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Аморальные алгоритмы

Семь случаев, когда искусственный интеллект нарушает этические нормы и попирает человеческое достоинство — от отказа в приёме на работу до секс-роботов

ISTOCK

В Издательском доме ВШЭ готовится к публикации перевод книги Бернда Карстена Шталя, Дорис Шредер и Ровены Родригес «Этика искусственного интеллекта: кейсы и варианты решения этических проблем». IQ.HSE публикует из неё семь кейсов и их подробных обсуждений: дискриминация при найме сотрудников, полицейское преследование, манипуляции мнением людей, утечки чувствительных персональных данных, злоупотребление секс-роботами и многое другое.

Кейс 1: предубежденность в инструментах найма на работу

Набор новых работников — важная задача для организации, поскольку человеческие ресурсы часто считаются наиболее ценным активом компании. В то же время набор сотрудников может требовать большего времени и труда. Организация должна внимательно изучить заявления и резюме соискателей, являющиеся не стандартизированными, сложными документами, и на основе этих данных составить короткий список претендентов на вакансию и провести с ними собеседование. Поэтому нет ничего удивительного в том, что набор персонала стал одним из первых кандидатов на автоматизацию при помощи машинного обучения. Один из нашумевших примеров набора персонала с помощью ИИ — попытки компании Amazon автоматизировать процесс отбора соискателей.

В 2014 году Amazon начал разрабатывать и применять программы с использованием ИИ для того, чтобы механизировать крайне затратные по времени задачи работы с персоналом, а именно составление короткого списка претендентов на имеющиеся вакансии. Amazon «буквально хотел, чтобы это была программа, в которую загружаются 100 резюме, и она выдает пять лучших кандидатов, которых мы в итоге нанимаем».

ИИ обучался на резюме, поданных за предшествующие десять лет, и данных о приёме на работу. В результате такого обучения ИИ стал отсеивать соискательниц-женщин даже там, где никаких специфических требований к полу кандидата указано не было.

Поскольку в обучающей выборке преобладали успешные соискатели-мужчины, Amazon выяснил, что система «наказывала» за выражения вроде «капитан команды женского шахматного клуба», так как не находила соответствий в резюме соискателей-мужчин, успешно занимавших вакансии в прошлом. Пока разработчики переделывали систему, устраняя гендерное предубеждение, Amazon в 2015 году отказался от её использования, ссылаясь на то, что компания «привержена представленности всех групп и равенству на рабочем месте».

Поначалу такой подход казался перспективным, поскольку у отдела кадров имелись обширные данные для обучения в виде прошлых резюме. Система машинного обучения могла бы научиться различать успешные и неуспешные резюме и выявлять те их особенности, которые являются маркерами успеха. Именно это и сделал Amazon. В результате ИИ начал систематически дискриминировать женщин.

Когда это стало ясно, начались поиски решения данной проблемы. Было сделано предположение, что причиной такого результата было слишком маленькое количество женщин в обучающей выборке, возможно, потому что в технологическом секторе традиционно преобладают мужчины, что, вероятно, отражает предубеждение в системе найма работников повсеместно. Однако выяснилось, что, даже если убрать прямые указания пола, это не гарантирует равных возможностей, поскольку ИИ находит прокси-переменные, указывающие на пол, такие как учебное заведение (например, женские колледжи) и феминизированные хобби.

Системы ИИ хороши настолько, насколько хороши данные, на которых они обучаются, и люди, которые их обучают. Конкретный инструмент анализа резюме обучался на исторических данных, таких как резюме, полученные от кандидатов, нанятых компанией в прошлом, поэтому система унаследовала осознанные и неосознанные предпочтения менеджеров по найму персонала, которые производили этот отбор.

Amazon в конечном итоге отказался от использования ИИ для подбора персонала, как было указано выше. Однако фундаментальный вызов, заключающийся в том, чтобы соединить большое число соискателей с большим числом вакансий на основе сложных и меняющихся критериев, остается. Так, например, по некоторым сообщениям, Vodafone использовал системы ИИ для анализа более чем 100 000 заявлений на 1000 вакансий. С 2019 года пандемия COVID-19 ускорила внедрение ИИ в процесс подбора персонала. Предсказывается, что к 2029 году 16% работ по подбору сотрудников исчезнут.

Также утверждается, что ИИ может использоваться как средство анализа психологических, эмоциональных и личностных особенностей человека во время видеоинтервью. В период пандемии COVID-19 онлайн-интервью вошли в норму, и эта тенденция может в дальнейшем укрепиться, если применение ИИ-технологий в этом контексте увеличится.

Однако инструменты, интерпретирующие черты лица, могут продемонстрировать те же ограничения, что и ИИ, использованный при подборе персонала, хотя это не получит такого широкого резонанса, как в случае Amazon. Это означает, что, когда дело доходит до борьбы с нарушением права человека на защиту от дискриминации, необходимо постоянно обращать внимание на вопросы этики. Или, как заметил один специалист по правам человека, прежде чем отделы кадров смогут этично применять ИИ для замены людей в автоматизированном процессе принятия решений, нужно сначала решить проблему «мусор на входе, мусор на выходе».

Кейс 2: дискриминирующее использование ИИ в правоохранительной системе и для профилактических полицейских мер

Кейс Родригеса — пример дискриминирующего применения ИИ в системе уголовного правосудия, в том числе в предиктивной полицейской деятельности. «В предиктивной полицейской деятельности используются информационные технологии, данные и техники анализа для того, чтобы указать вероятное место и время совершения будущих преступлений или выявить людей, которые с большой долей вероятности либо сами совершат преступление, либо станут его жертвой». 

За такого рода предиктивной аналитикой стоит идея о том, что существующие данные по охране порядка могут сделать вмешательство полиции более точечным. Полицейские ресурсы ограничены, и желательно сосредоточить их там, где они с большой вероятностью помогут остановить или предотвратить преступление или, если преступление уже совершенно, смогут защитить жертв, арестовать виновников и т.д. 

Предиктивная аналитика в полицейской работе опирается на данные о прошлых преступлениях для выявления закономерностей, которые можно экстраполировать в будущее, тем самым помогая полиции установить место и время, когда скорее всего может произойти преступление. Именно туда и направляются полицейские ресурсы.

Когда Гленну Родригесу было шестнадцать, его арестовали за участие в вооруженном ограблении автосалона, в результате которого погиб один из сотрудников. Двадцать пять лет спустя, в 2016 году он обратился с просьбой об условно-досрочном освобождении в соответствующий совет «Восточного пенитенциарного учреждения» в Нью-Йорке. У него были высокие показатели по программе реабилитации. Однако в досрочном освобождении ему было отказано. 

Совет обосновал своё решение тем, что система ИИ под названием COMPAS спрогнозировала, что он будет представлять «повышенный риск», и совет «заключил из этого, что условно-досрочное освобождение несовместимо с благополучием общества». Совет не имел представления о том, каким образом система COMPAS производит оценку опасности, поскольку компания — разработчик системы сочла свой предсказательный алгоритм коммерческой тайной. 

Сопоставив свой рейтинг с рейтингами других заключенных, Родригес выяснил, что причиной было субъективное личное мнение тюремных надзирателей, которые могли иметь расовые предрассудки. В итоге Родригес был освобожден досрочно. Однако, «если бы у него была возможность изучить и оспорить логику работы системы COMPAS, чтобы доказать, что её рейтинг дает искаженную картину его жизни, он мог выйти на свободу гораздо раньше».

Эти идеи звучат убедительно и уже внедряются в практику во многих юрисдикциях. Наибольший резонанс вызвала практика США, где полиция разрабатывала и использовала инструменты предиктивной аналитики в Чикаго, Лос-Анджелесе, Новом Орлеане и Нью-Йорке, начиная уже с 2012 года. 

В Великобритании, как явствует из исследования одной неправительственной организации, «по меньшей мере 14 полицейских подразделений использовали или намеревались использовать… компьютерные алгоритмы для предсказания того, где и кем будет совершено преступление». Известно также, что Китай, Дания, Германия, Индия, Нидерланды и Япония тестируют и, возможно, используют инструменты предиктивной аналитики в работе полиции.

Хотя идея помочь полиции лучше и, по возможности, с меньшими затратами делать свою работу многими приветствуется, практика предиктивной аналитики оказалась проблематичной с этической точки зрения. Использование данных о прошлых преступлениях означает, что исторические паттерны воспроизводятся, а это может стать самоисполняющимся пророчеством.

Например, районы, в которых исторически был высокий уровень преступности, как правило, оказываются районами с более низким уровнем доходов и образования, а также с более высоким процентом мигрантов или людей без гражданства. Использование инструментов предиктивной аналитики означает, что люди, живущие в бедных районах, привлекают к себе больше внимания полиции, независимо от того, имеют они какое-то отношение к преступности или нет. Использование алгоритмических систем для поддержки работы полиции потенциально может обострить и без того укоренившуюся дискриминацию. 

Однако стоит отметить, что, учитывая внимание к этой проблеме, вполне вероятно, что такие системы смогут напрямую анализировать деятельность полиции с точки зрения предвзятости и помогут бороться с этой проблемой. Системы ИИ, применяемые в работе полиции и охраны правопорядка для предиктивной аналитики, могли бы также использоваться для извлечения и визуализации данных о преступлениях, чтобы прояснить наличие или отсутствие в статистике перекоса, вызванного этническими или расовыми характеристиками, и конкретные механизмы его возникновения. Это, в свою очередь, может послужить хорошей отправной точкой для более детального анализа механизмов, способствующих дискриминации.

Эта проблема возможной дискриминации, связанной с определёнными географическими зонами, может также затрагивать отдельных людей. Автоматическое биометрическое распознавание может быть использовано в полицейских камерах, что позволит автоматически рассчитать риск при взаимодействии полицейских с тем или иным человеком. Это, в свою очередь, может навредить людям, у которых в прошлом была судимость или история взаимодействия с полицией, из-за чего обездоленные сообщества, в особенности этнические меньшинства, снова окажутся в центре внимания полиции. 

Та же самая логика действует, если спускаться по цепочке правоохранительной системы, когда анализ данных о преступниках используется для предсказания вероятности повторного совершения ими преступления. Когда позднее был проверен ИИ, повлиявший на решение о том, чтобы продержать Гленна Родригеса в тюрьме дольше необходимого, выяснилось, что «непропорционально высокое число чернокожих оказались “ложноположительными”: они были классифицированы системой COMPAS как представляющие большую опасность, но впоследствии не преследовались за уголовные преступления».

Кейс 3: монетизация данных о здоровье

Этот случай демонстрирует проблемы со сбором и хранением больших массивов данных компаниями, использующими устройства по отслеживанию здоровья, самочувствия и физического состояния, и показывает, что такие данные подвергаются опасности и могут быть раскрыты.

В 2021 году незащищенные паролем персональные данные 61 млн человек попали в общий доступ из-за утечек у поставщика услуг по отслеживанию состояния здоровья, базирующегося в Нью-Йорке. Эти данные включали личную информацию, такую как имя, пол, географическое местоположение, дату рождения, вес и рост. 

Специалист по вопросам безопасности Джеремия Фаулер, нашедший эту базу данных, выяснил, что она принадлежала компании, предлагавшей устройства и приложения для отслеживания состояния здоровья и самочувствия. Пользователи услуг, чьи персональный данные попали в открытый доступ, жили по всему миру. Фаулер связался с компанией, которая поблагодарила его и подтвердила, что теперь данные в безопасности.

Сходные опасения вызывает также получение подобных данных компаниями вроде Google через приобретение таких бизнесов, как Fitbit — производителя устройств для фитнес-мониторинга и соответствующего программного обеспечения. Эксперты указывали на то, что это поглощение было проблематичным по разным причинам, среди которых значительные риски «окружения платформы» (platform envelopment), укрепление монопольной власти (через подрыв конкуренции) и эксплуатация потребителей. Их также беспокоило то, что объединение данных Google с данными Fitbit о здоровье может причинить серьёзный ущерб.

Европейская комиссия провела тщательное расследование приобретения Fitbit компанией Google. Обеспокоенность, возникшая в результате расследования, была связана с рекламой, поскольку это приобретение дополнительно увеличивало и без того большое количество данных, которые Google могла использовать для персонализации рекламных объявлений, и затрудняло конкуренцию с сервисами Google на рынке рекламы во время поиска в интернете.

Утверждалось, что это приобретение повысит барьеры для входа и экспансии конкурентов Google, нанеся вред рекламодателям, которые в итоге столкнутся с повышением цен и сужением выбора. Европейская комиссия одобрила приобретение Fitbit компанией Google в соответствии с Европейским законом о слиянии при условии полного выполнения десятилетнего пакета обязательств, предложенного самой Google.

Кейс 4: продвижение продаж в «моменты уязвимости для внушения»

Интернет-гиганты, такие как Google и Amazon, используют данные потенциальных потребителей, собирая их для того, чтобы рекламировать товары и услуги. Их алгоритмы создают видимость того, что в этом нуждаются потребители, ведущие поиск в интернете. Этот подход можно легко соединить с концепцией «моментов уязвимости для внушения», в результате чего анализ данных в реальном времени можно использовать для максимально точного выявления этих моментов.

Люди по-разному ведут себя в разное время, у них бывают подъёмы и спады настроения, моменты, когда они сильнее или слабее поддаются манипуляциям. Согласно маркетинговому исследованию 2013 года, можно установить моменты, когда люди чувствуют себя более уязвимыми, чем обычно. 

Например, выяснилось, что американские женщины из разных демографических категорий чувствовали себя наименее привлекательными по понедельникам, а потому, возможно, были больше склонны к приобретению косметической продукции. Далее в этом исследовании утверждается, что такие данные могут использоваться для разработки индивидуализированных маркетинговых стратегий. 

Хотя в исходном исследовании данный подход облекается в позитивные термины, такие как «поощрение» и «придание силы», независимые наблюдатели указывали на то, что это может быть «самой грубой рекламной стратегией за всю историю».

Потенциальная манипуляция, описанная выше, получила столь широкое распространение, что её, возможно, перестали замечать. Большинство пользователей интернета давно привыкли к таргетированной рекламе.

Интересующий нас здесь аспект этого кейса — использование «момента уязвимости для внушения», понятие, на которое в персональном маркетинге с использованием ИИ пока ещё ссылаются не часто. Отсутствие названия для этого понятия не означает, однако, что такой подход не используется. 

Как было сказано выше, компания, проводившая исходное исследование, описала свой метод в позитивных терминах. В самом деле, результат такой стратегии может оказаться позитивным для целевой аудитории. Если, например, человек переживает момент уязвимости из-за усталости, предложение соответствующих лекарств и продуктов для улучшения самочувствия может помочь справиться с этим состоянием. Это подводит нас к вопросу, который мы собираемся обсудить: как и когда имеет место манипуляция и как она может оцениваться с этической точки зрения.

Кейс 5: состязательные атаки в медицинской диагностике

Состязательные атаки (adversarial attack) — целенаправленное воздействие на нейронную сеть, способное вызвать ошибки в её поведении. При реализации атаки в исходные данные вносятся небольшие искажения, легко обманывающие нейросети, которые с ними работают. «Это передовая технология, позволяющая скомпрометировать в остальном надежные системы машинного обучения». 

Подобные технологии, например, минимальное манипулирование изображением (внесение состязательного шума), которые могут помочь подтвердить диагноз, гарантируют положительные результаты тестов или контролируют степень медицинского вмешательства в интересах тех, кто проводит подобные атаки.

Медицинский диагноз, особенно в радиологии, часто опирается на изображения. Состязательные атаки на медицинские системы анализа изображения — это проблема, которая может поставить под угрозу жизнь. Как показал эксперимент с маммограммами, в данном случае неважно, ставит ли медицинский диагноз ИИ или эта задача возлагается на радиологов. 

Авторы эксперимента использовали модель генеративной состязательной сети (GAN), чтобы внести преднамеренные изменения в радиографические снимки, сделанные для выявления рака груди. Полученные поддельные изображения затем были проанализированы ИИ или радиологами. Состязательные образцы «обманули систему ИИ, заставив её выдать неправильный диагноз в 69,1% случаев, которые ранее были правильно классифицированы моделью ИИ. 

Пятеро радиологов визуально идентифицировали 29–71% состязательных образцов». В обоих случаях ошибка в диагностировании рака может привести к рискам для здоровья и жизни.

Чтобы привлечь внимание к состязательным атакам, Абдур Рахман и соавторы протестировали системы ИИ с глубоким обучением для выявления COVID-19 и выяснили, что они уязвимы для атак с применением состязательного образца. Они сообщают, что в силу доступности данных о COVID-19, а также потому, что некоторые данные включали публичные данные пациентов с COVID-19 и их атрибуты, они смогли испортить данные и провести скрытые атаки. Им удалось внедрить сфальсифицированные аудио, изображения и другие виды медиа в набор данных для тренировки. Основываясь на этом, Рахман с коллегами призывают к продолжению исследований и использованию специальных механизмов защиты.

Анализ кейсов и примеры, упомянутые в этом разделе, выявляют проблему уязвимости систем машинного обучения и глубокого обучения при применении в медицине. Они показывают, что отсутствие специальных механизмов защиты и контроля может причинить серьёзный вред вследствие изменения результатов.

Кейс 6: несправедливое увольнение

«Автоматика может быть подспорьем для компании, но люди должны иметь возможность вмешаться в ход её работы, если она совершает ошибки», считает Ибрахим Диалло.

Диалло в 2017 году три недели сидел без работы после того, как он был уволен автоматической системой без всяких причин, которые мог бы объяснить его линейный менеджер. Всё началось с неработающего пропуска в его офис в Лос-Анджелесе, из-за которого его выпроводили из здания, «как вора», охранники, получившие волну сгенерированных системой сообщений. 

Диалло говорит, что сообщение, лишившее его работы, было «бездушным, оно было написано красным шрифтом, оно отдавало приказы, которые распоряжались моей судьбой. Отключить это, отключить то, лишить доступа сюда, лишить доступа туда, вывести с территории… Система жаждала крови, и я был её первой жертвой». Спустя три недели его линейный менеджер обнаружил проблему (сотрудник, уволившийся из компании, забыл одобрить действие) и вернул Диалло его права по договору.

Комментируя этот случай, эксперт по ИИ Дейв Коплин отметил: «Это ещё один пример ошибки человеческого мышления там, где оно допускает ситуацию “люди против машин”, а не “люди плюс машины”». Другой комментатор употребил в связи с этим кейсом термин «достоинство», отметив, что «человеческое достоинство и его “уменьшающаяся ценность” [стоят на кону], когда эффективность достигается за счёт активного внедрения искусственного интеллекта и робототехники».

То, что его выдворили из здания как вора, то есть преступника, как выразился Диалло, и без какого бы либо преступного деяния с его стороны, действительно можно расценивать как унижение достоинства. Психологические исследования показывают, что ложное обвинение в преступных деяниях может иметь очень тяжелые последствия для обвиняемого, в том числе для его самоощущения и чувства собственного достоинства.

Однако понятие достоинства оказывается бесполезным в этом кейсе этики ИИ. Оно ничего не даёт для аргументации. Интерпретация через достоинство не двигает дело вперёд. Здесь нет никакой дилеммы, требующей решения. Очевидно, что с человеком нельзя обращаться как с преступником и его нельзя увольнять только за то, что какая-то непрозрачная система не ответила — в данном случае линейному менеджеру Диалло. ИИ, разработанный для того, чтобы помогать управлять кадрами, должен быть понятным, и, как отметил Дейв Коплин, должен работать по принципу «люди плюс машины», а не «люди против машин».

Эта проблема не уникальна для ИИ, в этом можно легко убедиться, если посмотреть на высокий процент успеха в исках о незаконном увольнении, которые подавались работниками. Например, есть данные из Австралии, радикальным образом реформировавшей свои порядок увольнения сотрудников в 2006 году. В работе Фрайенса и Ослингтона указывается, что сотрудники, заявляющие о незаконном увольнении, добивались успеха в 47–48% исков в период 2001–2015 годов (во времена, когда ИИ не мог серьёзно повлиять на обстоятельства дела). Таким образом, почти половина работников, оспоривших своё увольнение, были признаны уволенными незаконно, как Диалло, однако, скорее всего, эти увольнения происходили без участия ИИ.

Проблема кратко сформулирована в работе Гудмен и Киллгеллона с точки зрения работодателей: «ИИ продолжит развиваться и, скорее всего, обгонит людей в некоторых аспектах трудовой жизни. Однако технология имеет обширные последствия, и работодатели должны проявлять осторожность. У ИИ есть два явных недостатка: ошибочное человеческое мнение, что ИИ непогрешим, и непрозрачность его результатов». С точки зрения интересов работников, таких как Ибрахим Диалло, очень важно, чтобы системы, подобные той, что лишила его работы, стали значительно более прозрачными.

Кейс 7: секс-роботы

Понятие достоинства играет большую роль в этических дискуссиях о секс-роботах. Секс-роботы рекламировались как способ «добиться через физическое прикосновение, интимность и сексуальное удовольствие признания “достоинства” людей-инвалидов» и «мужчин и женщин, сексуально отвергнутых другими мужчинами и женщинами». Наряду с этим, однако, утверждается, что «неизменная готовность к сексу, а также возможность заниматься любым его видом, унижает гендерное достоинство и равенство, причиняя вред, рассматриваемый как объективация и коммодификация».

Один из первых секс-роботов, которых можно приобрести, называется Хармони. Женское тело этой секс-куклы оснащено роботизированной головой, которая может поворачиваться, её рот может улыбаться, а глаза — моргать. ИИ робота управляется при помощи приложения, установленного на телефоне владельца. 

Хотя Хармони не может вставать, с ней можно разговаривать, поскольку приложение сохраняет информацию о владельце. Кукла-машина описывалась как «более сложная, сексуальная Алекса», созданная по «очень жёстким стереотипам женственности: узкая талия, большая грудь, крутые бедра, длинные светлые волосы». Хармони и другие секс-роботы оказались в эпицентре жарких этических споров.

Оба этих дискурса ссылаются на внутренне достоинство, которое требует обращаться со всеми людьми уважительно и избегать их объективации. Или, говоря словами Иммануила Канта: «человек […] существует как цель сама по себе, а не только как средство для любого применения со стороны той или другой воли; […] он всегда должен рассматриваться также как цель».

Есть два пути обсуждения потенциальной моральной дилеммы секс-роботов и их воздействия на внутреннее человеческое достоинство. Первый путь связывает права человека с сексуальными правами и сексуальной автономией. Отправной точкой здесь может послужить, например, стратегия Всемирной организации здравоохранения (ВОЗ), считающей «сексуальное благополучие» «фундаментально важным для здоровья и благополучия индивидов», то есть связывающей его со статьей 25 «Всеобщей декларации прав человека»:

Всеобщая декларация прав человека, статья 25

Каждый человек имеет право на такой жизненный уровень […] который необходим для поддержания здоровья и благосостояния его самого и его семьи.

Исторически движение за сексуальные права сосредоточивало внимание на предотвращении вреда, в частности, подчёркивало права девочек и женщин на свободу от сексуального насилия. Позднее то же самое движение сфокусировалось на праве на самовыражение сексуальных склонностей.

Доклад, подготовленный по заказу ВОЗ в 2002 году, перенес внимание с вреда и дискриминации на определение сексуальных прав как «прав человека, которые уже признаются в законодательстве отдельных стран, в международных документах о правах человека и в других заявлениях о консенсусе. Они включают право всех людей […] на то, чтобы вести удовлетворительную, безопасную и приятную сексуальную жизнь». 

У права на удовлетворительную сексуальную жизнь есть ограничение в виде запрета на нарушение прав других людей. От такого рода сексуальной автономии до секс-роботов один шаг.

Если сексуальная свобода — неотъемлемая часть личной автономии, а вмешательство в неё незаконно всегда, когда речь идёт о согласии и частных действиях, тогда в случае, если секс с роботом будет происходить дома, он не будет причинять прямого вреда другим людям и будет подпадать под право покупателя на неприкосновенность частной жизни.

Несмотря на некоторые чересчур оптимистические предсказания о пользе от секс-роботов — например, о том, что они якобы заполнят пустоту в жизни людей, у которых никого нет, тем самым оказав «огромную услугу» человечеству — ключевой момент данной дискуссии — рассмотрение потенциального вреда. А это исходная точка для второго пути в обсуждении потенциальных моральных дилемм секс-роботов и их воздействия на внутреннее человеческое достоинство.

Этот второй путь отталкивается от того, что секс-роботы неизбежно причинят вред. Например, профессор Кетлин Ричардсон, инициатор «Кампании против секс-роботов» предостерегает от «дальнейшей дегуманизации женщины» и стремится «защитить человеческое достоинство женщин и девочек». Она считает, что секс-роботы способствуют распространению модели отношений, в которых покупатели секса могут отключить эмпатию к продавцам секса, и укрепляют отношения власти, в которых одна сторона считается не человеком, а лишь исполнителем потребности, оформленной в соответствии с мужским желанием: только средством, а не целью самой по себе, говоря в категориях Канта.

Взгляды Ричардсон подтверждаются тем, что секс-роботы имеют почти исключительно женский облик, поэтому можно говорить о «рынке, созданном мужчинами для мужчин» и о том, что «развитие технологии направлено, главным образом, на исполнение гетеросексуальных мужских желаний». Таким образом, секс-роботы рассматриваются как продолжение секс-работы (Ричардсон использует термин «проституция»), где «покупатель секса имеет полное право игнорировать состояние другого человека как человеческого субъекта, превращенного в вещь».

Многие комментаторы возразят, что секс-роботов не нужно объективировать, так как они уже вещь. Можно с долей цинизма задать вопрос: какой вред будет от того, что фанатичный поклонник Скарлетт Йоханссон изготовит секс-робота, похожего на неё, который будет ему подмигивать и улыбаться? Это всего лишь вещь, и она даже может принести некоторое благо.

Два подхода к обсуждению этических вопросов о секс-роботах, намеченные выше, также могут быть проиллюстрированы в виде континуума с двумя противоположными полюсами, пересекающимися там, где отправление сексуальной автономии без причинения вреда может считаться аристотелевской золотой серединой. (Аристотель утверждал, что необходимо всегда стремиться найти середину между избытком и недостатком: например, смелость лежит между безрассудством и трусостью.
IQ

16 мая