Donate
Technology and Science

Фреймворк для анализа интереса к данным искусственного интеллекта

Lyoubov Touinova07/08/21 12:19717

АВТОР:

Гри Хассельбалч

В этой статье приводится довод в пользу анализа интереса к данным с помощью искусственного интеллекта (ИИ), который исследует, как различные интересы в данных усиливаются или ограничиваются дизайном. В статье используется группа экспертов высокого уровня ЕС по этическим принципам ИИ для надежного ИИ в качестве прикладного этического подхода к интересам данных с ориентированной на человека рамкой этического управления и, соответственно, предлагаются вопросы, которые помогут сбалансировать конфликты между интересами человека к данным. и другие интересы в области искусственного интеллекта.

Первоначально опубликовано в First Monday , Volume 26, Number 7 — 5 июля 2021 г.

https://journals.uic.edu/ojs/index.php/fm/article/download/11091/10168

Потоки данных. Преобразование данных. Данные переходят из рук в руки, тела и контейнеры. Следующим рубежом в эпоху больших потоков данных являются системы искусственного интеллекта (ИИ), которые разработаны, чтобы содержать и анализировать большие объемы данных и действовать на основе этих знаний. По мере того как системы данных ИИ интегрируются в общество, они также превращаются в очаги переговоров между различными интересами к данным, которые объединяются, появляются и расходятся в структуре данных ИИ как симптом и условие распределения агентских полномочий и полномочий в обществе. В этой статье содержится аргумент в пользу исследования интересов данных в ИИ, чтобы помочь сделать этический выбор при разработке ИИ.

В конце 2010-х термин «искусственный интеллект» получил широкое распространение в общественном дискурсе. Деловые и технологические компании начали переименовывать свои усилия в области больших данных в «ИИ» (Elish and Boyd, 2018), и в процессе разработки политики ИИ стал элементом стратегической важности во всем мире. В государственном и частном секторах процессы принятия решений постепенно основывались на системах искусственного интеллекта для больших данных и даже заменялись ими. Системы рекомендаций и персонализации профилировали и анализировали наши личные данные и определяли для людей, что они видят, читают и с кем взаимодействуют в Интернете. Системы оценки судебных рисков искали закономерности в биографии подсудимых, чтобы информировать судей о том, кто с наибольшей вероятностью совершит преступление в будущем. Системы сортировки обрабатывали медицинский и демографический анамнез пациентов, чтобы решить, кому достанется почка.


Несколько других этических руководств и наборов принципов для ИИ, такие как эти, в то время были созданы различными группами заинтересованных сторон. Было показано, что большинство из них имеют общие темы (Fjeld and Nagy, 2020; Floridi, et al. , 2018; Jobin, et al. , 2019; Winfield and Jirotka, 2018). Тем не менее, хотя тематическая конвергенция действительно актуальна при поиске общего глобального консенсуса в отношении прикладных этических подходов к ИИ, я хочу утверждать, что каждое руководство также имеет уникальную точку отсчета и, что важно, расположено в различных культурных, социальных и правовых рамках.

На этом фоне сформировалась институционально оформленная европейская повестка дня в области ИИ с упором на «этические технологии» и «Надежный ИИ». Этот прикладной подход к этике ИИ был описан в основных документах и ​​заявлениях в процессе, в котором, помимо прочего, участвовала независимая многосторонняя экспертная группа по ИИ («Группа экспертов высокого уровня ЕС по ИИ», AI HLEG), которая в 2019 году опубликовала «Принципы этики надежного ИИ».Руководящие принципы AI HLEG были сформулированы с ориентированным на человека подходом к разработке ИИ: «Человекоцентричный подход к ИИ направлен на то, чтобы человеческие ценности занимали центральное место в способах разработки, развертывания, использования и мониторинга систем ИИ… »[ 1 ]. В конце 2010-х годов этот «ориентированный на человека» подход был термином и темой, которые возникли в политическом дискурсе по ИИ без общей концептуализации, кроме акцента на особой роли и статусе людей (например, ОЭСР, 2019; Европейский парламент, 2019 г.). Тем не менее, работа AI HLEG с руководящими принципами этики с самого начала была оформлена в виде особой европейской повестки дня, созданной для обеспечения развития европейской экосистемы искусственного интеллекта (Hasselbalch, 2020). Таким образом, руководящие принципы были также основаны на европейской правовой базе основных прав и европейской правовой реформе по защите данных с упором на автономию и достоинство отдельного человека.

Политическая идея о том, что развитие социотехнической системы может быть основано на всеобъемлющей этической рефлексии, такой как ориентированная на человека, привлекает внимание к моральным качествам технологий, то есть, соответственно, к их встроенным «ценностям» или их «политике».». Далее я описываю системы ИИ как агентов, которым люди делегируют реализацию различных интересов в обществе. Признание этого типа делегированного представительства интересов позволяет нам разрабатывать и проектировать с этической рефлексией, ориентированной на человека, и делать выбор соответственно. Я начинаю с рассмотрения понятий «человеческий интерес» и «интересы данных».2]. В то время как прикладной этический подход, такой как проектирование с учетом ценностей (VSD), позволяет нам изолировать саму фазу проектирования системы данных для анализа способа согласования ценностей заинтересованных сторон в процессе проектирования, структура науки о технологиях (STS) рассматривает силы (моральные или политические качества) технологий как динамические концепции в постоянных взаимодействиях с социальными факторами.

Здесь я перехожу к описанию интересов данных в этических принципах AI HLEG. Поскольку AI HLEG явно не рассматривает интересы данных как таковые, я использую метафорический анализ как инструмент, чтобы проиллюстрировать позицию руководящих принципов о том, как разрешать конфликты между различными интересами данных.

Эта статья не касается ни философской концепции ИИ, ни научного стремления создать машинный интеллект человеческого уровня. В нем рассматривается практическое внедрение ИИ в обществе в качестве систем с интенсивным использованием данных и используется особый прикладной этический подход к разработке этих систем, предложенный AI HLEG. Таким образом, основное внимание уделяется машинному обучению, которое по сути представляет собой систему обработки данных с разной степенью автономности. К концу 2010-х годов увеличенная мощность компьютеров и огромный объем данных, генерируемых в обществе, позволили технологиям машинного обучения развиваться и учиться распознавать лица на изображениях, распознавать речь по звуку, автономно управлять автомобилем и понимать людей, как, например, услуги и информация по микротаргетингу и т. д.

Все они применялись на практике, более или менее автономные системы обработки данных, принятые компаниями и государствами, чтобы не только решать простые проблемы, анализировать и оптимизировать разрозненные наборы данных, но и действовать в режиме реального времени, отслеживая непосредственное окружение и поддерживая критически важные процессы принятия решений человеком. Таким образом, их этическое значение в отношении человеческой деятельности и участия возникло из систем распределенного принятия моральных решений между людьми и «нечеловеческими» агентами.

Человеческий интерес к развитию ИИ

Человекоцентричный подход к ИИ стал общим акцентом в политических дебатах по ИИ в конце 2010-х годов и, как правило, связан с благополучием отдельного человека, общества и окружающей среды людей при проектировании, разработке и внедрении. ИИ. Как следует из этого, ключевой акцент делается на разработке ИИ, которая ставит во главу угла человеческое участие, человеческую волю и принятие человеческих решений. В контексте европейской политики это в первую очередь связано с автономией, достоинством и основными правами отдельного человека. В качестве основных концепций европейской системы основных прав, которые составляют часть основных принципов европейского права, человекоцентричный подход, следовательно, здесь также выходит за рамки озабоченности только проектированием систем искусственного интеллекта, создавая социально-техническую среду, в которой основные права осуществимы.


Системы искусственного интеллекта были развернуты в различных секторах общества с 1980-х годов. Они произошли от основанных на правилах экспертных систем, закодированных на основе знаний специалистов-людей, которые применялись в основном в человеческой и физической среде, в системы машинного обучения, развивающиеся и обучающиеся на основе больших данных в цифровой среде с все более автономным агентством и возможностями принятия решений (Алпайдин , 2016). Несмотря на то, что машинное обучение в определенной степени исключало человека-эксперта, оно не исключало полностью человеческого участия в самом проектировании данных системы. Напротив, степень автономности системы ИИ, например, определяется участием человека в обработке данных от определения проблемы, сбора данных и очистки данных до обучения алгоритма машинного обучения (Лер и Ом, 2017). Лер и Ом называют участие человека в процессах машинного обучения «игрой с данными».

Алгоритмы машинного обучения, как они заявляют, не являются «волшебными» черными ящиками с загадочной внутренней работой. Фактически, они представляют собой «сложные результаты напряженного человеческого труда — труда данных, ученых, статистиков, аналитиков и программистов»

Таким образом, мы можем связать человеческий интерес к данным ИИ с практической точки зрения как участие человеческих субъектов в самом проектировании данных, использовании и реализации ИИ. В руководящих принципах этики ГЭВУ искусственного интеллекта человекоцентричный подход, например, сформулирован с особым вниманием к интересам отдельного человека, а также к компонентам «человек-командир» и «человеческое вмешательство и надзор» при разработке и условиях для развитие ИИ. Озабоченность человеческим интересом к проектированию данных ИИ также может рассматриваться в более общем плане с точки зрения критического размышления о самом статусе человеческого агентства и агентства ИИ. Реагируя на конфликт в первоначальных стремлениях исследований ИИ создать соответственно машины, которые думают и понимают сами по себе, или машины, которые «просто» обрабатывают информацию и решают проблемы для людей, В 1980 году Сирл утверждал, что сильный искусственный интеллект «мало что может сказать нам о мышлении, поскольку он не о машинах, а о программах, и никакая программа сама по себе не достаточна для мышления». [5 ] Сегодняшний публичный дискурс об ИИ несет в себе следы первого стремления создать агентов с искусственным интеллектом, сопоставимых с человеческим агентом, и, соответственно, концепции неминуемых потенциалов или угроз ИИ. Например, опасения по поводу агентов ИИ, которые заменяют человеческую рабочую силу, или артистизма и творчества новых систем ИИ, представляют собой воображение автономного, неконтролируемого человеком искусственного агента. Таким образом, можно утверждать, как это делают Эллиш и Бойд (2018), что этот тип «магии», окружающей искусственный интеллект, также лишает нас сил в том, что мы думаем, что можем делать с ИИ.

В этом направлении еще один «человекоцентричный» призыв к действию был сделан Шпикерманн (2017) в ее «Анти-трансгуманистическом манифесте», который прямо противостоит представлению о человеке как простом информационном объекте, ничем не отличном от других информационных объектов (не являющихся объектами информации). человеческие агенты), которую она описывает как «выражение желания управлять посредством вычислений» [ 6 ]. Таким образом, человекоцентричный подход может быть изображен как более общий интерес к участию людей в управляющих структурах их технической среды (Deleuze, 1992).

Основываясь на этой концепции подхода, ориентированного на человека, я намеренно проводил различие между «человеком» и «агентом, не являющимся человеком». Другими словами, ИИ можно определить как сложные социотехнические системы данных, наделенные интересами и обеспечивающие свободу действий для различных групп заинтересованных сторон в обществе, но в то же время сама концепция автономного агентства ИИ может рассматриваться как неоднозначная. Таким образом, ориентированное на человека распределение власти может быть реализовано с помощью компонентов дизайна ИИ, которые позволяют агентству и критическому отражению людей в полуавтономных системах, и поэтому мы можем также утверждать, что это очень человеческий компонент ИИ. разработка и использование системы, которые должны быть в центре внимания этического подхода к управлению ИИ, ориентированного на человека.

Интересы данных по дизайну

Технологический дизайн — это динамический процесс, который одновременно формируется обществом и формирует общество [ 7 ]. Он включает в себя ряд разнообразных факторов, технологических, социальных, политических, экономических, а также индивидуальных профессиональных навыков и предубеждений инженеров, которые «бросаются в плавильный котел всякий раз, когда проектируется или строится артефакт» [ 8 ]. Тем не менее, как утверждают Бийкер и Ло (1992), технологии не отражают их собственную внутреннюю логику; им придают форму, иногда даже «вдавливают» в определенную форму, которая «могла бы быть иначе» [ 9]. С этой точки зрения мы можем рассматривать интересы встроенных данных в самом технологическом проекте как компонент в сети факторов, которые в определенной степени можно руководствоваться «этически». Сама эта ориентация на дизайн как один из компонентов этического управления также может быть названа подходом «этика по замыслу», который направлен на разработку методов и инструментов для проектирования этического поведения автономных агентов, гарантирующих, что они ведут себя в «заданных моральных рамках» [ 10 ].

Идея о том, что человеческие ценности могут быть намеренно воплощены в компьютерных технологиях, была первоначально сформулирована Фридманом и партнерами в 1990-х годах и с тех пор подверглась дальнейшему исследованию в рамках прикладной этики ценностно-чувствительного дизайна (VSD) (Friedman, 1996; Friedman, et al., 2006; Фридман и Ниссенбаум, 1997, 1995). В VSD заложенные в технологии ценности рассматриваются как этические дилеммы или моральные проблемы, которые необходимо решить в самой конструкции компьютерных технологий. В этом контексте интерес к данным может быть описан как намерение или мотив, которые преобразуются в определенные свойства технологии данных, которая упорядочивает данные таким образом, чтобы поддерживать агентство определенных интересов в данных, которые хранятся, обрабатываются и анализируются технология AI. Прикладной этический подход VSD здесь будет направлен на разрешение конфликта интересов данных в самом дизайне технологии. Например, можно рассматривать интерес человека к «конфиденциальности» как ценность, на которую отрицательно влияет конкретный дизайн технологии, требующей больших объемов данных, и, соответственно, предложить альтернативный дизайн, в котором конфиденциальность намеренно встроена в эту технологию (например, с подходом «конфиденциальность по дизайну» [Cavoukian, 2009]). В VSD интересы соотносятся с ценностями, которых придерживаются заинтересованные стороны, и на которые может отрицательно повлиять или поддержать дизайн технологии. Таким образом, цель состоит в разработке аналитических рамок и методологий для перебалансирования распределения интересов и попытки разрешения конфликтов между потребностями и ценностями, которых придерживаются эти заинтересованные стороны при разработке компьютерной технологии (Umbrello, 2019; Umbrello and De Bellis, 2018). . Этот анализ заинтересованных сторон можно также распространить на контексты политики, в которых обсуждается разработка технологии. Umbrello [ интересы соотносятся с ценностями, которых придерживаются заинтересованные стороны, и на которые может отрицательно повлиять или поддержать дизайн технологии. Таким образом, цель состоит в разработке аналитических рамок и методологий для перебалансирования распределения интересов и попытки разрешения конфликтов между потребностями и ценностями, которых придерживаются эти заинтересованные стороны при разработке компьютерной технологии (Umbrello, 2019; Umbrello and De Bellis, 2018). . Этот анализ заинтересованных сторон можно также распространить на контексты политики, в которых обсуждается разработка технологии. Umbrello [ интересы соотносятся с ценностями, которых придерживаются заинтересованные стороны, и на которые может отрицательно повлиять или поддержать дизайн технологии. Таким образом, цель состоит в разработке аналитических рамок и методологий для перебалансирования распределения интересов и попытки разрешения конфликтов между потребностями и ценностями, которых придерживаются эти заинтересованные стороны при разработке компьютерной технологии (Umbrello, 2019; Umbrello and De Bellis, 2018). . Этот анализ заинтересованных сторон можно также распространить на контексты политики, в которых обсуждается разработка технологии. Umbrello [ цель состоит в том, чтобы разработать аналитические основы и методологии для перебалансирования распределения интересов и попытаться разрешить конфликты между потребностями и ценностями, которых придерживаются эти заинтересованные стороны при разработке компьютерных технологий (Umbrello, 2019; Umbrello and De Bellis, 2018). Этот анализ заинтересованных сторон можно также распространить на контексты политики, в которых обсуждается разработка технологии. Umbrello [ цель состоит в том, чтобы разработать аналитические основы и методологии для перебалансирования распределения интересов и попытаться разрешить конфликты между потребностями и ценностями, которых придерживаются эти заинтересованные стороны при разработке компьютерных технологий (Umbrello, 2019; Umbrello and De Bellis, 2018). Этот анализ заинтересованных сторон можно также распространить на контексты политики, в которых обсуждается разработка технологии. Umbrello [11 ], например, определили конкретные ценности (конфиденциальность данных, доступность, ответственность, подотчетность, прозрачность, объяснимость, эффективность, согласие, инклюзивность, разнообразие, безопасность, контроль) в отчетах комитета по доказательствам Специального комитета Великобритании по искусственному интеллекту, отслеживая их непосредственно до различных групп заинтересованных сторон, участвующих в работе комитета (ученые, некоммерческие организации, правительственные органы и промышленность / для получения прибыли), устанавливают порядок их распределения).

Информационные интересы в обществе

Интересы данных могут быть подробно изучены на разных этапах проектирования и развертывания ИИ. Ежедневно происходят переговоры между представителями различных слоев общества с использованием очень материальных ресурсов цифровых данных. Эти переговоры по интересам данных представлены в конкретном развертывании технологий искусственного интеллекта. Они представляют цели, ценности и потребности отдельных микроклиентов заинтересованных сторон, от разработчиков до пользователей, институциональные или бизнес-интересы в данных, или они могут даже отражать макрокультурные настроения или социальные структурные требования. Интересы данных могут быть согласованы или конкурировать, некоторые из них явно учитываются, но многие вообще не рассматриваются в процессе разработки или развертывания ИИ. Примером может служить «приложение для няни» Predictim, которое использует алгоритмы языковой обработки и программное обеспечение AI для распознавания изображений для анализа сообщений соискателей работы в социальных сетях для создания отчета о личности с оценкой риска (Harwell, 2018). На первый взгляд, разработчики приложений заинтересованы в улучшении функциональности ИИ, обогащая его данными из социальных сетей. С точки зрения пользователей приложения, они (как работодатели) заинтересованы в выводах, полученных в результате анализа данных приложения. С другой стороны, соискатели могут быть заинтересованы в сохранении конфиденциальности своих данных в социальных сетях или просто в просмотре отчета на основе своих данных, который доступен только работодателям. Facebook и Twitter также интересовались данными социальных сетей, обрабатываемыми приложением, и поэтому запретили приложение на своих порталах. Генеральный директор Predictim сказал, что компания не делала ничего плохого: «Все ищут людей в социальных сетях, они ищут людей в Google» (Ли, 2018). Чего он не учел, так это сдвига в общественном интересе к данным ИИ; то есть растущее беспокойство по поводу социальных последствий технологий больших данных.

Как классическая социологическая концепция, интересы считаются основными детерминантами социального действия [ 12 ]. Интересы поддерживаются и усиливаются в социальных процессах, которые определяют динамику власти в обществе. Недавние исследования в различных областях науки проиллюстрировали конкретные примеры социальных последствий ИИ, подчеркнув властные отношения и интересы, которые играют в развитии и принятии ИИ обществом.

Системы данных и математически разработанные алгоритмы не являются беспристрастным или объективным представлением мира, они связаны с интересами сильных мира сего — правительств, государственных учреждений и отраслей больших данных. Поэтому они инициируют действия с этическими и социальными последствиями.

Примеры социальных и этических последствий ИИ и систем с интенсивным использованием данных в целом многочисленны. О'Нил (2016) описывает то, что она называет «оружием математического уничтожения» (ОМУ), которое, без сомнения, развертывается частными и государственными субъектами, как нейтральные и объективные системы, заменяющие человеческое принятие решений и оценку с разрушительными последствиями для граждан. Учитель теряет работу из–за жесткой машинной оценки результатов, не учитывающей социальные контексты и человеческие факторы; к молодому человеку из неблагополучного района приезжает полиция, потому что он использует инструмент для прогнозирования преступлений. Паскуале (2015) также беспокоит все более широкое использование автоматизированных процессов для оценки рисков и распределения возможностей. Он утверждает, что это контролируются частными компаниями, которые также являются наиболее прибыльными и важными частями информационной экономики. Еще один известный пример соотношения сил при внедрении систем искусственного интеллекта — это исследование «машинной предвзятости», опубликованное новостным сайтом ProPublica. Здесь Ангвин вместе с командой журналистов и специалистов по обработке данных изучил алгоритм COMPAS частной компании Northpointe, который используется для оценки рисков обвиняемых в судебной системе США и оценки вероятности рецидива после освобождения (Angwin,и другие. , 2016). Они обнаружили предвзятость в отношении черных подсудимых в алгоритме, который имел тенденцию назначать черных подсудимых в качестве возможных повторных преступников в два раза больше, чем это было с белыми подсудимыми. В то же время он чаще относил белых, а не черных обвиняемых к группе низкого риска.

Делегированное агентство AI

Виннер (1980) описывает технологии как «способы построения порядка в мире», как активные «структурирующие действия», с помощью которых «разные люди находятся по-разному и обладают неравными степенями власти, а также разными уровнями осведомленности» [ 13 ]. Он утверждает, что технологии не являются нейтральными инструментами, но имеют встроенную политику. Они являются местом распределения общественных сил, сформированных человеческими мотивами, и поэтому они также олицетворяют «власть и авторитет» [ 14 ].

В социотехнической среде больших данных мы также можем считать себя заблокированными в определенных положениях, предписываемых «политикой» различных комбинаций наборов данных, которые либо предоставляют нам доступ, либо ограничивают доступ к информации и связям, которые могут быть преобразованы в потерянные.


Используя перспективу экономических теорий об агентстве, мы можем здесь рассмотреть информационные отношения между «агентами», которые управляют (социальными и / или экономическими) интересами «принципалов». В качестве примера агент может быть агентом по недвижимости, а принципалом может быть покупатель и / или продавец собственности, чьи основные экономические интересы обсуждаются в информации, содержащейся и совместно используемой в контрактах и ​​отношениях. Применяя эту точку зрения в социальной теории, основная идея состоит в том, что мы очень часто в обществе не обсуждаем наши собственные интересы. Мы выделили агентов, которые ведут переговоры от нашего имени (Шапиро, 2005). То есть мы делегируем полномочия по принятию решений агентам, которые должны представлять наши интересы. Таким образом, агент может, например, также быть национальным государством,

Концепция «информационной асимметрии» между принципалами и агентами и, как следствие, компромиссы между интересами имеет ключевое значение для критического анализа агентских отношений (Shapiro, 2005). Неучтенная массовая слежка за гражданами государства представляет собой информационную асимметрию; то же самое делает компания социальных сетей в отношении непрозрачного сбора и обработки личных данных своих пользователей. Обе формы асимметрии имеют прямое влияние на деятельность граждан и отдельных лиц.

Идея о том, что наше агентство определяется информационными отношениями, которые у нас есть с различными типами экономических, социальных или политических представителей, которые обсуждают интересы от нашего имени, имеет отношение к анализу интереса к данным с помощью ИИ. То есть мы все чаще делегируем принятие решений технологиям искусственного интеллекта со встроенными компромиссами между различными интересами, которые могут коррелировать с нашими собственными интересами или противоречить им. Следовательно, мы можем рассматривать технологии искусственного интеллекта как «моральных агентов», но не как моральных агентов как таковых (Adam, 2008) и способных самостоятельно принимать моральные решения, а как агентов, которым люди делегируют исполнение различных интересов (Latour , 1992). Таким образом, технологии искусственного интеллекта можно охарактеризовать как агентов, представляющих наши интересы и действующих от нашего имени.

С этой целью сама структура информационных отношений (дизайн данных), которые у нас есть с нашими агентами ИИ, понимание и доступ к данным, представляет собой баланс и компромисс между интересами. Дизайн данных может включать в себя «информационную асимметрию», подразумеваемую иную часть того, что в экономическом агентстве и теории игр называют и стремятся к желаемому состоянию «совершенной информации», в котором все интересы обслуживаются за счет наличия равного количества информации, которую нужно сделать. рациональные решения (Фон Нейман и Моргенштерн, 1953). Конечно, технологическое развитие всегда связано с социальными компромиссами и, следовательно, с этическим выбором. Информация никогда не бывает идеальной. У него есть измерение морального выбора, которое влечет за собой компромисс между интересами, и именно этот выбор требует этической структуры управления.

Этическое управление

Если мы рассматриваем дизайн данных ИИ как тип агента с определенной организацией интересов в отношении данных, который поддерживает или подавляет их соответствующие агентства, основной вопрос, который следует поставить перед разработкой ИИ, заключается в том, сможет ли альтернативный дизайн данных уравновесить конфликты интересов в человекоцентрическая структура на благо отдельного человека. Идея о том, что мы можем разрабатывать технологии и управлять ими, имея в виду цель как таковую, или подход «этика по дизайну», требует акцента на разработке моральных качеств самих технологий, то есть, соответственно, их встроенных «ценностей».»Или их« политика ». Однако это также необходимо понимать в более общем плане с точки зрения распределенного управления, в котором «чувствительный к ценностям дизайн» самого дизайна данных ИИ является только одним компонентом. Таким образом, Когда мы изучаем этические последствия систем на основе ИИ, нам нужно смотреть на то, как они распределяются между активными людьми и нечеловеческими субъектами, и нам нужно понимать их как компоненты сложной социальной, культурной и политической среды. Это также означает, что мы не можем просто превратить моральную норму в технологию и таким образом создать «моральную машину», нам также необходимо обратить внимание на то, как этические последствия развиваются в среде распределенных моральных сил между людьми и акторами, не являющимися людьми. (Латур и Венн, 2002; Латур, 1992), которые постоянно ведут переговоры с использованием, законами и стандартами, культурой и обществом. Социальные и этические последствия систем искусственного интеллекта всегда являются результатом объединенной сети действий и компетенций, распределенных между различными агентствами — проектировщиками данных, инженерами, пользователями, нормами и т. Д. законы, культура и т. д. Если мы, например, рассмотрим гендерную предвзятость метода «встраивания слов» для онлайн-поиска, это не только свойство конкретного дизайна ИИ. Предвзятость и дискриминация являются результатом распределения агентских возможностей между моделью машинного обучения (субъект, не являющийся человеком), которая активно усиливает существующую человеческую предвзятость в своих обучающих данных, обучаясь и развиваясь на основе новостных статей Google (общество и культура) и персонализированных (пользовательские данные).), предписанные дизайном данных (намерения разработчиков), разработанные, принятые и принятые в обществе как «объективное» представление информации (культура), конкретные интерпретации и реализации (или их отсутствие), антидискриминационные правовые рамки или защита данных (закон) , технические стандарты и методы (научные парадигмы) и ряд других факторов.

Уинфилд и Джиротка (2018) приводят доводы в пользу «более инклюзивной, прозрачной и гибкой формы управления робототехникой и искусственным интеллектом (ИИ) с целью создания и поддержания общественного доверия и обеспечения того, чтобы такие системы разрабатывались на благо общества». [ 16 ]. Они утверждают, что этическое управление выходит за рамки просто эффективного и добросовестного управления, но представляет собой «набор процессов, процедур, культур и ценностей, предназначенных для обеспечения высочайших стандартов поведения» [ 17]. Они обращаются к социально-технической природе разработки и внедрения ИИ, в которой техническое неразрывно связано с социальным и наоборот. Поэтому управление развитием робототехники и ИИ с этической структурой требует разнообразных подходов — от подходов на уровне отдельных систем и прикладных областей до институционального уровня. Уинфилд и Джиротка обращаются к инструментам «этического управления», которые необходимы компаниям для разработки и этичного внедрения ИИ. Но здесь я также хочу предложить, чтобы «этическое руководство» ИИ касалось прикладных компонентов этики ИИ в общем управлении социально-техническими системами с распределенной формой власти, в которой интересы данных играют ключевую роль.

В дальнейшем я извлекаю темы, представляющие интерес для данных, из «Руководящих принципов этики для надежного ИИ» (2019), разработанного AI HLEG, назначенным Европейской комиссией. Здесь важно отметить, что по отдельности руководящие принципы не гарантируют ориентированную на человека разработку ИИ. Это; как самостоятельные принципы они не являются решением этической проблемы. Winfield and Jirotka (2018) представляют карту, которая связывает этические принципы с новыми стандартами и правилами, включая уровень проверки и подтверждения. Они также утверждают, что «хотя в робототехнике и искусственном интеллекте нет недостатка в надежных этических принципах, существует мало свидетельств того, что эти принципы еще претворяются в жизнь, то есть в эффективном и прозрачном этическом управлении». [ 18] Это; руководящие принципы этики, такие как ГЭВУ искусственного интеллекта, не «управляют», но они могут вдохновлять, направлять и даже запускать политические, экономические и образовательные процессы, которые способствуют этическому «дизайну» эпохи больших данных, что означает все, начиная с введения новых законов, внедрение политик и практик в организациях и компаниях, разработка новых инженерных стандартов, информационные кампании среди граждан и образовательные инициативы.

Руководящие принципы этики для надежного ИИ

Группа экспертов высокого уровня, разрабатывающая руководство, состояла из 52 членов, представляющих интересы заинтересованных сторон из промышленности, гражданского общества и академических кругов. Хотя установить в контексте политики, группа не является органом политика сама по себе. Европейская комиссия создает многосторонние экспертные группы высокого уровня для информирования о своей политике в различных областях. Они независимы, и Комиссия не принимает непосредственного участия в работе групп, и они не обязательно используют работу этих групп непосредственно при разработке политики. Руководящие принципы по этике были разработаны в течение одного года и включали процесс общественных консультаций по первому проекту, в котором были получены комментарии и включены в текст. Хотя этот процесс с участием многих заинтересованных сторон сам по себе будет актуальным для анализа интереса к данным, в этой статье я сосредотачиваюсь только на самом тексте руководящих принципов, чтобы проиллюстрировать согласование интересов данных с ориентированным на человека подходом прикладной этики. .

Руководящие принципы специально направлены на то, чтобы предоставить практикам ИИ методологию для включения ориентированной на человека структуры в разработку ИИ, а также для управления данными ИИ и управления ими. В руководстве предлагаются три основных компонента Trustworthy AI. ИИ должен быть законным — уважать законы и постановления; этический — уважать этические принципы и ценности; и надежный — с технической точки зрения и с учетом социальной среды. Эти три компонента составляют основу, в рамках которой интерпретируется концепция надежного ИИ. Прежде всего, они относятся к существующей правовой базе; то есть руководящие принципы не являются альтернативой или толкованием закона. Таким образом, первый компонент — соответствие законодательству — считается основой надежного ИИ. Второй «этический» компонент расширен четырьмя этическими основополагающими принципами: уважение к человеческой автономии, предотвращение вреда, справедливость и объяснимость. Третий компонент предназначен для обеспечения устойчивости системы ИИ, чтобы гарантировать безопасное, надежное и надежное поведение системы для предотвращения непреднамеренных неблагоприятных воздействий. В руководстве также представлены семь ключевых требований, которым системы ИИ должны соответствовать, чтобы считаться заслуживающими доверия: человеческое вмешательство и надзор; техническая надежность и безопасность; конфиденциальность и управление данными; прозрачность; разнообразие, недискриминация и справедливость; социальная и экологическая ответственность и аудит. Сюда включен оценочный список, направленный на выполнение этих ключевых требований при разработке, развертывании или использовании систем искусственного интеллекта.

Пять интересов данных и пример

Следующее иллюстрирует ориентированный на человека подход к интересам данных при разработке ИИ, основанный на анализе метафор данных в этических рекомендациях AI HLEG [ 19 ]. Я предлагаю пять групп тем и наборов вопросов, которые могут помочь в исследовании интересов данных при проектировании и разработке ИИ: данные как ресурс, данные как сила, данные как регулятор, данные как видение и данные как риск. Затем я проиллюстрирую ориентированный на человека подход к интересам данных в случае, когда дизайн ИИ явно принимает отправную точку в интересах данных отдельного человека.

Этот анализ не предназначен в качестве всеобъемлющей основы для реализации ориентированного на человека подхода к интересам данных по дизайну, а также не представляет собой полный анализ интересов данных, представленных в руководящих принципах этики. Важно отметить, что это только основанная на ценностях структура интерпретации, которая дополняет, но никоим образом не заменяет реализацию правовых рамок. Я хочу здесь представить ориентированный на человека «компас», который может помочь руководствоваться прикладной этикой посредством конструктивного подхода к интересам данных в разработке и управлении ИИ.

I. Данные как ресурс

Кто или что предоставляет ресурс данных? Кто или что заинтересовано в ресурсе данных? Как распределяется ресурс данных и какую выгоду получает человек?

Кластер «данные как ресурс» касается самого распределения ресурсов данных между заинтересованными сторонами в проектировании данных. В этических принципах данные считаются ресурсом, метафорически отделенным от того, что они представляют (человека или артефакта). Данные могут быть «предоставлены», «доступны», «собраны», «помечены», «извлечены», «использованы», «обработаны», «собраны», «получены» и «помещены» в систему в «структурированном» виде. или «неструктурированный» (слова, используемые в руководстве для описания данных ИИ). Ресурс — это материальная и пространственно разграниченная вещь, то, чем мы можем владеть, помещать в контейнеры или создавать границы вокруг, хранить и обрабатывать, и это то, с чем мы можем быть или без. Метафора ресурсов часто используется в публичном обсуждении больших данных (Puschmann and Burgess, 2014). Уотсон (б.) называет доминирующие метафоры персональных данных в публичном дискурсе «промышленными», как если бы они были «природным ресурсом», который должен обрабатываться «крупномасштабными производственными процессами». Майер-Шенбергер и Цукьер (2013) описывают данные как сырье для эволюции больших данных в индустриальную эпоху. Но метафора «данные как ресурс» на самом деле обозначает две разные вещи. Одним из видов ресурсов в обществе действительно является сырье производственных процессов, которое перерабатывается и превращается в продукты. Другой тип ресурсов — это тот, который делает нас сильнее как личностей. Находчивость также означает, что вы как личность обладаете способностями, а также физическими, психологическими и социальными средствами. Первый тип упомянутых здесь ресурсов — материальный и материальный, второй — социальный и психологический. Но оба являются тем, что Лакофф и Джонсон [ как если бы это был «природный ресурс», который должен использоваться «крупномасштабными производственными процессами». Майер-Шенбергер и Цукьер (2013) описывают данные как сырье для эволюции больших данных в индустриальную эпоху. Но метафора «данные как ресурс» на самом деле обозначает две разные вещи. Одним из видов ресурсов в обществе действительно является сырье производственных процессов, которое перерабатывается и превращается в продукты. Другой тип ресурсов — это тот, который делает нас сильнее как личностей. Находчивость также означает, что вы как личность обладаете способностями, а также физическими, психологическими и социальными средствами. Первый тип упомянутых здесь ресурсов — материальный и материальный, второй — социальный и психологический. Но оба являются тем, что Лакофф и Джонсон [ как если бы это был «природный ресурс», который должен использоваться «крупномасштабными производственными процессами». Майер-Шенбергер и Цукьер (2013) описывают данные как сырье для эволюции больших данных в индустриальную эпоху. Но метафора «данные как ресурс» на самом деле обозначает две разные вещи. Одним из видов ресурсов в обществе действительно является сырье производственных процессов, которое перерабатывается и превращается в продукты. Другой тип ресурсов — это тот, который делает нас сильнее как личностей. Находчивость также означает, что вы как личность обладаете способностями, а также физическими, психологическими и социальными средствами. Первый тип упомянутых здесь ресурсов — материальный и материальный, второй — социальный и психологический. Но оба являются тем, что Лакофф и Джонсон [ Майер-Шенбергер и Цукьер (2013) описывают данные как сырье для эволюции больших данных в индустриальную эпоху. Но метафора «данные как ресурс» на самом деле обозначает две разные вещи. Одним из видов ресурсов в обществе действительно является сырье производственных процессов, которое перерабатывается и превращается в продукты. Другой тип ресурсов — это тот, который делает нас сильнее как личностей. Находчивость также означает, что вы как личность обладаете способностями, а также физическими, психологическими и социальными средствами. Первый тип упомянутых здесь ресурсов — материальный и материальный, второй — социальный и психологический. Но оба являются тем, что Лакофф и Джонсон [ Майер-Шенбергер и Цукьер (2013) описывают данные как сырье для эволюции больших данных в индустриальную эпоху. Но метафора «данные как ресурс» на самом деле обозначает две разные вещи. Одним из видов ресурсов в обществе действительно является сырье производственных процессов, которое перерабатывается и превращается в продукты. Другой тип ресурсов — это тот, который делает нас сильнее как личностей. Находчивость также означает, что вы как личность обладаете способностями, а также физическими, психологическими и социальными средствами. Первый тип упомянутых здесь ресурсов — материальный и материальный, второй — социальный и психологический. Но оба являются тем, что Лакофф и Джонсон [ Одним из видов ресурсов в обществе действительно является сырье производственных процессов, которое перерабатывается и превращается в продукты. Другой тип ресурсов — это тот, который делает нас сильнее как личностей. Находчивость также означает, что вы как личность обладаете способностями, а также физическими, психологическими и социальными средствами. Первый тип упомянутых здесь ресурсов — материальный и материальный, второй — социальный и психологический. Но оба являются тем, что Лакофф и Джонсон [ Одним из видов ресурсов в обществе действительно является сырье производственных процессов, которое перерабатывается и превращается в продукты. Другой тип ресурсов — это тот, который делает нас сильнее как личностей. Находчивость также означает, что вы как личность обладаете способностями, а также физическими, психологическими и социальными средствами. Первый тип упомянутых здесь ресурсов — материальный и материальный, второй — социальный и психологический. Но оба являются тем, что Лакофф и Джонсон [20] будет называться «контейнерными» метафорами, сущностями с границами, с которыми мы можем справиться и рассуждать о них. Впоследствии данные как ресурс можно защищать и регулировать весьма осязаемыми способами, и в каждом случае задействованы интересы микро- и макро-заинтересованных сторон в этих структурах управления и управления ресурсами. В очень широком смысле отрасли заинтересованы в исходном материале своих бизнес-моделей, основанных на данных: политические игроки заинтересованы в предоставлении обширных инфраструктур данных для инноваций в области ИИ, чтобы они могли конкурировать на глобальном рынке; инженер заинтересован в объемах данных для обучения и улучшения системы искусственного интеллекта; люди заинтересованы в защите изобретательности своих личных данных или даже в расширении своих ресурсов данных путем создания собственных репозиториев данных и, соответственно, извлечения выгоды из них напрямую (что представляет собой «доверие к данным» или «перемещение хранилищ личных данных»). Очевидно, что отношение к психологическим и социальным ресурсам людей как к материальным ресурсам производственной линии представляет собой конфликт интересов в отношении данных. Но, кроме того, информационная асимметрия также создает очень ощутимые социальные и экономические разрывы между богатыми данными и бедными данными, что является конфликтом интересов на более общем структурном уровне общества. В руководстве21 ]). Однако данные и управление ими в первую очередь связаны с конфиденциальностью и защитой отдельного человека (третье из требований руководящих принципов, [ 22 ]). Тесно связанная с этическим принципом «предотвращение вреда», защита данных как социального и психологического ресурса человека в руководящих принципах описывается как «защита человеческого достоинства, а также психической и физической неприкосновенности» [ 23 ]. Это включает особое внимание к социально уязвимым группам или отдельным лицам. Надлежащее управление ресурсом персональных данных описывается как основное средство «позволить людям доверять процессу сбора данных» [ 24] и, следовательно, формирует основу для разработки «Надежного ИИ». В качестве примера разработчик ИИ будет использовать различные ресурсы данных для проектирования системы ИИ. Эти ресурсы данных они должны либо обрабатывать на своих компьютерах, либо они могут использовать более мощные облачные платформы искусственного интеллекта, например, Google или Amazon. Однако, делая это, они также должны делиться своими ресурсами данных с этими участниками. Если уделять приоритетное внимание интересам данных физических лиц, например, при работе с личными данными, они должны быть уверены, что эти компании делают то же самое. Это влечет за собой выбор дизайна интереса к данным. Более того, разные субъекты могут иметь интересы в ресурсе данных. Например, если разработчик создает систему искусственного интеллекта для оценки работы сотрудников, сотрудник может быть заинтересован в создании более крупного ресурса данных, который может оценивать мельчайшие детали рабочего дня сотрудников. Работодатель может даже захотеть собрать данные о сотрудниках за пределами рабочего места из социальных сетей, чтобы система искусственного интеллекта предсказывала потенциальные риски для рабочего места, такие как, например, поиск работы. С другой стороны, сотрудники заинтересованы в ограничении ресурса данных до определенного предела, и профсоюз, представляющий этих сотрудников, также может захотеть принять участие в защите интересов людей, которых они представляют, в отношении данных.

II. Данные как сила

Кто уполномочен или лишен прав доступа и обработки данных? Поддерживает ли дизайн данных власть человека и агентство данных? Как разрешаются конфликты между различными интересами к данным на благо человека?

Второй кластер «данные как мощность» тесно связан с первым кластером «данные как ресурс», поскольку распределение ресурсов также составляет распределение мощности. Общество основано на балансе сил между социальными группами, государствами, компаниями и гражданами. Демократическое общество, например, представляет собой один из типов властных структур, в котором руководящие полномочия всегда уравновешиваются уровнем власти граждан. Распространение данных / информации равносильно распределению власти в обществе. Лион предполагает «этику практики больших данных» [ 25], чтобы пересмотреть неравное распределение власти, встроенное в технологические системы больших данных. В руководящих принципах изменение динамики власти рассматривается в свете асимметрии информации между отдельными лицами и учреждениями и компаниями, которые собирают и обрабатывают данные в цифровых сетях, где системы искусственного интеллекта являются собеседниками (агентами) этого типа информационной мощи: следует также обратить внимание на ситуации, когда системы ИИ могут вызывать или усугублять неблагоприятные воздействия из–за асимметрии власти или информации, например, между работодателями и сотрудниками, предприятиями и потребителями или правительствами и гражданами ». [ 26]. Доступ к данным или владение ими здесь связано с доминированием одних социальных групп / или институтов, предприятий над другими, но также и с самой функцией демократических / или «справедливых» процессов, когда доступ к информации и объяснение обработки данных («Принцип объяснимости» [ 27 ]), является основой «подотчетности» и «справедливости» («Без такой информации решение как таковое не может быть оспорено должным образом» [ 28 ]). Предлагаемые решения по проектированию данных здесь связаны с концепцией «человеческого фактора», который поддерживает «информированные автономные решения в отношении систем ИИ» или «осознанный выбор в соответствии с их целями» [ 29 ].

Например, доступ к данным и процессам обработки данных в системе может дать журналисту-расследователю или исследователю возможность бросить вызов системе ИИ. Исследователя интересуют данные системы, что может быть ограничено интересом компании к сохранению собственных алгоритмов и дизайна данных. В связи с машинным исследованием смещения программного обеспечения Compass, исследователи не имели доступа к расчетам, используемым для оценки риска обвиняемых. В какой-то момент они получили основы формулы будущего преступления от компании Northpointe, но она никогда не делилась конкретными расчетами, которые, по ее словам, были собственными (Angwin, et al. , 2016).

III. Данные как регулятор

Каким интересам будет служить реализация закона и что будет в приоритете? Действительно ли структура данных системы искусственного интеллекта усиливает ценности закона или просто не соблюдает? Существуют ли конфликты между интересами в отношении больших данных и ценностями, заложенными в защиту отдельного человека в правовой базе, такой как GDPR? Как они решены в дизайне?

Третий кластер, «данные как регулятор», представляет собой правовое обеспечение сбалансированности интересов данных. В идеальном созвездии закон и технологический дизайн дополняют друг друга. Технологический дизайн — это своего рода «регулятор», который либо защищает, либо препятствует законным ценностям. «Код есть закон», как формулирует его Лессиг (2006), цитируя концепцию Рейденберга «lex informatica», которая связывает выбор технологического дизайна и нормотворчество с управлением в целом и понимает, что эти два неразделимы, причем первое обеспечивает соблюдение другого [ 30]. Хотя подчеркивается, что руководящие принципы не заменяют существующие законы, и поэтому первый компонент заслуживающего доверия ИИ, «законный ИИ», является лишь подтверждением соблюдения правовых рамок, можно утверждать, что в руководящих принципах по-прежнему рассматривается «lex informatica».»Законного ИИ:« Руководящие принципы прямо не касаются первого компонента Надежного ИИ (законного ИИ), а вместо этого нацелены на предоставление рекомендаций по развитию и защите второго и третьего компонентов (этичный и надежный ИИ) »[ 31 ]. На протяжении всего текста дизайн ИИ связан с реализацией правовых принципов. Дизайн данных технологии искусственного интеллекта здесь описывается как важный для проверяемости и подотчетности системы искусственного интеллекта [ 32], что обеспечивает возможность его оценки и оценки, а также возможность реализации принципа объяснимости («Без такой информации решение не может быть оспорено должным образом» [ 33 ]). Таким образом, метафора «данные как регулятор» подчеркивает роль конкретного дизайна данных в правовом применении и реализации закона в обществе («системы искусственного интеллекта могут в равной степени обеспечивать и препятствовать основным правам» [ 34]). Это также означает, что даже несмотря на то, что при разработке технологии искусственного интеллекта рассматривается соблюдение Общего европейского регламента защиты данных (GDPR; Европейский парламент, 2016), оно может или не может фактически реализовывать правовые принципы этого закона в его самом дизайн данных. В контексте микротехники проблемами проектирования таких технологий, требующих обработки больших объемов данных, как ИИ, являются, например, разработка дизайна данных, реализующего такие принципы, как минимизация данных, конфиденциальность (защита данных) посредством дизайна или право на (информацию) объяснение. Интересы различных заинтересованных сторон в дизайне данных также могут вступать в противоречие с правовой базой, такой как Рамочная основа основных прав, в которой интересы данных отдельных лиц являются первостепенной ценностью. Например, недемократические государственные субъекты заинтересованы в данных для целей социального контроля; бизнес-интересы в отслеживании и сборе данных для улучшения своих бизнес-моделей на основе данных без учета прав отдельных лиц или аналогичные научные интересы в улучшении исследований с помощью аналитики больших данных без этих соображений. В этических принципах упоминаются некоторые из самых серьезных юридических проблем, связанных с ИИ в рамках европейской системы основных прав — массовое наблюдение, дискриминация, подрыв демократических процессов — и предлагаются альтернативные варианты дизайна, воплощенные в концепции надежного ИИ. или аналогичные научные интересы в улучшении исследований с помощью аналитики больших данных без этих соображений. В этических принципах упоминаются некоторые из самых серьезных юридических проблем, связанных с ИИ в рамках европейской системы основных прав — массовое наблюдение, дискриминация, подрыв демократических процессов — и предлагаются альтернативные варианты дизайна, воплощенные в концепции надежного ИИ. или аналогичные научные интересы в улучшении исследований с помощью аналитики больших данных без этих соображений. В этических принципах упоминаются некоторые из самых серьезных юридических проблем, связанных с ИИ в рамках европейской системы основных прав — массовое наблюдение, дискриминация, подрыв демократических процессов — и предлагаются альтернативные варианты дизайна, воплощенные в концепции надежного ИИ.

IV. Данные как глаза

Могут ли люди, участвующие в разработке и реализации, «увидеть» процессы обработки данных и их значение? Что дизайн данных видит (данные обучения), а затем воспринимает (как ему предписывается действовать с данными обучения)?

Четвертый кластер, «данные как глаза», представляет собой то самое агентство, которое занимается дизайном данных и представляет интересы данных, которые здесь могут быть приравнены к видению (что мы можем видеть или нет, и как мы это видим) в системах цифровых данных. В идеальном созвездии зрение — это легкое продолжение наших глаз. Однако в среде, основанной на цифровых данных, инструменты (наши цифровые глаза), которые мы используем, чтобы видеть и воспринимать окружающую среду, буквально расширяются в дизайн данных, который представляет собой управление тем, что мы можем видеть.

Как обсуждалось ранее, дизайн данных также действует как моральный агент, поскольку он предписывает и управляет нашим активным взаимодействием с информацией, которую он обрабатывает, а также с цифровой информационной инфраструктурой, в которой он существует. В этических принципах глаза и зрение воплощены в системах данных. В то время как данные описываются как сенсорная система технологии, на основе которой они развивают свой способ действия («восприятие окружающей среды посредством сбора данных, интерпретация собранных структурированных или неструктурированных данных, обоснование знаний или обработка информации, полученной из этих данных, и принятие решений». наилучшие действия, которые необходимо предпринять для достижения поставленной цели »[ 35] данные также являются «глазами» человека. Данные будут, например, «определять решение системы ИИ, в том числе о сборе данных и маркировке данных, а также об используемых алгоритмах…» [ 36]. Понятие «прозрачность» используется в самом буквальном смысле для обозначения нашей способности видеть процессы обработки данных, которые следует документировать и отслеживать. В этом контексте обработка данных алгоритмами «черного ящика» (Паскуале, 2015) может затуманивать наше видение или закрывать глаза на логику системы ИИ. Можно сказать, что управление видимостью, то есть сама архитектура видимости появляющейся технологической среды, составляет способ социальной организации и распределения полномочий (Brighenti, 2010; Flyverbom, 2019). То, что делается видимым, что остается невидимым, и, что важно, кто наделен полномочиями видеть сквозь социальную организацию видимости, напрямую влияет на проявление интересов в обществе. Именно это и делают глаза как дизайн данных технологии искусственного интеллекта. Чтобы привести пример, мы могли бы создать систему искусственного интеллекта для анализа данных людей о социальных пособиях. Это может быть панель управления для социальных работников государственного учреждения, которая предоставляет общие статистические данные, информацию об обнаружении мошенничества и оценки рисков для отдельных лиц. Панель управления — это наши глаза в системе ИИ. В этом случае только интерес социального работника к данным имеет глаза, как и заинтересованность государственного учреждения в контроле государственных ресурсов и оптимизации рабочих процессов. Но мы могли бы также подумать о других типах дизайна данных, в которых люди, работающие в сфере социального обеспечения, смотрят через доступ к данным и, следовательно, могут, например, добавлять и исправлять некорректные данные или персонализировать предоставляемые им услуги. выявление мошенничества и оценка риска для отдельных лиц. Панель управления — это наши глаза в системе ИИ. В этом случае в глаза обращают внимание только интерес социального работника к данным, а также интерес государственного учреждения в контроле государственных ресурсов и оптимизации рабочих процессов. Но мы могли бы также подумать о других типах дизайна данных, в которых люди, работающие в сфере социального обеспечения, смотрят через доступ к данным и, следовательно, могут, например, добавлять и исправлять некорректные данные или персонализировать предоставляемые им услуги. выявление мошенничества и оценка риска для отдельных лиц. Панель управления — это наши глаза в системе ИИ. В этом случае только интерес социального работника к данным имеет глаза, как и заинтересованность государственного учреждения в контроле государственных ресурсов и оптимизации рабочих процессов. Но мы могли бы также подумать о других типах дизайна данных, в которых люди, работающие в сфере социального обеспечения, смотрят через доступ к данным и, следовательно, могут, например, добавлять и исправлять некорректные данные или персонализировать предоставляемые им услуги.

V. Данные как риск

Для кого или для чего дизайн данных может быть риском? Кто или что заинтересовано в предотвращении выявленных рисков и управлении ими? Как разрешаются конфликты и / или согласования между выявленными рисками для человека и интересами в управлении рисками для защиты человека от рисков?

В пятом и последнем кластере «данные как риск» интересы данных соотносятся с процессом оценки рисков дизайна данных. Риски, связанные с разработкой и развертыванием технологий искусственного интеллекта, обычно рассматриваются в руководящих принципах как потенциальное негативное воздействие систем искусственного интеллекта на демократию и гражданские права, на экономику, рынки и окружающую среду. Риски — это вред ИИ, который следует предвидеть, предотвращать и контролировать [ 37 ]. В частности, в третьем основном компоненте («надежный ИИ») подчеркивается превентивный подход к ИИ, основанный на оценке рисков: «Техническая надежность требует, чтобы системы ИИ разрабатывались с превентивным подходом к рискам и таким образом, чтобы они надежно вести себя так, как задумано, сводя к минимуму непреднамеренный и неожиданный вред »[ 38]. Риски являются предметом особого внимания не только этих руководящих принципов, но и современной политики, делового поведения и общественного дискурса в целом. Бек (1992) описал эту озабоченность общества предотвращением и управлением рисками как неопределенность, порожденную в индустриальном обществе, и как результат процесса модернизации, в котором возникают и накапливаются непредсказуемые результаты. «Риски не“ реальны », они« становятся реальными », — позже провозгласил Бек [ 39 ], описывая развитие озабоченности« мировыми рисками ». Они принимают форму «ожидания катастрофы» [ 40 ], а их управление — как «ожидание дальнейших атак, инфляции, новых рынков, войн или ограничения гражданских свобод” [ 41]. Важно отметить, что изображение риска «… предполагает человеческие решения , будущее, созданное людьми (вероятность, технологии, модернизация)…». [ 42 ]

В рекомендациях AI HLEG данные AI описываются как содержащие потенциальные риски, которые следует предотвращать и контролировать. Как описано в четырех других метафорических кластерах, данные обычно связаны с управлением рисками для ресурсов в обществе, демократии, верховенству закона и агентству через наглядность. Но в этом последнем метафорическом кластере руководящих принципов данные сами по себе представляют собой риск, который необходимо предвидеть и управлять им. Преступники могут, например, «атаковать» данные системы ИИ и «отравить» их [ 43 ], данные могут «просачиваться», данные могут быть «повреждены злонамеренным намерением или в результате воздействия неожиданных ситуаций» [ 44].], и это может представлять опасность для окружающей среды («Были ли вы созданы механизмы для измерения воздействия на окружающую среду разработки, развертывания и использования системы искусственного интеллекта (например, типа энергии, используемой центрами обработки данных)?» [ 45 ]). Данные сами по себе также имеют опасные свойства; например, такие слова, как «злонамеренный» или «состязательный», также используются в руководящих принципах для описания данных. Если мы продолжим представление о том, что риски не являются «реальными» сами по себено, основываясь на наших собственных прогнозах относительно возможных будущих сценариев, мы можем также предположить, что предлагаемые ими управление и предотвращение являются продуктом интересов и мотивов. Что касается разработки ИИ, инженер ИИ, обучающий технологии ИИ, будет интересоваться рисками, связанными с качеством и точностью обучающих данных, в то время как сотрудник по защите данных будет рассматривать риски, связанные с идентифицированными лицами при оценке воздействия на защиту данных. Что касается развертывания и внедрения ИИ, человек также будет заинтересован в защите своих личных данных от несанкционированного доступа, в то время как сценарий риска сотрудника антитеррористической разведки предполагает обнаружение террористической деятельности и, следовательно, может Считайте сквозное шифрование дизайна данных рискованным выбором.

Пример:

P7006 — стандарт IEEE для агента искусственного интеллекта (AI) персональных данных.

Стандарт IEEE P7006 для агентов искусственного интеллекта (ИИ) персональных данных (PDAIA) [ 46 ] является одним из этически согласованных стандартов проектирования автономных и интеллектуальных систем IEEE P7000s. На момент написания этой статьи стандарт находился в стадии разработки, но принципы PAR и незавершенной работы (WP) (P7006, 2020) можно использовать, чтобы проиллюстрировать, как размышления о введении в действие некоторых тематических кластеров человека: Основа, ориентированная на интересы данных, может быть преобразована в технический стандарт для разработки технологии искусственного интеллекта.

Персональные помощники ИИ — это программы, которые взаимодействуют с людьми, отвечая на вопросы и выполняя за них различные задачи. Они основаны на различных компонентах искусственного интеллекта, таких как распознавание голоса и машинное обучение, чтобы действовать от имени отдельных пользователей и реагировать на них индивидуально. Персональные помощники ИИ были популяризированы ведущими коммерческими субъектами как интегрированные компоненты мобильных телефонов, планшетов или динамиков, например, Amazon Alexa, Apple Siri, Google Now и Microsoft Cortana (Bonneau, et al., 2018). Поскольку виртуальные агенты интегрированы в частную сферу частных лиц дома и за ее пределами, которые распознают голоса, хранят и обрабатывают личные данные пользователей, в ходе публичных дебатов возник ряд критических замечаний и опасений. В частности, вопросы конфиденциальности и приоритета власти и интересов коммерческих и других субъектов по сравнению с личными (Lynskey, 2019; Nelius, 2020; Chung, et al. , 2017; Maedche, et al. , 2019).

На этом фоне область применения стандарта P7006 явно определена в его запросе на авторизацию проекта (PAR) как тот, который отдает приоритет интересам данных отдельного человека: «Этот стандарт описывает технические элементы, необходимые для создания и предоставления доступа к персонализированному искусственному интеллекту. (AI), который будет включать в себя вклад, обучение, этику, правила и ценности, контролируемые отдельными лицами ». (P7006, 2017) Кроме того, в PAR рассматривается как агент, который в первую очередь управляет интересами данных отдельных лиц, позволяя им «безопасно организовывать и делиться своей личной информацией на машиночитаемом уровне, а также позволять персонализированному ИИ действовать как прокси для межмашинных решений »(P7006, 2017). PDAIA обучается и развивается с данными человека. Таким образом, основной ресурс данных — это индивидуальный ресурс. Интересы данных в этих данных описаны в области применения и цели стандарта: «Основными заинтересованными сторонами для этого стандарта являются лица, информация которых используется для любого взаимодействия с данными, но также включает ученых, инженеров, программистов, маркетологов или технологов любой вид, желающий использовать указанные данные »(P7006, 2017). Тем не менее, интерес к данным, который получает наибольшую выгоду от ресурсов данных, — это интерес отдельного человека, поскольку дизайн данных ИИ предназначен для того, чтобы служить в качестве агента для человека, который «обсуждает свои индивидуальные права и свободу действий в системе общих социальных норм, этики. и права человека, которые также предусматривают и помогают человеку смягчить этические последствия обработки данных »(P7006, 2017). Приоритетность интереса отдельного лица к данным используется в принципах wp, например, в одном принципе, который предназначен для обеспечения того, чтобы ресурс данных поддерживался отдельным человеком. Более того, интересы отдельного человека являются приоритетными в распределении власти дизайна данных. Например, тот же принцип направлен на обеспечение того, чтобы власть над решениями на основе данных оставалась за человеком, когда заявляется, что PDAIA останется полуавтономным и никогда не будет полностью независимым от человека при принятии решений. Таким образом, другой принцип касается «Interruptible amp; “Убираемый» процесс принятия решений и, среди прочего, включает в себя включение «аварийного выключателя» в проект корневого уровня, который отдельный пользователь может использовать для остановки или отмены действий агента. Более того, управление видимостью в дизайне данных специально предназначено для того, чтобы дать отдельному человеку представление о процессах обработки данных и, следовательно, об агентстве. Первый принцип, например, влечет за собой «понятную человеку“ прозрачность »», которая дополнительно определяется положением: «Процессы“ черного ящика »должны иметь возможность отслеживать таким образом, чтобы создать понятную человеку цепочку поставок для всех решений». . Видение отдельного человека также расширено, чтобы включить информацию о третьих сторонах, которые повлияли на решение. Данные как тип регулятора рассматриваются с особым вниманием к дизайну «конфиденциальности”, а не к защите и безопасности данных, только, например, в одном принципе, который рассматривает «ориентированный на конфиденциальность динамический UI / UX”. Пользователь может легко переключать настройки конфиденциальности агента, чтобы разрешить обновление настроек системы для обеспечения дифференцированной конфиденциальности в зависимости от случая ”. Наконец, данные в первую очередь считаются риском для человека, и, соответственно, один принцип рассматривает безопасность пользователя, основанную на агентстве, ориентированном на пользователя, защиту от «физического, эмоционального или когнитивного вреда» и гарантии от раскрытия компрометирующей информации со стороны правоохранительных органов.

Вывод

За очень короткий период времени ускорилась интеграция технологий с интенсивным использованием данных, таких как ИИ — сложный и продвинутый механизм, предназначенный для работы с данными, прогнозирования поведения и траекторий, а также определения жизней, экономики, политики, общества в конкретные направления — во всех сферах нашей жизни. Технологии искусственного интеллекта представляют собой распределение информационных ресурсов в обществе, и, следовательно, они имеют прямое влияние на баланс действий между социальными акторами.

В этой статье я привел доводы в пользу анализа интереса к данным в технологиях искусственного интеллекта, чтобы выявить интересы данных в их дизайне данных и изучить, как эти интересы усиливаются или ограничиваются дизайном. Я также выдвинул конкретный прикладной этический подход к интересам данных, основанный на ориентированной на человека структуре этического управления, представленной Группой высокого уровня ЕС по этическим принципам ИИ для надежного ИИ.

Системы искусственного интеллекта не являются беспристрастным или объективным представлением мира. Они укрепляют отношения власти в обществе и связаны с интересами сильных мира сего, и поэтому инициируют действия с этическими и социальными последствиями. Отрасли больших данных заинтересованы в сборе и накоплении данных, улучшении своих моделей машинного обучения или получении прибыли от персонализированного маркетинга. Государственные учреждения заинтересованы в оптимизации и контроле государственного управления. Правительства заинтересованы в контроле, просмотре и прогнозировании рисков для своих стран с помощью данных. Глобальная промышленность и межправительственные органы заинтересованы в получении конкурентных преимуществ с помощью данных. Очевидно, что интересы не так единообразны и не являются простыми детерминантами действий в обществе. Но, как мы снова и снова видим, когда этические последствия систем ИИ материализуются в социальные последствия, интересы данных присутствуют в дизайне ИИ и предоставляются агентством или без него. В результате увеличивается информационная асимметрия между людьми, например, между государственными служащими, разработчиками или людьми из групп меньшинств и общественными заинтересованными сторонами, такими как промышленность, правительства и граждане.

Прикладной этический подход к системам искусственного интеллекта подчеркивает взаимосвязь социальных сил и интересы, участвующие в разработке и принятии ИИ обществом. Сужение подхода как такового к интересам данных в ИИ позволяет нам рассмотреть встроенные компромиссы между этими различными интересами и открывает возможность исследования альтернативных схем данных, которые могут разрешить конфликты интересов в определенной степени. это приносит пользу людям. Здесь содействие осознанию приоритета интересов человека над коммерческими, государственными и даже научными интересами в разработке систем искусственного интеллекта для работы с большими данными — это одно из таких осознаний, которое требует твердой позиции в дебатах по этике ИИ.

Примечания

1. AI HLEG, 2019, с. 37.

2. Победитель, 1980 г., стр. 125.

3. Например , в AI HLEG B, 2019, p. 9.

4. Лер и Ом, 2017, с. 717.

5. Searle, 1980, с. 417.

6. Spiekermann, 2017, с. 2.

7. Хьюз, 1987, с. 51.

8. Бийкер и Ло, 1992, стр. 3.

9. Там же.

10. Дигнум и др. , 2018, стр. 61.

11. Умбрелло, 2019, с. 7.

12. Спиллман и Стрэнд, 2013, с. 86.

13. Победитель, 1980 г., с. 127.

14. Победитель, 1980 г., с. 131.

15. Bolukbasi, et al. , 2016, с. 2.

16. Уинфилд и Джиротка, 2018, с. 1.

17. Winfield and Jirotka, 2018, с. 2.

18. Winfield and Jirotka, 2018, с. 9.

19. Чтобы исследовать темы, я использовал метафорический анализ (Lakoff and Johnson, 1980). Сначала я просмотрел текст, чтобы обнаружить метафоры, касающиеся данных, связывающие их с общими метафорами, касающимися данных в публичном дискурсе. Затем я организовал текст в соответствии с основными метафорами, которые я нашел, с акцентом на интересы данных, которые они представляли, их конфликты и, наконец, то, как они были сбалансированы в рамках ориентированной на человека структуры.

20. Лакофф и Джонсон, 1980, стр. 25.

21. AI ГЭВУ, 2019, с. 35.

22. AI ГЭВУ, 2019, с. 17.

23. AI ГЭВУ, 2019, с. 12.

24. AI ГЭВУ, 2019, с. 17.

25. Лион, 2010, с. 335.

26. AI ГЭВУ, 2019, с. 12.

27. AI ГЭВУ, 2019, с. 13.

28. Там же.

29. AI ГЭВУ, 2019, с. 16.

30. Reidenberg, 1997, с. 555.

31. AI ГЭВУ, 2019, с. 6.

32. AI ГЭВУ, 2019, с. 19.

33. AI ГЭВУ, 2019, с. 13.

34. AI ГЭВУ, 2019, с. 15.

35. AI ГЭВУ, 2019, с. 36.

36. AI ГЭВУ, 2019, с. 18.

37. AI ГЭВУ, 2019, с. 2.

38. AI ГЭВУ, 2019, с. 16.

39. Бек, 2014, с. 81.

40. Там же.

41. Beck, 2014, с. 81.

42. Там же.

43. AI ГЭВУ, 2019, с. 16.

44. Там же.

45. AI ГЭВУ, 2019, с. 30.

46. Я являюсь заместителем председателя стандартной рабочей группы, возглавляемой Кеном Уоллесом. Принципы PAR и незавершенного производства общедоступны на веб-сайте рабочей группы P7006 (https://sagroups.ieee.org/7006/). Проект принципов в незавершенной работе создается членами рабочей группы P7006 с целью направить более детальную работу над стандартом. Они не являются полными, подлежат обсуждению и пересмотру и, следовательно, также должны рассматриваться как таковые. Конкретные проекты принципов, о которых я говорю здесь, были существенно пересмотрены членом рабочей группы Матаной Стендер в июне 2020 года. Хотя в черновом варианте, я использовал их здесь, чтобы проиллюстрировать попытку ввести в действие подход к дизайну данных, который отдает приоритет (индивидуальному) человеческому существу. интерес.

использованная литература

AI HLEG / Группа экспертов высокого уровня по искусственному интеллекту (AI HLEG), 2019. «Этические рекомендации для надежного ИИ» (8 апреля), https://digital-strategy.ec.europa.eu/en/library/ethics -guidelines-trustworthy-ai , по состоянию на 8 июня 2021 г.

AI HLEG / Группа экспертов высокого уровня по искусственному интеллекту (AI HLEG B), 2019. «Политические и инвестиционные рекомендации для надежного искусственного интеллекта», https://digital-strategy.ec.europa.eu/en/library/policy -and-инвестиционные рекомендации-заслуживающие доверия-искусственного интеллекта , по состоянию на 8 июня 2021 г.

А. Адам, 2008. «Этика для вещей», Этика и информационные технологии , том 10, номера 2–3, стр. 149–154.

doi: https://doi.org/10.1007/s10676-008-9169-3 , по состоянию на 8 июня 2021 г.

Э. Алпайдин, 2016. Машинное обучение: новый ИИ. Кембридж, Массачусетс: MIT Press.

Дж. Ангвин, Дж. Ларсон, С. Матту и Л. Киршнер, 2016. «Машинная предвзятость: по всей стране используется программное обеспечение для прогнозирования будущих преступников. И это предвзято против чернокожих », — ProPublica (23 мая), по адресу https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing , по состоянию на 8 июня 2021 года.

У. Бек, 2014. «Неисчислимое будущее: мировое общество риска и его социальные и политические последствия», В: У. Бек (редактор). Ульрих Бек: пионер космополитической социологии и общества риска. Чам, Швейцария: Springer, стр. 78–89.

doi: https://doi.org/10.1007/978-3-319-04990-8_8 , по состоянию на 8 июня 2021 г.

У. Бек, 1992. Общество риска: к новой современности. Перевод М. Риттера. Лондон: Мудрец.

WE Bijker и J. Law (редакторы), 1992. Формируя технологии / строящее общество: Исследования в области социотехнических изменений. Кембридж, Массачусетс: MIT Press.

Т. Болукбаси, К.-В. Чанг, Дж. Цзоу, В. Салиграма и А. Калаи, 2016. «Мужчина для программиста, как женщина для домохозяйки? Сглаживающие вложения слов », NIPS '16: Материалы 30-й Международной конференции по системам обработки нейронной информации , стр. 4,356–4,364.

В. Бонно, Л. Пробст и В. Лефевр, 2018. «Рост виртуальных личных помощников», Digital Transformation Monitor, Европейская комиссия , https://ati.ec.europa.eu/sites/default/files/2020 -05 / The% 20rise% 20of% 20Virtual% 20Personal% 20Assistants% 20% 28v1% 29.pdf , по состоянию на 8 июня 2021 г.

AM Brighenti, 2010. «Новые медиа и сетевое видение», В: AM Brighenti (редактор). Наглядность в социальной теории и социальных исследованиях. Лондон: Пэлгрейв Макмиллан, стр. 91–108.

doi: https://doi.org/10.1057/9780230282056_4 , по состоянию на 8 июня 2021 г.

А. Кавукян, 2009. «Конфиденциальность по дизайну. 7 основополагающих принципов », — Уполномоченный по информации и конфиденциальности Онтарио , по адресу https://www.ipc.on.ca/wp-content/uploads/resources/7foundationalprinciples.pdf , по состоянию на 8 июня 2021 г.

Х. Чанг, М. Йорга, Дж. Воас и С. Ли, 2017. «Алекса, могу ли я тебе доверять?» Компьютер , том 50, номер 9, стр. 100–104.

doi: https://doi.org/10.1109/MC.2017.3571053 , по состоянию на 8 июня 2021 г.

В. Дигнум, М. Бальдони, К. Барольо, М. Каон, Р. Шатила, Л. Деннис, Г. Генова, М.С. Клисс, М. Лопес-Санчес, Р. Микалицио, Х. Павон, М. Славковик, М. Смакман, М. ван Стинберген, С. Тедески, Л. ван дер Торре, С. Виллата и Т. де Вильд, 2018. «Этика по замыслу: необходимость или проклятие?» AIES '18: Материалы конференции AAAI / ACM 2018 по искусственному интеллекту, этике и обществу , стр. 60–66.

doi: https://doi.org/10.1145/3278721.3278745 , по состоянию на 8 июня 2021 г.

Г. Делёз, 1992. «Постскриптум об обществах контроля», октябрь , том 59, стр. 3–7.

МС Элиш и д. Boyd, 2018. «Методы определения положения в магии больших данных и искусственного интеллекта», Коммуникационные монографии , том 85, номер 1, стр. 57–80.

doi: https://doi.org/10.1080/03637751.2017.1375130 , по состоянию на 8 июня 2021 г.

Европейский парламент, 2019 г. «Резолюция Европейского парламента от 12 февраля 2019 г. о всеобъемлющей европейской промышленной политике в области искусственного интеллекта и робототехники» (12 февраля), по адресу https://www.europarl.europa.eu/doceo/document/TA-8 -2019-0081_EN.html , по состоянию на 8 июня 2021 г.

Европейский парламент, 2016 г. «GDPR / Регламент (ЕС) 2016/679 Европейского парламента и Совета от 27 апреля 2016 г. о защите физических лиц в отношении обработки персональных данных и о свободном перемещении таких данных, и отменяющую Директиву 95/46 / EC (Общие правила защиты данных) »на https://op.europa.eu/en/publication-detail/-/publication/3e485e15-11bd-11e6-ba9a-01aa75ed71a1/language-en , по состоянию на 8 июня 2021 г.

Дж. Фьельд и А. Надь, 2020. «Принципиальный искусственный интеллект: карта этических и основанных на правах подходов» (15 января), https://ai-hr.cyber.harvard.edu/primp-viz.html , по состоянию на 8 июня 2021 г.

L. Floridi, J. Cowls, M. Beltrametti, R. Chatila, P. Chazerand, V. Dignum, C. Luetge, R. Madelin, U. Pagallo, F. Rossi, B. Schafer, P. Valcke и E. Вайена, 2018. «AI4People: Двадцать рекомендаций по этическим рамкам для хорошего общества искусственного интеллекта», Minds and Machines , том 28, стр. 689–707.

doi: https://doi.org/10.1007/s11023-018-9482-5 , по состоянию на 8 июня 2021 г.

М. Фливербом, 2019. Цифровая призма: прозрачность и управляемая видимость в мире данных. Кембридж: Издательство Кембриджского университета.

doi: https://doi.org/10.1017/9781316442692 , по состоянию на 8 июня 2021 г.

Б. Фридман, 1996. «Дизайн с учетом стоимости», ACM Interactions , том 3, номер 6, стр. 17–23.

doi: https://doi.org/10.1145/242485.242493 , по состоянию на 8 июня 2021 г.

Б. Фридман и Х. Ниссенбаум, 1997. «Программные агенты и автономия пользователей», AGENTS '97: Proceedings of the First International Conference on Autonomous Agents , pp. 466–469.

doi: https://doi.org/10.1145/267658.267772 , по состоянию на 8 июня 2021 г.

Б. Фридман и Х. Ниссенбаум, 1995. «Минимизация предвзятости в компьютерных системах», CHI '95: Сопровождение конференции по человеческому фактору в вычислительных системах .

doi: https://doi.org/10.1145/223355.223780 , по состоянию на 8 июня 2021 г.

Б. Фридман, П. Кан и А. Борнинг, 2006. «Дизайн и информационные системы, чувствительные к ценностям», В: П. Чжан и Д. Галлетта (редакторы). Человеко-компьютерное взаимодействие в управленческих информационных системах: Основы. Армонк, Нью-Йорк: М.Э. Шарп, стр. 348–372.

Д. Харвелл, 2018. «Разыскивается:“ идеальная няня ”. Должен пройти сканирование ИИ на уважение и отношение », — Washington Post (23 ноября), https://www.washingtonpost.com/technology/2018/11/16/wanted-perfect-babysitter-must-pass-ai-scan- респект-отношение / , по состоянию на 8 июня 2021 г.

Г. Хассельбалч, 2020. «Культура по дизайну: анализ интереса к данным в повестке дня европейской политики в области ИИ», Первый понедельник , том 25, номер 12, на https://firstmonday.org/article/view/10861/10010 , доступ 8 июня 2021 г.

doi: https://doi.org/10.5210/fm.v25i12.10861 , по состоянию на 8 июня 2021 г.

Т.П. Хьюз, 1987. «Эволюция больших технологических систем», В: У.Е. Бийкер, Т.П. Хьюз и Т. Пинч (редакторы). Социальное строительство технологических систем. Кембридж, Массачусетс: MIT Press, стр. 51–82.

А. Джобин, М. Йенка и Э. Вайена, 2019. «Глобальный ландшафт руководящих принципов этики ИИ», Nature Machine Intelligence , том 1, стр. 389–399.

doi: https://doi.org/10.1038/s42256-019-0088-2 , по состоянию на 8 июня 2021 г.

Г. Лакофф и М. Джонсон, 1980. Метафоры, которыми мы живем. Чикаго: Издательство Чикагского университета.

Б. Латур, 1992. «Где пропавшие массы? Социология некоторых обыденных артефактов », В: У.Е. Бийкер и Дж. Ло (редакторы). Формирование технологии / построения общества: исследования в области социотехнических изменений. Кембридж, Массачусетс: MIT Press, стр. 225–258, и http://www.bruno-latour.fr/sites/default/files/50-MISSING-MASSES-GB.pdf , по состоянию на 8 июня 2021 г.

Б. Латур и К. Венн, 2002. «Нравственность и технология», Теория, культура и общество , том 19, номера 5–6, стр. 247–260.

doi: https://doi.org/10.1177/026327602761899246 , по состоянию на 8 июня 2021 г.

Д. Ли, 2018. «Приложение Predictim babysitter: Facebook и Twitter принимают меры», BBC News (27 ноября), https://www.bbc.com/news/technology-46354276 , по состоянию на 8 июня 2021 года.

Д. Лер и П. Ом, 2017. «Игра с данными: что правоведы должны узнать о машинном обучении», UC Davis Law Review , том 51, стр. 653–717, и https://lawreview.law. ucdavis.edu/issues/51/2/Symposium/51-2_Lehr_Ohm.pdf , по состоянию на 8 июня 2021 г.

Л. Лессиг, 2006. Код. Версия 2.0. Нью-Йорк: Основные книги.

Д. Лински, 2019. «Алекса, ты вторгаешься в мою частную жизнь?» — Темная сторона наших голосовых помощников », Guardian (9 октября), https://www.theguardian.com/technology/2019/oct/09/alexa-are-you-invading-my-privacy-the-dark. -side-of-our-voice-Assistant, по состоянию на 8 июня 2021 г.

Д. Лион, 2010. «Жидкая слежка: вклад Зигмунта Баумана в исследования по слежке», Международная политическая социология , том 4, номер 4, стр. 325–338.

doi: https://doi.org/10.1111/j.1749-5687.2010.00109.x , по состоянию на 8 июня 2021 г.

А. Маэдче, К. Легнер, А. Бенлиан, Б. Бергер, Х. Гимпель, Т. Хесс, О. Хинц, С. Морана и М. Зёлльнер, 2019 г. «Цифровые помощники на основе ИИ: возможности, угрозы и Перспективы исследований », Инженерия бизнес- и информационных систем , том 61, стр. 535–544.

doi: https://doi.org/10.1007/s12599-019-00600-8 , по состоянию на 8 июня 2021 г.

В. Майер-Шенбергер и К. Цукьер, 2013. Большие данные: революция, которая изменит то, как мы живем, работаем и думаем. Лондон: Джон Мюррей.

Дж. Нелиус, 2020. «Amazon Alexa для арендодателей — это кошмар конфиденциальности, ожидающий своего часа», — Gizmodo (3 сентября), https://gizmodo.com/amazons-alexa-for-landlords-is-a-privacy-nightmare -wait-1844943607 , по состоянию на 8 июня 2021 г.

К. О'Нил, 2016. Оружие разрушения математики: как большие данные увеличивают неравенство и угрожают демократии. Лондон: Пингвин.

ОЭСР, 2019. «Рекомендация Совета по искусственному интеллекту», https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 , по состоянию на 8 июня 2021 г.

P7006, 2020. «Принципы незавершенной работы для P7006», https://sagroups.ieee.org/7006 , по состоянию на 8 июня 2021 г.

P7006, 2017. «Стандарт для агента искусственного интеллекта (AI) персональных данных», https://development.standards.ieee.org/myproject-web/public/view.html#pardetail/6097 , по состоянию на 8 июня 2021 г.

Ф. Паскуале, 2015. Общество черного ящика: секретные алгоритмы, управляющие деньгами и информацией. Кембридж, Массачусетс: Издательство Гарвардского университета.

К. Пушманн и Дж. Берджесс, 2014. «Метафоры больших данных», Международный журнал коммуникаций , том 8, стр. 1,690–1,709, на https://ijoc.org/index.php/ijoc/article/view/ 2169/1162 , по состоянию на 8 июня 2021 г.

JR Reidenberg, 1997. «Lex informatica: Формулирование правил информационной политики с помощью технологий», Texas Law Review , том 43, стр. 553–593.

Дж. Сёрл, 1980. «Разум, мозг и программы», Поведенческие и мозговые науки , том 3, номер 3, стр. 417–424.

doi: https://doi.org/10.1017/S0140525×00005756 , по состоянию на 8 июня 2021 г.

С.П. Шапиро, 2005. «Теория агентских отношений », Ежегодный социологический обзор , том 31, стр. 263–284.

doi: https://doi.org/10.1146/annurev.soc.31.041304.122159 , по состоянию на 8 июня 2021 г.

Л. Спиллман и М. Стрэнд, 2013. «Действие, ориентированное на интересы», Ежегодный обзор социологии , том 39, стр. 85–104.

doi: https://doi.org/10.1146/annurev-soc-081309-150019 , по состоянию на 8 июня 2021 г.

С. Спикерманн, 2017. «Призрак трансгуманизма и разумность существования», http://privacysurgeon.org/blog/wp-content/uploads/2017/07/Human-manifesto_26_short-1.pdf , по состоянию на 8 июня. 2021 г.

С. Умбрелло, 2019. «Выгодная координация искусственного интеллекта посредством подхода к проектированию, чувствительного к стоимости», Большие данные и когнитивные вычисления , том 3, номер 1, 5.

doi: http://dx.doi.org/10.3390/bdcc3010005 , по состоянию на 8 июня 2021 г.

С. Умбрелло и А.Ф. Де Беллис, 2018. «Подход к проектированию интеллектуальных агентов с учетом стоимости», В: Ямпольский Р.В. (редактор). Безопасность и защита искусственного интеллекта. Бока-Ратон, Флорида: CRC Press, стр. 395–410.

doi: https://doi.org/10.1201/9781351251389 , по состоянию на 8 июня 2021 г.

Дж. Фон Нейман и О.С. Моргенштерн, 1953. Теория игр и экономическое поведение. Третье издание. Принстон, Нью-Джерси: Издательство Принстонского университета.

SM Watson, nd «Data is the new “___”», журнал dis , по адресу http://dismagazine.com/blog/73298/sara-m-watson-metaphors-of-big-data/ , по состоянию на 8 июня 2021 г.

AFT Winfield и M. Jirotka, 2018. «Этическое управление необходимо для построения доверия к робототехнике и системам искусственного интеллекта», Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences , том 376, номер 2133 (28 ноября), 20180085.

doi: https://doi.org/10.1098/rsta.2018.0085 , по состоянию на 8 июня 2021 г.

Л. Виннер, 1980. «Есть ли у артефактов политика?» Дедал , том 109, номер 1, стр. 121–136.

Author

Comment
Share

Building solidarity beyond borders. Everybody can contribute

Syg.ma is a community-run multilingual media platform and translocal archive.
Since 2014, researchers, artists, collectives, and cultural institutions have been publishing their work here

About