Алгоритмический капитализм и дискриминация — последствия человеческого фашизма цифровизации.

Lyoubov Touinova
14:45, 07 августа 2021
Добавить в закладкиДобавить в коллекцию

Алгоритмы все чаще используются для принятия решений за нас, насчет нас или вместе с нами. От областей жизни, которых не было более десяти лет назад, таких как онлайн-поиск или новости в социальных сетях, до областей, где решения принимались исключительно на основе человеческого суждения, таких как здравоохранение или занятость. многие алгоритмы сложны и непрозрачны, что они действуют как привратники, они быстро вторгаются в «субъективное» принятие решений, где нет правильного или неправильного ответа.

Как мы можем сомневаться в этичности службы, если у нас нет доступа к деталям того, как она предназначена для работы с данными? Как мы можем поставить предупреждение о вреде для здоровья на продукте, если мы не знаем его ингредиентов? Этика — это то, что необходимо учитывать в самых инновационных процессах, она должна быть воплощена в сервисах, она должна быть в алгоритмах.

Мы с закрытыми глазами находимся в разорванном потоке развивающейся экономики, основанной на поиске закономерностей в данных, создании профилей, прогнозировании данных и реагировании на них, придании значения данным и преобразованию их в ценность. Некоторые называют это алгоритмической экономикой. Потому что именно алгоритмы создают ценность. Это рецепты успешного бизнеса, и поэтому они, конечно же, основаны на субъективных предположениях, возможно, даже на предубеждениях и интересах — коммерческих, правительственных, научных и т.

Странность здесь заключается в том, что этот новый тип быстро развивающейся экономики — с целым набором новых предприятий, услуг, продуктов, инфраструктур и т. Д., В значительной степени облеченных различными интересами — развивается без этического надзора и без внимания общественности.

Выражаясь совсем просто: человек — источник данных алгоритмической экономики, как физическое лицо, в данном процессе находится в тотальной ущемленности, торжествует алгоритмическая дискриминация. На данных пользователей зарабатывает кто угодно, кроме самих пользователей лично.

Алгоритмы создания собственных ценностей полностью лишены прозрачности. Они разворачиваются незримо. Люди, на которых они действуют, не имеют к ним доступа. Их основные функции и исходный код засекречены. Секрет как рецепт кока-колы. Но мощно и меняет правила нашей повседневной общественной жизни, как описал Франческо Лапента в этом выступлении Re: publica .

Многие промышленные гиганты предлагают разработчикам и новым стартапам облака для разработчиков. Но то, как они их предлагают, симптоматично для общества Черного ящика , описанного Фрэнком Паскуале. Они предлагают только API, инструменты. Это означает, что даже разработчики новых сервисов на их основе не знают рецептов того, что они разрабатывают. Им предоставляются инструменты для создания смысла из своих данных, но они не обладают реальной ценностью, а именно алгоритмом, создающим смысл.

Примером может служить «ЭКО СИСТЕМА» IBM Watson. Именно здесь IBM предлагает разработчикам и стартапам партнерские отношения с Watson для развития их услуг и бизнес-идей. Одной из этих новых услуг является Unitesus — онлайн-платформа для подбора карьеры, которая подбирает работодателей и сотрудников, например, на основе культурного соответствия на основе когнитивных вычислений Watson. По сути, это означает, что алгоритм профилирует и сопоставляет личность человека с культурой потенциального рабочего места и т. Д .: «Создайте своего идеального сотрудника на основе личности, опыта, ценностей, навыков и соответствия корпоративной культуре компании». Представьте, что ваши будущие карьерные возможности определяются секретным алгоритмом, который находит закономерности, например, в вашей истории в социальных сетях и представляет вас как одного или другого типа работника — трудоустроенного или нет. Представьте, когда подобная служба подбора профессии становится частью Интернета вещей. Постоянно связанная всеобъемлющая среда, которая измеряет ваши профессиональные способности и личность в зависимости от того, как вы двигаетесь в своей физической среде? Централизованная и закрытая проприетарная среда.

Представьте себе этические последствия. Вы не можете, потому что как вы можете подвергать сомнению этику услуги, продукта, интернет-вещей, если даже сам разработчик не знает точно, как алгоритм его продукта предназначен для работы с его данными?

Если у нас нет понимания рецептов этих секретных алгоритмов, сам разговор об этике становится пустым. Этика — это то, что необходимо учитывать в самых инновационных процессах, она должна быть воплощена в услугах (как Ind.ie призывает в своем Манифесте этического дизайна), она должна быть частью рецепта. Речь идет о балансе интересов с самого начала — человеческих, коммерческих и т. Д., Об определении этических недискриминационных критериев, например, для прогнозирования и профилирования. Сейчас мы смотрим только на последствия и результаты алгоритмической обработки данных. Некоторые из этих последствий мы уже считаем дискриминационными. Например, когда программа решает, подходит ли она для работы, на основе истории в социальных сетях, которая также превалирует над вашим социальным статусом. Но оценивать последствия слишком поздно. Это капкан, из которого следует искать выхода в истоках цифрового диктата, то есть в системе детерминаций, которая, как бы ужасно не прозвучало, может оказаться глубоко фашистской (отрицающей альтернативные интеллектуальности), но вместе с тем, структурирующей восприятие людей осознающих или отрицающих это.

Подпишитесь на наш канал в Telegram, чтобы читать лучшие материалы платформы и быть в курсе всего, что происходит на сигме.
Добавить в закладки

Автор

File