Алгоритмический капитализм и дискриминация - последствия человеческого фашизма цифровизации.
Алгоритмы все чаще используются для принятия решений за нас, насчет нас или вместе с нами. От областей жизни, которых не было более десяти лет назад, таких как
Как мы можем сомневаться в этичности службы, если у нас нет доступа к деталям того, как она предназначена для работы с данными? Как мы можем поставить предупреждение о вреде для здоровья на продукте, если мы не знаем его ингредиентов? Этика — это то, что необходимо учитывать в самых инновационных процессах, она должна быть воплощена в сервисах, она должна быть в алгоритмах.
Мы с закрытыми глазами находимся в разорванном потоке развивающейся экономики, основанной на поиске закономерностей в данных, создании профилей, прогнозировании данных и реагировании на них, придании значения данным и преобразованию их в ценность. Некоторые называют это алгоритмической экономикой. Потому что именно алгоритмы создают ценность. Это рецепты успешного бизнеса, и поэтому они, конечно же, основаны на субъективных предположениях, возможно, даже на предубеждениях и интересах — коммерческих, правительственных, научных и т.
Странность здесь заключается в том, что этот новый тип быстро развивающейся экономики — с целым набором новых предприятий, услуг, продуктов, инфраструктур и т. Д., В значительной степени облеченных различными интересами — развивается без этического надзора и без внимания общественности.
Выражаясь совсем просто: человек — источник данных алгоритмической экономики, как физическое лицо, в данном процессе находится в тотальной ущемленности, торжествует алгоритмическая дискриминация. На данных пользователей зарабатывает кто угодно, кроме самих пользователей лично.
Алгоритмы создания собственных ценностей полностью лишены прозрачности. Они разворачиваются незримо. Люди, на которых они действуют, не имеют к ним доступа. Их основные функции и исходный код засекречены. Секрет как рецепт кока-колы. Но мощно и меняет правила нашей повседневной общественной жизни, как описал Франческо Лапента в этом выступлении Re: publica .
Многие промышленные гиганты предлагают разработчикам и новым стартапам облака для разработчиков. Но то, как они их предлагают, симптоматично для общества Черного ящика , описанного Фрэнком Паскуале. Они предлагают только API, инструменты. Это означает, что даже разработчики новых сервисов на их основе не знают рецептов того, что они разрабатывают. Им предоставляются инструменты для создания смысла из своих данных, но они не обладают реальной ценностью, а именно алгоритмом, создающим смысл.
Примером может служить «ЭКО СИСТЕМА» IBM Watson. Именно здесь IBM предлагает разработчикам и стартапам партнерские отношения с Watson для развития их услуг и
Представьте себе этические последствия. Вы не можете, потому что как вы можете подвергать сомнению этику услуги, продукта, интернет-вещей, если даже сам разработчик не знает точно, как алгоритм его продукта предназначен для работы с его данными?
Если у нас нет понимания рецептов этих секретных алгоритмов, сам разговор об этике становится пустым. Этика — это то, что необходимо учитывать в самых инновационных процессах, она должна быть воплощена в услугах (как Ind.ie призывает в своем Манифесте этического дизайна), она должна быть частью рецепта. Речь идет о балансе интересов с самого начала — человеческих, коммерческих и т. Д., Об определении этических недискриминационных критериев, например, для прогнозирования и профилирования. Сейчас мы смотрим только на последствия и результаты алгоритмической обработки данных. Некоторые из этих последствий мы уже считаем дискриминационными. Например, когда программа решает, подходит ли она для работы, на основе истории в социальных сетях, которая также превалирует над вашим социальным статусом. Но оценивать последствия слишком поздно. Это капкан, из которого следует искать выхода в истоках цифрового диктата, то есть в системе детерминаций, которая, как бы ужасно не прозвучало, может оказаться глубоко фашистской (отрицающей альтернативные интеллектуальности), но вместе с тем, структурирующей восприятие людей осознающих или отрицающих это.