Содержание
Введение
В эпоху искусственного интеллекта, когда ChatGPT влияет на бесчисленные аспекты нашей жизни, дегуманизирующие и дискриминирующие особенности ИИ приводят к эксплуатации меньшинств, женщин, небинарных, иммигрантов и людей с инвалидностью. Эти проблемы вовсе не являются «сбоем» или непреднамеренной ошибкой. Они являются результатом системного угнетения, на котором построена глобальная индустрия искусственного интеллекта. Это постоянное угнетение, укорененное в колониализме, гетеропатриархате и расовом капитализме, показывает, что мы живем не просто в эпоху ИИ, но в эпоху Империи ИИ.
Поскольку большие данные и алгоритмы лишь еще больше усиливают логику гегемонии, надзора и порабощения, которые движут Империей ИИ, можно утверждать, что реформирование ИИ внутри той же репрессивной системы не решит нынешние проблемы.
Параллельно с борьбой за справедливость мы должны радикально изменить наши представления о данных и технологиях и развивать их с нуля, с точки зрения тех, кто подвергается наибольшему риску. Благодаря урокам, извлеченным из киберфеминистских, деколониальных и квир-сообществ, можно показать, что возрождение больших данных может стать мощным коллективным ответом на Империю искусственного интеллекта, основанную на антиколониальности, суверенитете и освободительной практике.
Империя искусственного интеллекта
Исследования показывают, что любому, кто заинтересован в понимании развития искусственного интеллекта и науки о данных, необходимо выйти за рамки их технических аспектов и понять их как продукт исторических, геополитических, культурных, расовых и гендерных факторов.
Что мы добавляем к этому важному объему работ, так это идею о том, что ни проблема — Империя ИИ — ни возможные решения, бросающие ей вызов, не могут [1] быть поняты с той же эпистемологической точки зрения и мировоззрения, которые изначально создали Империю ИИ.
Многовековая тенденция западной эпистемологии создавать разделение между Субъектом и «Другим» лежит в основе насилия, вызванного непреднамеренными последствиями новых медиа и технологий, включая системы искусственного интеллекта (Арендт, 1958). Незападные, небелые, немужские, бедные, трансгендерные, нехристианские, некапиталистические, необразованные, подчиненные, не имеющие жилья, несвободные: люди, не входящие в доминирующую группу, часто воспринимается как препятствие в высокотехнологичных утопиях и отбрасывается как «лишнее человечество». (Said, 1979; Muñoz, 1999).
«Другой» описывается как нетехнологичный или использующий технологии только в гнусных целях и, следовательно, нецивилизованный, даже несмотря на то, что эти сообщества на самом деле наиболее технологизированы с целью наблюдения и контроля.
Гордость и предубеждения ChatGPT
Большие языковые модели и генеративный искусственный интеллект, такие как ChatGPT, с момента их запуска получили влияние на личную жизнь и публичную жизнь людей, и ожидается, что они будут масштабироваться в будущем. Технология генеративного искусственного интеллекта таит в себе значительные предубеждения, в том числе связанные с полом и гендером.
Гендерные предубеждения создают модели поведения и стереотипы, которые ставят женщин, мужчин и людей с гендерным разнообразием в невыгодное положение. Гендерное неравенство и несправедливость влияют на общество в целом. Как социальная практика, гендеризация достигается посредством многократного цитирования ритуалов, ожиданий и норм. Общее понимание часто фиксируется в сценариях, в том числе возникающих в результате генеративного искусственного интеллекта, а это означает, что гендерные взгляды и гендерные предубеждения снова прививаются в социальную, политическую и экономическую жизнь. Большие языковые модели работают перформативно, а это означает, что они увековечивают и, возможно, даже расширяют старые и неинклюзивные представления о гендере. Вы сами можете проверить спросив ИИ как выглядит профессор социальных наук.
Вопрос к ИИ: «Как выглядит профессор экономики?»
(ChatGPT, 2023).
Аналогичным образом, когда его спрашивают, «Как выглядит генеральный директор/CEO?», ChatGPT перечисляет деловые костюмы, прежде чем упоминать блузки, платья и юбки. Медсестрами, конечно же, являются женщины, поскольку им нужно «надежно завязать волосы так, чтобы они не закрывали лицо» и могут потребовать «снять с одежды лишние украшения, за исключением небольших серег для женщин» (ChatGPT, 2023).
Если спросить «Расскажи пожалуйста какие профессии выбирают девочки и мальчики?», ChatGPT ответил:
Когда вы спросите ИИ «Расскажи мне про методы воспитания родителей», ChatGPT (2023) ответил следующее:
Редакция паблика hedonist.almaty спросили [2] у ChatGPT, что можно подарить женщине на 8 марта в 2023 году и ИИ выдал целую подборку идей, которые включают:
- Красивый букет цветов;
- Подарочная корзина;
- Ювелирные изделия;
- Книга;
- Подарить ей опыт (сертификат на массаж или круизное путешествие);
- Художественные принты или фотографии;
- Подарочный сертификат на ее усмотрение.
В многочисленных запросах ChatGPT все также продемонстрировал сильную гендерную предвзятость, отведя женщине роль «воспитывающей» матери, которая кормит, убирает и «создает теплую и любящую атмосферу» Мужчина был выбран как «искатель приключений», который может строить вещи, учить и развлекать ребенка. Подобные истории укрепляют обязательные аффективные связи, с которыми женщины сталкиваются в обществе: рожать детей, любить и воспитывать, а также быть рядом с семьей.
Такие ответы ИИ обоснованы тем, что когда нейросети обучаются, они собирают данные из многих источников, и может быть трудно заглянуть внутрь их «черного ящика». Некоторые примеры включают [3] OpenWebText, книги, CC-news, Common Crawl, Wikipedia, платформы социальных сетей (Reddit, Facebook, Twitter), изображения, GitHub, PubMed, ArXiv и даже фондовую биржу.
Технологии предвзятого ИИ присутствуют на рынке и используются уже довольно давно. Центр равенства, гендера и лидерства Беркли Хааса отслеживал [4] предубеждения в 133 системах искусственного интеллекта с 1988 по 2021 год, и их результаты показывают, что 44 процента продемонстрировали гендерные предубеждения, тогда как более четверти продемонстрировали как гендерные, так и расовые предубеждения.
Помимо предвзятых ответов, которые явно дают ChatGPT или другие программы, важны также аспекты и последствия таких ответов. Реакция генеративного ИИ может оказать мощное влияние на гендерное равенство, закрепляя гендерные идеи и предубеждения. По мере того, как люди «консультируются» с ИИ в целях работы и жизни, гендерные предубеждения будут отпечатываться в текстовых материалах и контенте, включая научные статьи; резюме и сопроводительные письма; файлы и документы компании; очерки, музыка и рассказы; и личные разговоры, рекомендации и даже шутки и мемы.
«Освобождение приходит снизу» — лозунг иранского женского феминистского коллектива «Раха» — является важным напоминанием в эпоху Империи искусственного интеллекта. Перед лицом Империи искусственного интеллекта мы должны стремиться развивать и поддерживать критическое отношение, способное обнаруживать, признавать, сопротивляться и, при необходимости, отвергать «ложные повествования о прогрессе».
Следует использовать транснациональную феминистскую концепцию переплетения историй, чтобы показать, как гегемонистская история ИИ, предположительно начавшаяся с Дартмутского семинара 1956 года, усложняется и бросает вызов современным работам таких женщин, как Элис Мэри Хилтон, которая придумала термин «киберкультура».
Восстановление этих стертых историй информации и технологий позволяет нам:
- дестабилизировать представление об ИИ, разработанном исключительно белыми людьми,
- закрепить практику науки о данных как коллективное освободительное усилие, а не индивидуальное изобретение.
Исторически маргинализированные, включая женщин, сообщества всегда давали и продолжают порождать мощные транснациональные технологические коллективы, ориентированные на справедливость и бросающие вызов логике Империи искусственного интеллекта. Эти коллективы никогда не перестают [5] предлагать справедливый и гуманный путь к коллективной справедливости и благополучию, в отличие от узкого, репрессивного, колониального и ориентированного на прибыль чувства «прогресса», доминирующего в ИИ.
Выводы
На вопрос «Почему гендерное равенство имеет значение» ChatGPT (2023) говорит нам о гендерном равенстве как о «моральном императиве, но также и стратегической инвестиции».
Гендерное равенство важно по таким причинам, как права человека, социальная справедливость, экономические выгоды, здоровье, благополучие, демократия и управление, социальный прогресс и инновации. ChatGPT заявляет, что «требуются коллективные усилия отдельных лиц, сообществ, правительств и организаций, чтобы бросить вызов гендерным нормам, устранить дискриминацию и создать инклюзивный и равный мир для всех».
Тем не менее, ChatGPT сильно гендерно предвзят, и эти предубеждения имеют показательный эффект, усиливая неравенство и ставя женщин, мужчин и людей с гендерным разнообразием в еще более невыгодное положение в обществе. Генеративный ИИ является многообещающим и мощным средством улучшения социальной жизни; однако без этического и нормативного подхода к ИИ эти технологии не станут местом перемен.
🔗 Ссылки Web Archive:
[1] Digital colonialism: The 21st century scramble for Africa through the extraction and control of user data and the limitations of data protection laws. Mich. J. Race & L. 2018, https://web.archive.org/web/20231124134518/https://repository.law.umich.edu/mjrl/vol24/iss2/6/
[2] Гедонист Алматы, Инстаграм аккаунт (hedonist.almaty) 2023, https://web.archive.org/web/20231220122044/https://www.instagram.com/p/CpPSEQdt383/?img_index=8
[3] Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models. arXiv. Ferrera, Emilio. 2023, https://web.archive.org/web/20231220123028/https://arxiv.org/abs/2304.03738
[4] When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity. Stanford Social Innovation Review. Smith, Genevieve, and Ishita Rustagi. 2021, https://web.archive.org/web/20231220124054/https://ssir.org/articles/entry/when_good_algorithms_go_sexist_why_and_how_to_advance_ai_gender_equity
[5] Platforming Intersectionality: Networked Solidarity and the Limits of Corporate Social Media. Aymar Jean Christian, Faithe Day, Mark Díaz, Chelsea Peterson-Salahuddin. 2020, https://web.archive.org/web/20231220124919/https://www.scholars.northwestern.edu/en/publications/platforming-intersectionality-networked-solidarity-and-the-limits