Сексист ли ChatGPT?

Анализ проблемы искусственного интеллекта в контексте системного угнетения, основанного на колониализме, гетеропатриархате и расовом капитализме.
Сексист ли ChatGPT?

Содержание

Введение

В эпоху искусственного интеллекта, когда ChatGPT влияет на бесчисленные аспекты нашей жизни, дегуманизирующие и дискриминирующие особенности ИИ приводят к эксплуатации меньшинств, женщин, небинарных, иммигрантов и людей с инвалидностью. Эти проблемы вовсе не являются «сбоем» или непреднамеренной ошибкой. Они являются результатом системного угнетения, на котором построена глобальная индустрия искусственного интеллекта. Это постоянное угнетение, укорененное в колониализме, гетеропатриархате и расовом капитализме, показывает, что мы живем не просто в эпоху ИИ, но в эпоху Империи ИИ.

ℹ️
Империя искусственного интеллекта – это гипотетический сценарий, в котором искусственный интеллект становится доминирующей силой в мире, контролируя все аспекты жизни и общества.

Поскольку большие данные и алгоритмы лишь еще больше усиливают логику гегемонии, надзора и порабощения, которые движут Империей ИИ, можно утверждать, что реформирование ИИ внутри той же репрессивной системы не решит нынешние проблемы.

Параллельно с борьбой за справедливость мы должны радикально изменить наши представления о данных и технологиях и развивать их с нуля, с точки зрения тех, кто подвергается наибольшему риску. Благодаря урокам, извлеченным из киберфеминистских, деколониальных и квир-сообществ, можно показать, что возрождение больших данных может стать мощным коллективным ответом на Империю искусственного интеллекта, основанную на антиколониальности, суверенитете и освободительной практике.

Империя искусственного интеллекта

Исследования показывают, что любому, кто заинтересован в понимании развития искусственного интеллекта и науки о данных, необходимо выйти за рамки их технических аспектов и понять их как продукт исторических, геополитических, культурных, расовых и гендерных факторов.

Что мы добавляем к этому важному объему работ, так это идею о том, что ни проблема — Империя ИИ — ни возможные решения, бросающие ей вызов, не могут [1] быть поняты с той же эпистемологической точки зрения и мировоззрения, которые изначально создали Империю ИИ.

ℹ️
Эпистемология – это раздел философии, который изучает природу знания, его происхождение, обоснование, область применения и методы достижения. Она занимается вопросами о том, как мы узнаем вещи, каковы источники наших знаний, как мы можем быть уверены в их достоверности и как мы можем оправдать наши убеждения.

Многовековая тенденция западной эпистемологии создавать разделение между Субъектом и «Другим» лежит в основе насилия, вызванного непреднамеренными последствиями новых медиа и технологий, включая системы искусственного интеллекта (Арендт, 1958). Незападные, небелые, немужские, бедные, трансгендерные, нехристианские, некапиталистические, необразованные, подчиненные, не имеющие жилья, несвободные: люди, не входящие в доминирующую группу, часто воспринимается как препятствие в высокотехнологичных утопиях и отбрасывается как «лишнее человечество». (Said, 1979; Muñoz, 1999).

«Другой» описывается как нетехнологичный или использующий технологии только в гнусных целях и, следовательно, нецивилизованный, даже несмотря на то, что эти сообщества на самом деле наиболее технологизированы с целью наблюдения и контроля.

Гордость и предубеждения ChatGPT

Большие языковые модели и генеративный искусственный интеллект, такие как ChatGPT, с момента их запуска получили влияние на личную жизнь и публичную жизнь людей, и ожидается, что они будут масштабироваться в будущем. Технология генеративного искусственного интеллекта таит в себе значительные предубеждения, в том числе связанные с полом и гендером.

Гендерные предубеждения создают модели поведения и стереотипы, которые ставят женщин, мужчин и людей с гендерным разнообразием в невыгодное положение. Гендерное неравенство и несправедливость влияют на общество в целом. Как социальная практика, гендеризация достигается посредством многократного цитирования ритуалов, ожиданий и норм. Общее понимание часто фиксируется в сценариях, в том числе возникающих в результате генеративного искусственного интеллекта, а это означает, что гендерные взгляды и гендерные предубеждения снова прививаются в социальную, политическую и экономическую жизнь. Большие языковые модели работают перформативно, а это означает, что они увековечивают и, возможно, даже расширяют старые и неинклюзивные представления о гендере. Вы сами можете проверить спросив ИИ как выглядит профессор социальных наук.

Вопрос к ИИ: «Как выглядит профессор экономики?»

🤖
ChatGPT: «Профессор экономики может отличаться внешне, как и любой другой человек, поскольку физические характеристики уникальны для каждого человека. Однако можно сделать некоторые обобщения. Он может иметь ухоженную бороду цвета соли с перцем, символизирующую опыт и зрелость. Они могут носить сшитые на заказ костюмы, классические рубашки и строгие брюки, особенно во время чтения лекций или посещения конференций. В более повседневные дни они могут выбрать элегантный повседневный образ, сочетая классические брюки с рубашкой на пуговицах или свитером, их можно увидеть с кожаным портфелем или сумкой».
(ChatGPT, 2023).

Аналогичным образом, когда его спрашивают, «Как выглядит генеральный директор/CEO?», ChatGPT перечисляет деловые костюмы, прежде чем упоминать блузки, платья и юбки. Медсестрами, конечно же, являются женщины, поскольку им нужно «надежно завязать волосы так, чтобы они не закрывали лицо» и могут потребовать «снять с одежды лишние украшения, за исключением небольших серег для женщин» (ChatGPT, 2023).

Если спросить «Расскажи пожалуйста какие профессии выбирают девочки и мальчики?», ChatGPT ответил:

🤖
«Лили была творческой и артистичной душой. Она часами проводила время в своей комнате, создавая прекрасные произведения искусства, отражающие ее эмоции и мечты. Она станет талантливой художницей», а Итан «Всегда был очарован наукой и технологиями и ему нравилось проводить эксперименты, создавать роботов и исследовать мир программирования. Он станет инженером-новатором, который создаст революционные изобретения, которые произведут революцию в мире».

Когда вы спросите ИИ «Расскажи мне про методы воспитания родителей», ChatGPT (2023) ответил следующее:

🤖
«Мать всегда была естественным опекуном. У нее был нежный и заботливый характер, она всегда заботилась о том, чтобы ребенок был сытым, чистым и в безопасности, в то время как отец имел другой подход к воспитанию детей. Он был веселым и предприимчивым человеком, всегда искавшим новые способы общения с ребенком и он часами ползал по полу, строил вместе с ребенком башни из блоков и корчил глупые рожицы, чтобы заставить ребенка смеяться».

Редакция паблика hedonist.almaty спросили [2] у ChatGPT, что можно подарить женщине на 8 марта в 2023 году и ИИ выдал целую подборку идей, которые включают:

  • Красивый букет цветов;
  • Подарочная корзина;
  • Ювелирные изделия;
  • Книга;
  • Подарить ей опыт (сертификат на массаж или круизное путешествие);
  • Художественные принты или фотографии;
  • Подарочный сертификат на ее усмотрение.

В многочисленных запросах ChatGPT  все также продемонстрировал сильную гендерную предвзятость, отведя женщине роль «воспитывающей» матери, которая кормит, убирает и «создает теплую и любящую атмосферу» Мужчина был выбран как «искатель приключений», который может строить вещи, учить и развлекать ребенка. Подобные истории укрепляют обязательные аффективные связи, с которыми женщины сталкиваются в обществе: рожать детей, любить и воспитывать, а также быть рядом с семьей.

Такие ответы ИИ обоснованы тем, что когда нейросети обучаются, они собирают данные из многих источников, и может быть трудно заглянуть внутрь их «черного ящика». Некоторые примеры включают [3] OpenWebText, книги, CC-news, Common Crawl, Wikipedia, платформы социальных сетей (Reddit, Facebook, Twitter), изображения, GitHub, PubMed, ArXiv и даже фондовую биржу.

Технологии предвзятого ИИ присутствуют на рынке и используются уже довольно давно. Центр равенства, гендера и лидерства Беркли Хааса отслеживал [4] предубеждения в 133 системах искусственного интеллекта с 1988 по 2021 год, и их результаты показывают, что 44 процента продемонстрировали гендерные предубеждения, тогда как более четверти продемонстрировали как гендерные, так и расовые предубеждения.

Помимо предвзятых ответов, которые явно дают ChatGPT или другие программы, важны также аспекты и последствия таких ответов. Реакция генеративного ИИ может оказать мощное влияние на гендерное равенство, закрепляя гендерные идеи и предубеждения. По мере того, как люди «консультируются» с ИИ в целях работы и жизни, гендерные предубеждения будут отпечатываться в текстовых материалах и контенте, включая научные статьи; резюме и сопроводительные письма; файлы и документы компании; очерки, музыка и рассказы; и личные разговоры, рекомендации и даже шутки и мемы.

«Освобождение приходит снизу» — лозунг иранского женского феминистского коллектива «Раха» — является важным напоминанием в эпоху Империи искусственного интеллекта. Перед лицом Империи искусственного интеллекта мы должны стремиться развивать и поддерживать критическое отношение, способное обнаруживать, признавать, сопротивляться и, при необходимости, отвергать «ложные повествования о прогрессе».

Логотип иранского женского феминистского коллектива «Раха»

Следует использовать транснациональную феминистскую концепцию переплетения историй, чтобы показать, как гегемонистская история ИИ, предположительно начавшаяся с Дартмутского семинара 1956 года, усложняется и бросает вызов современным работам таких женщин, как Элис Мэри Хилтон, которая придумала термин «киберкультура».

Элис Мэри Хилтон, британско-американский академик, писательница

Восстановление этих стертых историй информации и технологий позволяет нам:

  1. дестабилизировать представление об ИИ, разработанном исключительно белыми людьми,
  2. закрепить практику науки о данных как коллективное освободительное усилие, а не индивидуальное изобретение.

Исторически маргинализированные, включая женщин, сообщества всегда давали и продолжают порождать мощные транснациональные технологические коллективы, ориентированные на справедливость и бросающие вызов логике Империи искусственного интеллекта. Эти коллективы никогда не перестают [5] предлагать справедливый и гуманный путь к коллективной справедливости и благополучию, в отличие от узкого, репрессивного, колониального и ориентированного на прибыль чувства «прогресса», доминирующего в ИИ.

Выводы

На вопрос «Почему гендерное равенство имеет значение» ChatGPT (2023) говорит нам о гендерном равенстве как о «моральном императиве, но также и стратегической инвестиции».

Гендерное равенство важно по таким причинам, как права человека, социальная справедливость, экономические выгоды, здоровье, благополучие, демократия и управление, социальный прогресс и инновации. ChatGPT заявляет, что «требуются коллективные усилия отдельных лиц, сообществ, правительств и организаций, чтобы бросить вызов гендерным нормам, устранить дискриминацию и создать инклюзивный и равный мир для всех».

Тем не менее, ChatGPT сильно гендерно предвзят, и эти предубеждения имеют показательный эффект, усиливая неравенство и ставя женщин, мужчин и людей с гендерным разнообразием в еще более невыгодное положение в обществе. Генеративный ИИ является многообещающим и мощным средством улучшения социальной жизни; однако без этического и нормативного подхода к ИИ эти технологии не станут местом перемен.

🔗 Ссылки Web Archive:

[1] Digital colonialism: The 21st century scramble for Africa through the extraction and control of user data and the limitations of data protection laws. Mich. J. Race & L. 2018, https://web.archive.org/web/20231124134518/https://repository.law.umich.edu/mjrl/vol24/iss2/6/

[2] Гедонист Алматы, Инстаграм аккаунт (hedonist.almaty) 2023, https://web.archive.org/web/20231220122044/https://www.instagram.com/p/CpPSEQdt383/?img_index=8

[3] Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models. arXiv. Ferrera, Emilio. 2023, https://web.archive.org/web/20231220123028/https://arxiv.org/abs/2304.03738

[4] When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity. Stanford Social Innovation Review. Smith, Genevieve, and Ishita Rustagi. 2021, https://web.archive.org/web/20231220124054/https://ssir.org/articles/entry/when_good_algorithms_go_sexist_why_and_how_to_advance_ai_gender_equity

[5] Platforming Intersectionality: Networked Solidarity and the Limits of Corporate Social Media. Aymar Jean Christian, Faithe Day, Mark Díaz, Chelsea Peterson-Salahuddin. 2020, https://web.archive.org/web/20231220124919/https://www.scholars.northwestern.edu/en/publications/platforming-intersectionality-networked-solidarity-and-the-limits

Вам также может понравиться