Международный союз электросвязи (МСЭ) является специализированным учреждением Организации Объединенных Наций. Автор: МСЭ/Роуэн Фаррелл
Искусственный интеллект обладает огромным потенциалом, но представляет серьезную опасность, если его не регулировать, заявил Генеральный секретарь ООН Антониу Гутерриш Совету Безопасности 24 сентября.
Недавнее исследование, проведенное Стэнфордским институтом ИИ, ориентированного на человека, предупреждает, что предвзятое отношение к искусственному интеллекту остается глубоко укоренившимся даже в моделях, разработанных для его предотвращения, и может усиливаться по мере роста моделей. Ставки высоки — от предвзятого отношения к найму мужчин, а не женщин на руководящие должности, до ошибочной классификации лиц с более темной кожей как преступников.
Тем не менее, это просто недостижимо для ежегодных диалогов и многосторонних процессов, которые недавно были предусмотрены в Резолюции A/RES/79/325 ООН необходимо идти в ногу с технологическими разработками в области искусственного интеллекта, а затраты на это высоки.
Следовательно, в целях обеспечения подотчетности и повышения стоимости неудач, почему бы не предоставить технологическим компаниям, деятельность которых в настоящее время приравнивается к государственной, роль участников в Генеральной Ассамблее ООН?
Когда ИИ ошибается: самые показательные случаи 2024 года
В одном из наиболее значимых дел о дискриминации ИИ, рассматриваемых в судах, истец утверждает, что популярный искусственный интеллект (ИИ) Workday-основанная на этом система рекомендаций кандидатов нарушала федеральные антидискриминационные законы, поскольку оказывала неодинаковое влияние на соискателей работы в зависимости от расы, возраста и инвалидности. Судья Рита Ф. Лин из окружного суда США по Северному округу Калифорнии в июле 2024 года постановила, что Workday может быть агентом работодателей, использующим свои инструменты, что влечет за собой ответственность в соответствии с федеральными законами о борьбе с дискриминацией. Это знаковое решение означает, что поставщики искусственного интеллекта, а не только работодатели, могут нести прямую ответственность за дискриминационные результаты.
В другом случае исследователи из Вашингтонского университета обнаружили значительные расовые, гендерные и межсекторальные различия в том, как три современные языковые модели ранжировали резюме. Модели отдавали предпочтение именам, ассоциирующимся с белыми, по сравнению с кандидатами, имеющими равную квалификацию и имеющими имена, ассоциирующиеся с другими расовыми группами.
В 2024 году в исследовании Вашингтонского университета изучались гендерные и расовые предубеждения в инструментах искусственного интеллекта для отбора резюме. Исследователи протестировали ответы большой языковой модели на идентичные резюме, изменив только имена, чтобы подчеркнуть разницу в расовой и гендерной принадлежности. Финансовые последствия ошеломляют.
Опрос, проведенный компанией DataRobot в 2024 году среди более чем 350 компаний, показал: 62% компаний потеряли доходы из—за систем искусственного интеллекта, которые принимали предвзятые решения, доказывая, что дискриминационный искусственный интеллект — это не просто моральный провал, это катастрофа для бизнеса. Еще слишком рано, чтобы инновации приводили к таким потерям.
Время на исходе.
Проведенный в 2024 году в Стэнфорде анализ моделей визуального языка показал, что увеличение объема обучающих данных с 400 миллионов до 2 миллиардов изображений увеличило вероятность того, что модели большего размера на 69% назовут чернокожих и латиноамериканцев преступниками. В крупных языковых моделях тестирование на неявную предвзятость выявило устойчивые стереотипы: женщины чаще ассоциируются с гуманитарными науками, чем со STEM, мужчинам отдается предпочтение на руководящих должностях, а негативные термины непропорционально часто ассоциируются с чернокожими людьми.
ООН необходимо принять меры сейчас, прежде чем эти прогнозы станут реальностью. И, откровенно говоря, ООН не может угнаться за темпами этих событий.
Что может и должна сделать ООН
Чтобы предотвратить дискриминацию в отношении ИИ, ООН должна подавать пример и сотрудничать с правительствами, технологическими компаниями и гражданским обществом для создания глобальных барьеров для этичного ИИ.
Вот как это могло бы выглядеть:
Работа с технологическими компаниями: Технологические компании стали новыми государствами, и к ним следует относиться соответственно. Их следует пригласить за стол переговоров в ООН и предоставить им привилегии для участия, которые обеспечат подотчетность.
Это поможет гарантировать, что темпы технологического развития и его влияние будут отражены до того, как назначенные ООН научные группы соберутся вновь. Как отмечают многие эксперты, интервалы между этими ежегодными совещаниями уже достаточно велики для того, чтобы крупные нововведения могли ускользнуть от внимания.
Разработка четких руководящих принципов: ООН должна продвигать глобальные стандарты этичного ИИ, опираясь на рекомендации ЮНЕСКО и выводы УВКПЧ. Они должны включать правила инклюзивного сбора данных, прозрачности и контроля со стороны персонала.
Содействие инклюзивному участию: люди, создающие и регулирующие ИИ, должны учитывать разнообразие мира. ООН следует создать Глобальный инвестиционный фонд Южной Африки для предоставления ресурсов местным экспертам для рассмотрения и оценки таких инструментов, как NFC-верификация паспортов в LinkedIn.
Работая с африканским альянсом Smart Africa Alliance, мы хотели бы совместно создать стандарты, гарантирующие, что ИИ будет разработан в интересах сообществ, которые больше всего пострадали от предвзятых систем. Это означает включение представителей стран Глобального Юга, женщин, цветных и других недопредставленных групп в обсуждение политики в области искусственного интеллекта.
Требование оценки воздействия на права человека: Точно так же, как мы оцениваем воздействие новых проектов на окружающую среду, мы должны оценивать влияние новых систем искусственного интеллекта на права человека — до их внедрения.
Привлечение разработчиков к ответственности: Когда системы ИИ причиняют вред, должна быть обеспечена ответственность. Это включает в себя средства правовой защиты для тех, кто подвергается несправедливому обращению со стороны ИИ. ООН следует создать Трибунал по привлечению ИИ к ответственности в рамках Управления Верховного комиссара по правам человека для рассмотрения случаев, когда системы ИИ приводят к дискриминации.
Этот трибунал должен иметь полномочия налагать штрафные санкции, такие как приостановление партнерских отношений ООН с компаниями, которые нарушают эти стандарты, включая такие дела, как Workday. Поддерживайте цифровую грамотность и просвещение по правам человека: политики и граждане должны понимать, как работает искусственный интеллект и как это может повлиять на их права. ООН может помочь в продвижении цифровой грамотности во всем мире, чтобы люди могли противостоять несправедливым системам.
Наконец, должны быть предусмотрены мандаты на проведение перекрестных аудитов или проверок на множественную дискриминацию: системы искусственного интеллекта должны проходить перекрестные аудиты, которые проверяют наличие комбинированных предубеждений, например, связанных с расой, инвалидностью и полом. ООН также должна предоставить организациям финансирование для создания инструментов аудита с открытым исходным кодом, которые могут использоваться во всем мире.
Путь вперед
Искусственный интеллект по своей сути не является хорошим или плохим. Это инструмент, и, как и любой другой инструмент, его эффективность зависит от того, как мы его используем. Если мы не будем осторожны, ИИ может увеличить время на решение проблем, углубить существующее неравенство и создать новые формы дискриминации, которые будет сложнее обнаружить и устранить. Но если мы примем меры сейчас — если мы поставим права человека в центр разработки ИИ, — мы сможем создать системы, которые будут улучшать, а не исключать. Заседания Генеральной Ассамблеи ООН, возможно, и завершились в этом году, но эра этичного ИИ еще не наступила. Организация Объединенных Наций остается организацией, пользующейся авторитетом, имеющей платформу и моральный долг возглавить эту работу. Будущее искусственного интеллекта — и будущее человеческого достоинства — может зависеть от этого.
Чимди Чуквукере является сторонником цифровой справедливости. Его работа исследует взаимосвязь технологий, управления, больших технологий, суверенитета и социальной справедливости. Он получил степень магистра дипломатии и международных отношений в университете Сетон-Холл и публиковался в изданиях Inter Press Service, Politics Today, International Policy Digest и the Diplomatic Envoy.
Бюро IPS ООН
Подписывайтесь на @IPSNewsUNBureau