26.10.2020

«Ужасный эксперимент» показывает, что инструмент обрезки Twitter имеет расовые предубеждения.

Программист, который провел «ужасный эксперимент», считает, что автоматизированный инструмент Твиттера предпочитает лица белых людей.

Изображение: инструмент обрезки Twitter решил показать фотографию Митча МакКоннелла вместо Барака Обамы: Pic: @bascule

Twitter начал расследование после того, как пользователи заявили, что функция обрезки изображений отдает предпочтение лицам белых людей.

Автоматический инструмент в мобильном приложении социальной сети автоматически обрезает изображения, которые слишком большие, чтобы поместиться на экране, и выбирает, какие части изображения следует обрезать.

Но эксперимент, проведенный дипломированным программистом, показал расовые предубеждения.

Изображение: Twitter пообещал провести расследование

Чтобы увидеть, что выберет алгоритм Твиттера, Тони Арьери опубликовал длинное изображение с фотографиями в голову лидера республиканцев Сената Митча МакКоннелла вверху и бывшего президента США Барака Обамы внизу, разделенных белым пространством.

На втором изображении фотография Обамы была сделана вверху, а фотография Макконнелла — внизу.

Оба раза бывший президент был полностью исключен.

После «ужасного эксперимента», который был проведен после того, как он опубликовал изображение чернокожего коллеги, Аркьери написал: «Твиттер — лишь один из примеров проявления расизма в алгоритмах машинного обучения».

На момент написания его эксперимент был ретвитнут 78000 раз.

Twitter пообещал разобраться в этой проблеме, но заявил в своем заявлении: «Наша команда провела проверку на предвзятость перед отправкой модели и не нашла доказательств расовой или гендерной предвзятости в нашем тестировании.

«Из этих примеров ясно, что нам нужно провести дополнительный анализ. Мы продолжим делиться тем, что мы узнали, какие действия мы предпринимаем, и откроем исходный код нашего анализа, чтобы другие могли его просмотреть и воспроизвести».

Представитель Twitter также указал на исследование ученого из Университета Карнеги-Меллона, который проанализировал 92 изображения. В этом эксперименте алгоритм 52 раза отдавал предпочтение черным лицам.

Еще в 2018 году компания заявила, что инструмент основан на «нейронной сети», которая использует искусственный интеллект, чтобы предсказать, какая часть фотографии будет интересна пользователю.

Мередит Уиттакер, соучредитель AI Now Institute, сказала Фонду Thomson Reuters: «Это еще один из длинного и утомительного перечня примеров, демонстрирующих автоматизированные системы, кодирующие расизм, женоненавистничество и истории дискриминации».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *