Facebook извинился за искусственный интеллект, который отнес чернокожих мужчин к «приматам»

Форекс

Facebook назвал это «недопустимой ошибкой».

Facebook извинился за искусственный интеллект, который отнес чернокожих мужчин к «приматам»

В пятницу, 3 сентября, Facebook извинился за неправильный термин к видео и заявил, что изучает свою функцию рекомендаций, чтобы “предотвратить повторение этого” . Jim Wilson/The New York Times

Пользователи Facebook, которые недавно смотрели видео из британского таблоида с участием чернокожих, увидели автоматическую подсказку из социальной сети, в которой спрашивалось, хотят ли они «продолжать смотреть видео с приматами». В результате компания провела расследование и отключила функцию искусственного интеллекта.

В пятницу Facebook извинился за то, что назвал «неприемлемой ошибкой», и сказал, что изучает работу функции рекомендаций, чтобы «предотвратить повторение этого».

Видео, датированное 27 июня 2020 года, было опубликовано The Daily Mail и на нем были показаны стычки чернокожих мужчин с белыми гражданскими лицами и полицейскими. По факту видео не имело никакого отношения к обезьянам или приматам.

Дарси Гроувс, бывший менеджер по дизайну контента в социальной сети, сказала, что подруга недавно прислала ей снимок экрана с подобным приглашением смотреть дальше видео с приматами. Затем она разместила его на форуме отзывов о продуктах для нынешних и бывших сотрудников Facebook. В ответ менеджер по продукту Facebook Watch назвал это «неприемлемым» и сказал, что компания «изучает основную причину».

Г-жа Гроувс сказала, что подсказка была «ужасающей и вопиющей».

Дани Левер, пресс-секретарь Facebook, заявила в своем заявлении:

«Как мы уже говорили, хотя мы и внесли улучшения в наш ИИ, мы знаем, что он не идеален, и нам еще предстоит продвинуться вперед. Мы приносим извинения всем, кто, возможно, видел эти оскорбительные рекомендации».

Google, Amazon и другие технологические компании в течение многих лет подвергались тщательной проверке на предмет предвзятости в их системах искусственного интеллекта, особенно в отношении вопросов расы. Исследования показали, что технология распознавания лиц настроена против цветных людей и затрудняет их идентификацию, что приводит к инцидентам, когда чернокожие подвергаются дискриминации или арестам из-за компьютерной ошибки.

В 2015 году Google Фото ошибочно пометил фотографии чернокожих людей как «горилл», за что поисковый гигант извинился и немедленно приступил к устранению проблемы. Более чем через два года Wired обнаружил, что решение Google заключалось в том, чтобы подвергнуть цензуре слово «горилла» в поисковых запросах, а также заблокировать слова «шимпанзе» и «обезьяна».

Facebook имеет один из крупнейших в мире хранилищ загруженных пользователями изображений, на которых можно обучать свои алгоритмы распознавания лиц и объектов. Компания, которая подбирает контент для пользователей на основе их прошлых привычек просмотра и просмотра, иногда спрашивает людей, хотят ли они и дальше видеть сообщения в связанных категориях.

Facebook и Instagram постоянно борются с проблемами, связанными с расой. Например, после июльского чемпионата Европы по футболу трое чернокожих членов национальной сборной Англии по футболу подверглись расовому насилию в социальной сети за пропущенные пенальти в финальном матче чемпионата, где Англия играла в Лондоне на домашнем стадионе.

Расовые вопросы также вызвали внутренние раздоры в Facebook. В 2016 году генеральный директор Марк Цукерберг попросил сотрудников перестать вычеркивать фразу «Black Lives Matter» и заменять ее на «All Lives Matter». Сотни сотрудников также устроили виртуальную забастовку в прошлом году в знак протеста против обработки компанией сообщения президента Дональда Трампа об убийстве Джорджа Флойда в Миннеаполисе.

Позже компания наняла вице-президента по гражданским правам и провела аудит по гражданским правам. В июльском ежегодном отчете о разнообразии Facebook сообщается, что 4,4 процента его сотрудников в США — чернокожие, по сравнению с 3,9 процента годом ранее.

Г-жа Гроувс, которая покинула Facebook летом после четырех лет, заявила в интервью, что в компании допустили ряд ошибок, которые предполагают, что ее лидеры не уделяют особого внимания способам решения расовых проблем.

«Facebook не может продолжать делать эти ошибки, а затем говорить:» Мне очень жаль «, — сказала она.

Перевод статьи New York Times

По теме:
Источник

Оцените статью
IZIFOREX.COM
Добавить комментарий