Может ли AI определить сексуальную ориентацию из фотографий?

Wikimedia Commons
Источник: Wikimedia Commons

Новое исследование из Стэнфорда утверждает, что вы можете определить, являетесь ли вы гей или прямо, анализируя фотографию своего лица. Мало того, что он утверждает, что более точно определяет сексуальную ориентацию, чем люди.

С одной стороны, это соответствует прогрессу искусственного интеллекта (или AI, для краткости), который способен обнаруживать личные атрибуты из онлайн-данных. С другой стороны, у него есть неудобные последствия для жизни и возврат к френологии.

Во-первых, давайте посмотрим на исследование. Он проанализировал фотографии с одного сайта знакомств. Он смотрел на белых мужчин и женщин, которые были идентифицированы как веселые или прямые. Это исключает людей цвета, бисексуалов, транссексуалов и всех, кто не находится на сайте. Алгоритм рассмотрел особенности лица и функции фотографии:

Исследование показало, что гомосексуальные мужчины и женщины склонны иметь «гендерно-атипичные» черты, выражения и «стили ухода», по существу означающие, что веселые мужчины выглядят более женственными и наоборот. Данные также выявили определенные тенденции, в том числе, что у гомосексуальных мужчин были более узкие челюсти, более длинные носы и более крупные лбы, чем у прямых мужчин, и что у гомосексуальных женщин были большие челюсти и меньшие лбы по сравнению с прямыми женщинами. (резюме от The Guardian)

Так есть ли какая-то генетическая связь, которая заставляет гомосексуалистов физически отличаться от прямых людей? Некоторые исследователи ИИ могут захотеть думать так, потому что алгоритм предлагает это, но нет никакого способа, чтобы это исследование приблизилось к такому выводу. Так много людей было исключено из этого исследования. То, что он действительно захватывает, – это стандарты красоты для этого конкретного сайта знакомств в Интернете.

Однако, если люди считают, что алгоритм может обнаружить сексуальную ориентацию, он открывает дверь для наблюдения и неправильных предположений. Будем ли мы запускать людей через алгоритм и делать выводы о них? Что, если это будет сделано в таких местах, как Чечня, где геев активно казнят или сажают в тюрьму?

Этот проект подчеркивает шаткую этическую основу, на которую наступают исследователи ИИ. Я компьютерный ученый, создающий ИИ, который узнает о людях. Однако я лично не буду проводить такое исследование. Это действительно говорит о наборе данных, который есть у исследователей, а не о черте, которую они изучали, но имеет широкие социальные последствия, если люди верят в результаты. Реальное беспокойство об ИИ должно быть не таким, что это так хорошо, что мы сталкиваемся с поглощением стиля Скайнет. Скорее всего, люди с властью сделают неверные предположения о том, что ИИ может сделать, и они будут использовать его, чтобы принимать жизненные решения о людях, которые не прибегают к регрессу и никогда не соглашались на его использование.