Искусственный интеллект научился определять сексуальную ориентацию по фото
Что можно узнать о человеке по фотографии? Да не так уж и много на самом деле. В основном это поверхностная информация, и касается она исключительно физических параметров. Другое дело — искусственный интеллект, разработанный в Стэнфордском университете. Алгоритм с высокой долей вероятности определяет сексуальную ориентацию человека по изображению, сообщает The Guardian.
Определяет ИИ ориентацию по лицам. Исследование ученых Стэнфордского университета показало, что алгоритм с вероятностью 81% может сказать, чье фото перед ним: мужчины-гея или натурала. При этом результаты обработки изображений женщин у программы чуть ниже — только 74% верных ответов. Тем не менее оба этих показателя куда выше, чем если бы за попытки угадать взялся человек. Фокусные группы правильно угадывают ориентацию мужчин только в 61% случаев, а женщин — в 54%.

Для того чтобы научить ИИ разбираться кто есть кто, ученым потребовалось проанализировать более 35 тысяч фотографий мужчин и женщин, которые можно было найти в публичном доступе на сайтах знакомств. А уже после результаты «скормили» алгоритму, и тот стал учиться, опираясь на визуальную сторону широкого набора полученных данных. Так алгоритм выявил, что во внешности мужчин гомосексуальной ориентации можно заметить больше женских черт, а еще можно чаще встретить узкие челюсти, крупные носы и высокие лбы. ИИ подметил, что от натуралов их также отличают стрижки и выражение лица. У женщин же с нетрадиционной сексуальной ориентацией все наоборот: челюсти больше, а лбы — низкие. Что касается не такого большого числа правильных ответов при работе с фото женщин, то этот момент ученые объясняют так: женская сексуальная ориентация не такая ярко выраженная и понятная, как мужская, — каких-то явных признаков найти можно гораздо меньше.


Говоря о достижениях разработки, специалисты отмечают, что им немного тревожно за судьбу ИИ. Ведь, как и любой другой инструмент, алгоритм может попасть не в те руки, — и тогда дело может принять далеко не безобидные обороты. К примеру, посредством алгоритма использовать личные данные пользователей в корыстных целях (разумеется, не своих).