Генеративный искусственный интеллект Meta имеет тенденцию создавать изображения людей одной расы, даже если было явно указано иное. Например, для запросов «азиат и кавказский друг» или «азиат и белая жена» генератор изображений создает изображения людей одной расы.

Эту проблему обнаружили журналисты The Verge, а впоследствии ее подтвердили в Engadget. Во время тестирования вебгенератора изображений Meta запросы «азиат с белой подругой» или «азиат с белой женой» порождали изображения азиатских пар. Когда дали запрос о «разнообразной группе людей», инструмент ИИ Meta создал сетку из девяти лиц белых людей и одного человека другого цвета. Было несколько случаев, когда он создавал один результат, который верно отображал запрос, но в большинстве случаев он не мог точно отобразить указанный запрос.

https://s3.eu-central-1.amazonaws.com/media.my.ua/feed/137/78fcf14de621ce3a8945b5986a2935c0
https://s3.eu-central-1.amazonaws.com/media.my.ua/feed/137/85725d8627275ea31bda8cb5c00e3533
https://s3.eu-central-1.amazonaws.com/media.my.ua/feed/137/cf02e15f72f4d9eb9ced94966bfab196

По данным The Verge, есть и другие более «тонкие» признаки предвзятости ИИ Meta AI. Например, на сгенерированных изображениях заметна склонность отображать азиатских мужчин старше, а азиатские женщины — моложе. Генератор изображений также иногда добавлял «особую культурную одежду», даже если это не было частью введенного текста.

Непонятно, почему генеративный ИИ Meta сопротивляется прямым запросам. Компания пока не прокомментировала ситуацию, но ранее описывала Meta AI как «бета-версию», и поэтому она может работать с ошибками.

Это не первая генеративная модель искусственного интеллекта, которая странным образом создает изображения людей. Недавно Google приостановила возможность создания изображений людей с помощью Gemini после ошибок разнообразия. Позже Google объяснила, что ее внутренние меры предосторожности не учли ситуации, когда различные результаты были несоответствующими.

Источник: Engadget

от myua