Google так и не исправил генератор предвзятых изображений Gemini

Еще в феврале Google  приостановила  способность своего чат-бота Gemini на базе искусственного интеллекта генерировать изображения людей после того, как пользователи пожаловались на исторические неточности . Например, «Близнецы», которым было поручено изобразить «римский легион», показали бы анахроническую группу расово разнообразных солдат, в то время как «зулусские воины» были бы стереотипно черными.

Генеральный директор Google Сундар Пичаи извинился, а Демис Хассабис, соучредитель исследовательского подразделения Google в области искусственного интеллекта DeepMind, заявил, что исправление должно появиться «в очень короткие сроки» — в течение следующих нескольких недель. Но сейчас уже уже май, а обещанное исправление остается недостижимым.

Google рекламировал множество других функций Gemini на своей ежегодной конференции разработчиков ввода-вывода на этой неделе: от пользовательских чат-ботов до планировщика маршрутов отпуска и интеграции с Google Calendar, Keep и YouTube Music. Однако генерация изображений людей по-прежнему отключена в приложениях Gemini в Интернете и на мобильных устройствах, подтвердил представитель Google.

Так в чем задержка? Что ж, проблема, вероятно, более сложная, чем намекал Хассабис.

Наборы данных, используемые для обучения генераторов изображений, таких как Gemini, обычно содержат больше изображений белых людей, чем людей других рас и этнических групп, а изображения небелых людей в этих наборах данных усиливают негативные стереотипы . Google, явно стремясь исправить эти предубеждения, внедрил неуклюжее жесткое кодирование. И теперь он изо всех сил пытается найти какой-то разумный средний путь, который позволит избежать повторения истории .

Доберется ли до этого Google? Возможно. Возможно нет. В любом случае, затянувшееся дело служит напоминанием о том, что исправить плохое поведение ИИ нелегко, особенно когда в основе плохого поведения лежит предвзятость.

Вверх
error: Content is protected !!