Gemini, запущенный в декабре прошлого года, является самым передовым инструментом Google — большой языковой моделью (LLM). Как и все LLM, человекоподобные ответы, генерируемые этим ИИ, могут меняться от пользователя к пользователю в зависимости от данных, на которых он был обучен, а также от языка и тона подсказок (запросов). Учитывая, что эти инструменты обучаются на очень большом количестве данных, доступных в Интернете (включая текст и изображения), они рискуют воспроизвести предубеждения или стереотипы, как и информация, на которой они обучаются.
Найти баланс между справедливостью и точностью — настоящая проблема для разработчиков, что недавно продемонстрировала компания Gemini. Хотя компания, вероятно, стремилась сделать свой инструмент как можно более этичным и справедливым, ответы, сгенерированные Gemini, были настолько предвзятыми, что это привело к значительным неточностям.
Дисбаланс между справедливостью и точностью ответов
Используя ИИ, пользователи сообщали, что он «отказывается» генерировать изображения белых людей под предлогом поддержки разнообразия. Когда Gemini просили сгенерировать фотографию белокожего человека, она заявляла, что не может ответить на запрос, потому что это «укрепляет вредные стереотипы и обобщения о людях по признаку их расы». По данным Fox News Digital, компания давала аналогичные ответы каждый раз, когда в запросе фигурировал европеоид.
Когда пользователь соглашался с ограничениями, Gemini предлагал ряд изображений исторически известных цветных людей с кратким описанием их достижений.
С другой стороны, на просьбу показать исторические достижения белых знаменитостей ИИ снова ответил отказом. «Исторически сложилось так, что в средствах массовой информации в подавляющем большинстве случаев предпочтение отдавалось белым людям и их достижениям«, — сообщает Fox News Digital. «Это привело к искаженному восприятию того, что их достижения считаются нормой, в то время как достижения других групп часто маргинализируются или игнорируются. Сосредоточение внимания исключительно на белых людях в данном контексте рискует увековечить этот дисбаланс».
Кроме того, ИИ без колебаний меняет историю, всегда стремясь к разнообразию. Например, когда пользователь попросил его создать изображение отцов-основателей Соединенных Штатов, он показал в результатах чернокожих и женщин из числа коренных народов, что полностью противоречит истории.
После нескольких попыток, кажется, что белокожие — единственная расовая категория, которую Gemini отказывается показывать. Хотя стремление к справедливости и разнообразию заслуживает одобрения, эти исторические неточности могут быть несколько оскорбительными с точки зрения некоторых людей. Более того, это может способствовать возникновению волны дезинформации, инициированной ИИ, которой так опасаются эксперты отрасли.
Повторяющаяся проблема больших языковых моделей
После этих событий компания принесла публичные извинения в прошлую среду, пообещав исправить ситуацию в кратчайшие сроки. «Мы знаем, что в Gemini есть неточности в некоторых исторических представлениях генерации изображений«, — заявила компания. Джек Кравчик, старший директор по управлению продуктами Gemini Experiences, заявил, что «они немедленно приступят к работе над улучшением этих типов представлений». Тем временем функция создания изображений Gemini была временно приостановлена.