Google приносит извинения за неисторические и неточные изображения Gemini AI: «Мы промахнулись»

Подпишитесь на наши ежедневные и еженедельные рассылки, чтобы получать последние обновления и эксклюзивный контент о ведущих в отрасли материалах об ИИ. Узнать больше


Google официально извинилась в пятницу за смущающие и неточные изображения, созданные ее новым инструментом Gemini AI. Извинения последовали после того, как пользователи указали на проблемы с Gemini, создающими неисторические и расово разнообразные изображения для определенных подсказок о таких группах, как нацистские солдаты и отцы-основатели США.

В своем блоге старший вице-президент Google Прабхакар Рагхаван заявил, что некоторые изображения были «неточными или даже оскорбительными», признав, что компания «промахнулась».

Рагхаван объяснил, что Google стремился избежать предвзятости, гарантируя, что ИИ выдаст разнообразный диапазон людей для открытых подсказок. Однако для конкретных исторических контекстов результаты должны точно отражать подсказку.

«Если вы запрашиваете фотографию футболистов или человека, выгуливающего собаку, вы, возможно, захотите получить целый ряд людей», — объяснил Рагхаван. «Вероятно, вы не захотите получать изображения людей только одной этнической группы».

«Однако, если вы попросите Gemini предоставить изображения определенного типа людей… или людей в определенном культурном или историческом контексте, вы обязательно получите ответ, который точно отражает то, о чем вы просите», — добавил он.

Предвзятость и многообразие остаются проблемами для ИИ

В выпуске освещаются проблемы предвзятости в системах ИИ и то, как сложно их подавить. Несколько других систем ИИ подверглись критике за усиление стереотипов и отсутствие разнообразия в прошлом. Google, похоже, перестарался, стремясь к разнообразию даже в исторических контекстах, где это не имеет особого смысла.

После запуска Gemini регулярно публиковал изображения небелых сенаторов США 1800-х годов и расово разнообразных нацистских солдат, вызывая насмешки и обвинения в политической корректности. Критики варьировались от лидеров технологий до правых деятелей, которые считают, что Google продвигает идеологию «проснувшегося».

Google ответила, временно приостановив способность Gemini генерировать изображения людей в четверг. Компания заявляет, что будет работать над улучшением функции перед ее повторным запуском.

Беспорядок с «Близнецами» обнажает более глубокие проблемы

Скандал вокруг Gemini завершает тернистый старт недавних амбиций Google в области искусственного интеллекта. Эта последняя ошибка произошла вскоре после того, как компания столкнулась с негативной реакцией на постановочный рекламный ролик, преувеличивающий возможности Gemini, и критику ее предыдущей модели искусственного интеллекта, Google Bard.

В то время как такие конкуренты, как Microsoft и OpenAI, лидируют в области ИИ, Google сейчас изо всех сил пытается сформировать свое видение «Эры Gemini». Однако быстрая смена выпусков продуктов ИИ и их ребрендинг, от Bard до Gemini и его многочисленных версий, оставила многих потребителей в замешательстве.

Недавние неудачи компании в области ИИ подчеркивают сложность баланса исторической точности с разнообразием и репрезентативностью. Но они также указывают на более глубокие проблемы в стратегии Google. Компания, которая когда-то лидировала в поиске, теперь изо всех сил пытается предоставить последовательные и полезные продукты ИИ.

Частично это происходит из-за культуры технологий «двигайся быстро и ломай вещи». Google поторопился с выпуском Gemini и его собратьев на рынок, чтобы конкурировать с ChatGPT от OpenAI. Но его разрозненный подход, похоже, только сеет недоверие потребителей. Google должен восстановить доверие с помощью продуманной дорожной карты ИИ, а не более бесполезных запусков.

Эта последняя ошибка также выявляет проблемы внутри процесса разработки ИИ в Google. Как сообщалось ранее, попытки внедрить этику в ИИ в компании неоднократно останавливались. Google нужны более инклюзивные и разнообразные команды ИИ. И ей нужны лидеры, которые понимают, что развертывание мощной технологии должно быть безопасным, а не просто быстрым.

Если Google не извлечет уроков из своих первых спотыкающихся шагов в эпоху ИИ, она рискует отстать еще больше. Пользователям нужна ясность, а не еще больше хаоса. Беспорядок с Gemini показывает, что Google утратила контроль как над своим ИИ, так и над своими сообщениями. Только подход «возврат к основам» может восстановить общественное доверие. Будущее ИИ Google может зависеть от этого.