近期,谷歌推出了名為Gemini的AI模型,具備根據(jù)文字生成圖像的功能。然而尷尬的是,大部分生成的人物圖像都是有色人種,而非白人。

一名網(wǎng)友分享了他使用谷歌AI的經(jīng)歷,發(fā)現(xiàn)所生成的人物圖像幾乎全都是黑人。這引起了一些人對谷歌在追求政治正確的同時忽視了事實的質(zhì)疑。有人試著輸入“高興的黑人”等關(guān)鍵詞,沒有遇到阻礙。現(xiàn)在,每個人都似乎知道美國國父喬治·華盛頓是黑人了。

面對用戶的反饋,谷歌高級副總裁普拉巴卡爾·拉加萬發(fā)表了道歉。他承認:“很明顯,這一功能沒有達到預(yù)期的結(jié)果。生成的一些圖像不準(zhǔn)確或甚至令人不悅。我們很感謝用戶的反饋,并為該功能的不良表現(xiàn)向大家道歉。當(dāng)我們設(shè)置Gemini時,我們已經(jīng)調(diào)整了該功能,以確保不重蹈我們在圖像生成技術(shù)中遇到的一些陷阱,例如生成暴力、露骨或真人圖像。”

有用戶認為谷歌的Gemini存在針對白人的“種族主義”。對此,Gemini系統(tǒng)的高級主管杰克·克勞茨克回應(yīng)稱:“Gemini的AI生成圖像確實可以生成各種不同的人物形象,這是好事,因為全世界的人都在使用它。然而,它的表現(xiàn)未達到預(yù)期效果。”他還表示,谷歌正在努力解決這類問題。