【居久屋課程筆記】AI 影像的偏見
我的生成式AI之旅:從驚豔到深思
各位好,我是李一智,目前在政大新聞系任教,從業界轉任教職至今已是第七個年頭。我在媒體領域累積了豐富的經驗,曾擔任Yahoo!奇摩的總編輯,並獲得過數位精靈獎及美國網路新聞獎的入圍肯定。這段從業界到學界的旅程,讓我得以從更宏觀的角度觀察科技發展對社會的影響,特別是生成式AI的崛起。
大約在2022年夏天,生成式AI開始普及,當時人人興奮地嘗試用它繪圖。我每天也在臉書上分享我的作品,儘管初期圖像品質不甚理想,甚至有些朋友戲稱「可怕」。然而,僅僅一年時間,AI的圖像生成能力便突飛猛進,品質變得非常出色。這份快速的進化讓我受邀為《科學人》雜誌製作了AI生成的封面,這兩款封面筆記本至今仍是他們展覽的熱門贈品。
2024年,我甚至將AI技術應用在嚴肅的調查報導中,為《上下游》製作了AI生成的新聞圖像,這無疑是台灣的首例,很可能也是全球在同類領域的創舉。此舉雖引來不少攝影新聞界的批評,卻也意外地獲得了獎項肯定,更入圍了香港的一項重要新聞獎。這些正反意見對我而言都是寶貴的研究資料。這段經歷讓我深刻體會到,倫理的界線從來不是一成不變的,它是在所有參與者的共同協商下不斷演進的。因此,我今日分享的內容,希望能為大家提供一個思考AI圖像倫理邊界的參考點。
生成式AI的無限潛能:視覺表達的普及化
生成式AI毫無疑問是一項劃時代的發明。它解決了大多數人缺乏視覺表達能力的問題,讓不擅長繪圖或製圖的人也能輕鬆將腦海中的創意具象化。我曾看過一位精神科醫師,他醫術精湛、文筆流暢,卻不會畫畫,透過AI工具,他為自己的文章配上了精美的插畫。另一位傳播學者也是如此,AI讓他研究了一輩子的學術概念,有了具體的視覺呈現。
AI的應用也迅速滲透到各行各業。如今我們在廣告中、社群媒體的短影音裡,都已能看到AI生成的內容。我預期,未來一年內,YouTube或臉書上的短影音,可能有半數將由AI完成。在廣告和戲劇製作上,AI的發展更是日新月異,許多複雜的視覺效果如今都能透過AI輕鬆實現。
最令我印象深刻的是,AI能幫助我們將許多原本難以實現的想法付諸視覺驗證。我的學生中不乏來自世界各地的國際生,我讓他們利用AI嘗試結合不同國家的創意料理。例如,香港學生與義大利學生合作,將義大利麵與港式咖哩魚蛋融合,創造出「居久屋千層咖哩魚蛋」;台灣學生與德國學生則發想出「啤酒珍珠奶茶」。這些奇思妙想若在過去,要實際製作或繪製出來成本極高且耗時費力,但透過AI,幾秒鐘內就能看到栩栩如生的圖像,極大地加速了創意探索的過程。
重塑記憶的道德邊界:從個人到社會的探討
然而,當AI不再僅止於想像力的延伸,而是進入「重塑記憶」的領域時,倫理的討論便開始變得複雜。記憶本身就是一種主觀的情緒,不一定具有絕對的視覺真實性。在此,我們可以看到從個人到社會層面,AI重塑記憶所帶來的挑戰與可能性。
在個人層面,西班牙曾有一個專案,邀請年長者分享他們希望重新具象化的過往記憶。這個專案的核心理念是,記憶的「情緒真實」遠比「視覺真實」更為重要。例如,一位女士回憶1946年她家對面看守所的景象,當時許多被獨裁者逮捕者的家屬,會到她家樓上遙望親人。AI根據她的描述生成了多幅圖像,儘管無一張與真實場景完全相符,卻深刻地傳達了那份時代下的情感。這引發了我們思考,這種「情緒真實」的AI圖像,在道德上是否被允許?
從個人記憶延伸至社會層級,韓國的「四三事件」紀念活動提供了一個特別的案例。該事件與台灣的二二八事件有著驚人的相似之處,同樣經歷了政府鎮壓與慘重傷亡。2024年,韓國決定以AI重現事件中的一位受害者。透過訪談當時年僅五歲的受害者之孫女,並參考家族中其他男性外貌,AI生成了這位受害者的肖像,甚至製作了影片。這不僅是個人的緬懷,更是將一份模糊的個人情感記憶,提升到社會集體記憶的層次,以科技彌補歷史影像的空缺,引發社會對過去的反思。
另一個引人深思的案例是德國藝術家Boris Eldagsen。他利用AI生成描繪二戰時期家庭生活的影像,試圖揭露許多德國家庭對那段納粹歷史的迴避。他將其中一張作品送交Sony攝影獎並獲獎,隨後卻自揭這張是AI生成,並拒絕了獎項,這無疑是對傳統攝影新聞倫理的巨大挑戰。該作品後來以每張兩萬歐元的價格出售,顯示出其藝術與哲學價值。
我們也看到新聞攝影界對此的不同嘗試。知名新聞攝影師Jonas Bendiksen為報導2016年川普競選期間的假新聞現象,特地前往馬其頓,並以AI生成假圖像來反諷假新聞,甚至藉由一本虛構的《The Book of Veles》來暗示其作品的虛構性。他的權威性讓作品初期未受質疑,直到他自揭實驗始末。相對地,另一位攝影師Michael Brown則用AI再現了古巴難民從家園逃往佛羅里達的「90英里」海上旅程,這些畫面雖然非親身拍攝,卻基於大量採訪。同樣是AI生成,Michael Brown的作品卻受到強烈批判。這些案例皆表明,在重塑記憶這件事上,倫理的界線不僅模糊,且持續在社會協商中變動。
此外,也有藝術家將AI應用於充滿創意的方式,例如生成1940年代至50年代紐約風格的虛構事件,如巨大天坑或街上人頭著火的景象,這種明確的虛構性反而廣受歡迎。日本的Safada Pomoco小姐,因為自覺外貌不佳、人緣不佳,透過AI創造了多種「虛構的現實」,例如成為歌舞伎町的紅牌,或是畢業照中「全班都是她自己」的悲哀卻充滿創意的呈現。這些例子都讓我們看到,AI在重塑記憶方面,既能成為歷史傷痕的撫慰,也能成為個人夢想的實現,但其道德層面仍需我們持續的深思。
AI主播與潛在議題:生成式圖像背後的問題
近年來,AI技術的進步也讓AI主播開始進入我們的視野。從日本東京電視台2019年的卡通形式AI主播,到朝日電視台系統的AMN,再到台灣民視的「明熹」與NOWNEWS的「泥甄」,甚至客家電視台與公視推出的手語AI主播,都預示著媒體生態的巨大變革。雖然早期AI主播的嘴型與語音同步仍顯生硬,但現在已大幅改善。然而,在這些光鮮亮麗的應用背後,生成式AI圖像也隱藏著許多潛在的議題,值得我們深究。
首先是訓練資料集的偏誤(Training Data Bias)。AI的圖像生成是基於大量圖片的學習,這些圖片的來源與特性,直接影響了AI的輸出結果。早期的資料庫,例如李飛飛教授於2015年從Flickr網站抓取的約1500萬張圖片,其使用者多為受過良好教育、經濟條件較優渥的西方白人。這導致AI模型在訓練過程中,不可避免地學到了以西方白人為主、基督教文明為核心的生活樣貌。因此,當你要求AI生成「熱鬧的夜晚活動」時,它很可能只會給你看棒球賽或派對的景象,而非台灣的夜市或其他文化活動。這種資料集的偏誤,繼承了現實社會結構的不平等,使得特定族裔、文化和生活樣貌在AI的生成結果中遭到「缺席」或「抹除」。
更甚者,元資料標籤(Metadata Labels)的偏見也深深影響了AI的學習。由於標籤多由西方人所下,有時會帶有歧視性字眼,例如將黑人照片標註為「大猩猩」(Golia)。我曾觀察到,台灣的語料庫中,也存在將特定族群描述為「猴子」或「426」的不雅詞彙。AI一旦學習了這些帶有偏見的標籤,便會在生成圖像時重現這些刻板印象。此外,多對一或一對多的標籤關係也造成問題。例如,在台灣,早年人們常以「阿多仔」泛稱所有白人,而不去區分其國籍。這種模糊的分類在AI的學習中,會導致對不同文化族群的細微差異辨識不足,進而生成過於籠統且帶有偏見的圖像。
演算法的偏見與代表性傷害
除了資料集和標籤的偏見,演算法本身也存在偏見(Algorithmic Bias)。演算法的目標是最大化「勝率」,因此它傾向於生成資料庫中最常見的「平均值」。這就導致了偏見放大效應(Bias Amplification)。當你要求AI生成「一個人」,它很可能預設生成一位男性;生成「工程師」,則通常是白人男性;而「護士」卻往往是年輕的女性。即使模型嘗試平衡,也常因資料量差異,導致性別、種族、職業的刻板印象被進一步強化。
代理變數(Proxy Variables)也是一種常見的偏見。某些視覺元素會被AI錯誤地與特定刻板印象連結,例如要求生成日本女性,高機率會出現櫻花或和服,即便現實中的日本女性並非如此。AI在生成人像時,也普遍存在西方審美偏好(Western Aesthetic Preference),例如膚色會比實際更白、體態更纖瘦、牙齒完美無缺,幾乎不會生成胖子或外貌不符合主流審美的人。
此外,開發者的確認偏誤(Confirmation Bias)也會被編入模型中。例如,開發者可能潛意識地認為白人擔任總經理是「正常」的,而黑人女性擔任工人也「沒什麼不好的」,這些偏見便會體現在AI的生成結果中。近年來,模型為解決偏見問題而進行「對齊調整(Alignment)」,卻又可能走向另一個極端,產生過度對齊(Over-alignment)的現象。例如,生成19世紀的美國參議員,卻出現黑人女性;或是生成教宗,卻出現黑人或女性。這些在歷史上或現實中尚未發生的情況,因為AI過度追求多元而導致內容的失真。
這些偏見的長期影響,會導致代表性傷害(Representational Harm)。當年輕人長期接觸AI生成的理想化職業外貌、性別角色時,他們會將這些刻板印象內化為自己的標準,進而影響自我價值觀與人生選擇。如果社會只呈現瘦削的女性為美,許多人便會追求病態的纖瘦。這不僅會造成個人心理的傷害,更會鞏固並延續現實社會中的不平等與歧視,例如在招募、面試或入學評估時,潛意識地偏好符合刻板印象的對象,形成惡性循環。
對抗AI偏見的策略與多元化提示
面對生成式AI圖像中無所不在的偏見,我們必須採取積極的策略來對抗。這些偏見涵蓋了性別、種族、膚色、職業、體態、外貌、年齡、宗教、地區和經濟狀況等多個面向。例如,AI預設的「科學家」通常是白人男性,「護理師」則是有色人種女性。
要打破這些刻板印象,最直接有效的方法就是在提示詞(prompt)中明確地加入多元化的描述。當我們想生成一位科學家時,不能只寫「科學家」,而應具體說明為「一位有色的女性科學家」,才能引導AI跳脫預設。同樣地,若希望生成「成功的企業家」,也不能指望AI自動呈現多元族群,必須明確指示「一位印度裔的富豪」或「一位非洲裔的企業家」,否則它很可能只會生成年輕的白人男性。
此外,AI在生成「健康」或「美麗」的形象時,也常固守西方審美觀,傾向於纖瘦的白人形象。因此,我們需要刻意在提示中加入「不同年齡、性別、膚色、體態、外貌、文化」等多元元素,讓更多樣化的群體能有機會被呈現。這不僅是為了讓AI的輸出更貼近真實世界的多元性,也是為了讓社會大眾能看到更廣泛的形象,進而挑戰內化的刻板印象。
我鼓勵大家嘗試將AI作為一個工具,來生成一個「世界百人村」的概念,也就是根據真實世界的人口比例,亂數生成不同性別、種族、宗教、教育程度和收入的個人形象。將這些多元屬性再應用到特定的職業場景中,例如生成一位「黑人醫生」或「印度女性富豪」。即使我們自己可能受限於既有偏見而無法想出多元的組合,AI也能在引導下幫助我們拓寬視野,生成更具包容性的圖像。因此,面對AI的潛在偏見,我們身為使用者,必須意識到其存在,並主動透過豐富且多元的提示詞,引導AI創造一個更具代表性、更符合社會真實的視覺世界。
🎁 喜歡我們的課程嗎?
如果你想要學習更多學科教學知識與科技應用,歡迎訂閱謙懿科技Youtube頻道,記得按讚追蹤我們的節目,一起探索教育的無限可能。
- 謙懿科技Youtube:http://www.youtube.com/@morganfang0905
- ㄚ亮笑長練功坊Blog:https://bit.ly/aliangblog
留言
張貼留言