外送茶工作者面對AI審查標籤「成人內容」的自我審查與抗爭策略
- g83582
- 2025年11月20日
- 讀畢需時 7 分鐘
第一章 引言:AI審查的新性別政治
近年來,社群平台與內容販售網站紛紛導入人工智慧(AI)審查系統,用以自動辨識、過濾或標註「成人內容」。此舉原意是為防止未成年暴露於性露骨素材,並維護廣告商品牌安全。然而,對外送茶工作者而言,這套系統卻成為一種看不見的壓迫機制——它不僅篩選影像,更篩選勞動者的存在。AI演算法在學習數據中內化了對「女性身體」與「性暗示」的道德偏見,使得外送茶工作者的日常發文、生活自拍、甚至藝術創作,皆可能被自動標註為「成人內容」、降權或封禁。
在這種結構中,外送茶工作者被迫進入一種「雙重自我審查」狀態:一方面,她們必須預測演算法的界線,調整用詞與影像構圖;另一方面,她們也得應對社群輿論中對「情色」與「道德」的模糊界定。這種自我審查不僅改變了勞動實踐,也重塑了她們對自我身分與公共發聲權的想像。
第二章 AI審查機制的偏誤與制度性暴力
AI內容審查的核心在於「訓練資料」與「分類演算法」。許多平台的影像辨識模型以歐美道德觀與商業廣告規範為基準,將裸露、性暗示、女性胸部線條、自我展示等視為「高風險內容」。然而,這些標準忽略了文化脈絡與職業差異。例如,一名以教育為目的的性健康講師,或一位販售自拍影像的成人創作者,在畫面構成上可能無異,卻在平台上遭同樣標註為「成人內容」。
外送茶工作者指出,AI審查常導致「誤殺」(false positive),即將非情色內容誤判為成人素材;更嚴重的是,這種誤判多數發生在女性或性少數身上。這種算法偏誤是一種制度性暴力(institutional violence):它透過機器學習的中立表象,實際重現了父權與資本的控制模式,讓「可見」與「不可見」的界線由演算法決定,而非社會協商。

第三章 自我審查作為生存策略
面對高壓審查環境,許多外送茶工作者發展出細膩的「內容生存術」。她們學會辨識哪些關鍵字會觸發AI警報,例如「sex」「nude」「escort」等詞,並以符號、諧音、或表情符號替代。影像上,她們會刻意使用模糊濾鏡、遮罩貼紙、或象徵物(如花瓣、水面、窗簾影子)代替身體部位。
這些自我審查技巧在某種程度上延續了地下文化的創意傳統——透過隱喻、象徵與暗示,重新奪回表達空間。然而,它同時也造成心理負擔:持續的警覺與調整,讓外送茶工作者時刻感受到「被監視」。她們在平台上既是創作者,也是被審查者;在自我審查的同時,也在進行一場無形的心理戰。
第四章 集體抗爭與數位策略的興起
在全球外送茶工作者社群中,面對AI審查的抗爭已逐漸制度化。部分群體組成「演算法觀察小組」(algorithm watch group),記錄哪些帳號、哪些圖像類型最容易被標記;也有組織發起「#LetUsBeSeen」運動,要求平台提供透明的審查機制與人工覆核渠道。
此外,外送茶工作者也善用去中心化平台(如Mastodon、Fansly等),將流量導出主流社群;或運用加密技術與區塊鏈紀錄內容版權,以防止平台隨意刪除資料。這些策略象徵著「技術反向使用」(technological counter-use)——即將同樣的數位工具轉化為抗爭武器,以創造新的能見性政治。
第五章 AI與性別政治的未來想像
從外送茶工作者的角度來看,AI審查不只是技術議題,而是性別政治的延伸。當機器被賦予「判斷何為淫穢」的權力,社會的道德邊界便外包給演算法。這種外包化的倫理決策不僅危及言論自由,也削弱了外送茶工作者作為公民的話語權。未來若要改善此困境,必須在三個層面同時改革:
演算法透明化:平台需公開AI模型的訓練資料與標準,並接受外部審查。
人工覆核機制:提供受害創作者申訴管道,由具性別意識的審查員進行複核。
性教育與政策改革:將外送茶工作視為合法勞動的一環,讓平台不得以「道德」為由進行差別刪除。
唯有如此,AI審查才能從「控制身體的機器」轉變為「保障多元表達的工具」。

第六章 模糊邊界中的「合法表達」與數位陰影
AI審查讓「性」成為一種需要不斷被證明「合法」的表達。外送茶工作者的自拍、藝術創作、甚至身體姿態都被機器算法拆解成「可疑特徵」。這種機械化道德審查使得許多創作者陷入灰色地帶——她們的作品並非色情,卻又被剝奪了藝術或勞動的正當性。
有女創作者描述:「我必須在每張照片上思考——這會不會被AI判成‘胸部外露’?但我只是穿著比基尼。」這種「預判演算法」的心理機制,是一種被迫內化的審查技術。
她們的日常成為一場與平台的隱形博弈:既要保持曝光度,又要避開封禁風險。於是產生了「半可見策略」(semi-visibility strategy)——例如,只展示局部身體、用日常物件遮掩性感象徵、用柔光或抽象構圖製造模糊意象。這不僅是一種生存策略,也是一種新的美學政治:在AI視覺統治下,模糊、隱喻與遮掩成為女性自我呈現的新語言。
第七章 平台治理與權力再分配
AI審查機制的決策權多掌握於跨國平台公司之手。其治理模式不透明,常以「品牌安全」「合規」之名,實質上進行價值輸出與權力再分配。例如,Instagram與TikTok的政策雖聲稱「支持創作者」,但實際上卻以「違反社群守則」為由刪除大量性教育與外送茶工作內容。
這些平台的商業模式依賴廣告主,因此AI審查往往傾向於維持「乾淨的形象」。外送茶工作者在此被視為潛在風險,而非合法創作者。結果是,平台的演算法審查與廣告政策交織成一套「數位道德經濟」:決定誰能被看見、誰被隱藏。
此現象反映出Nancy Fraser 所謂「再分配與承認的雙重不正義」——外送茶工作者不僅在經濟上被排除於平台盈利體系之外,也在文化承認層面被貶抑為「不體面」群體。AI審查因此成為21世紀的數位階級化工具,劃出「乾淨創作者」與「汙名創作者」的界線。
第八章 技術反抗的創造性實踐
面對AI的監控邏輯,一些外送茶工作者選擇轉化它。她們運用AI生成工具,重構自我形象——將身體數位化、匿名化、抽象化。例如,部分創作者以AI藝術方式生成「替身影像」(avatar self),在不暴露真實面貌的情況下展示身體自主權。
另一類則利用AI偵測的特性,反向實驗「算法觸發點」:她們刻意設計邊緣圖像,測試平台容忍度,並公開研究結果。這些行為既是創作,也是政治行動,挑戰了平台的「看不見的規則」。
此外,外送茶工作者的集體行動也正在轉向跨界合作——與資訊工程師、數據倫理學者、女性主義律師共同建立「開放審查資料庫」,以紀錄被誤判案例並倡議政策改革。這種跨域聯盟展現了「技術女權主義」(technofeminism)的實踐精神:不是拒絕科技,而是奪回科技的話語權。
第九章 心理韌性與社群互助的形成
在被持續監控與誤判的環境中,外送茶工作者的心理壓力極大。自我審查不僅影響創作,也侵蝕自我價值感。為了對抗這種無形壓迫,許多社群開始建立「審查倖存者支持網」。
這些網路社群提供被封禁帳號的協助、共享避封技巧、並進行情緒互助。例如有創作者表示,她在帳號被刪除後「感覺像失去了身份」,因為那個帳號承載多年勞動與客戶連結。透過社群重建,她們逐漸從「被刪除的創作者」轉化為「抗爭的見證者」。
這種互助網絡不僅是情感支持,更是一種政治培力。它讓外送茶工作者明白,AI審查的問題不是「個人行為不當」,而是制度不正義。這種集體覺醒,使她們在心理層面建立起對抗技術壓迫的韌性基礎。
第十章 結論:從被審查者到技術公民
AI審查標籤「成人內容」的現象,揭示了當代數位治理的核心矛盾——在以保護為名的演算法治理下,實際上再製了性別歧視與階級不平等。外送茶工作者在這場權力網絡中,從被動的被審查者逐步轉化為主動的技術公民。她們不僅調整語言與影像策略,也透過集體行動、技術反轉與政策倡議,重新定義「可見性」與「體面」的界線。
AI審查的問題最終不是技術中立能否達成,而是誰擁有定義中立的權力。當機器取代人類做出倫理判斷時,我們應重新追問:這些演算法究竟服務誰的價值?又排除了誰的存在?
未來的願景應朝向「參與式演算法治理」(participatory algorithm governance),讓被影響者——包括外送茶工作者、藝術家、性少數——有權參與AI模型設計與監督。唯有如此,數位社會才能走向真正的多元與公正,而不再讓「成人內容」成為壓抑性別表達與身體自主的代名詞。
全文總結
本文以AI審查標籤「成人內容」為核心議題,分析其如何透過技術中介重塑外送茶工作者的可見性與主體性。從制度暴力、自我審查、抗爭策略到社群互助,本文指出AI審查實為新型態的數位性別管控。然同時,外送茶工作者展現了高度的創意與政治能動性,透過語言、影像與技術實驗,開創了屬於自己的數位解放路徑。
延伸閱讀

