定點茶站與科技新創合作研發「AI行為預測模型」之勞動資料治理問題
摘要
近年來,部分灰色或地下化的服務產業嘗試引入資料化管理,甚至與科技新創合作開發「AI行為預測模型」,企圖以演算法推估需求波動、風險事件與人力配置。然而,當合作場域涉及高度污名化與高風險勞動時,資料蒐集、處理與共享不僅是技術議題,更是勞動權、隱私權、資訊安全與治理正當性的綜合考驗。本文以「定點茶站」與新創合作的情境為核心,從勞動資料生命週期、權利義務配置、演算法偏誤與問責機制等面向,提出可直接採行的治理框架與政策建議,並討論如何在風險環境中避免對從業者造成二次傷害。
一、問題意識:從管理效率到資料治理
當一個定點茶站希望用AI提升「可預測性」,通常會提出三類目標:其一,預測需求與排班;其二,預測「違約」「取消」「衝突」等事件;其三,預測「安全風險」以降低損失。這些目標看似是營運管理的常見需求,但在定點茶站脈絡中,模型所依賴的資料往往高度敏感:位置軌跡、通訊紀錄、評分回饋、客戶互動、財務結算、甚至身心狀態訊號。若缺乏治理邊界,AI就可能把「管理」變成「監控」,把「預測」變成「歸因」,把「風險降低」變成「責任轉嫁」。
因此,本文主張:只要牽涉到對個人行為的預測與分級,尤其在定點茶站這類權力不對等的場域,資料治理應先於模型開發;換言之,定點茶站與新創若先做模型、再補合規,往往已經不可逆地製造資料傷害。
二、合作結構與權力關係:誰擁有資料、誰承擔風險?
定點茶站與科技新創合作,常見的契約與作業分工是:定點茶站提供資料、場域與「業務需求」;新創提供資料工程、模型與平台;雙方共享「產出」與商業價值。問題在於,資料的「生成者」多半是勞動者,而勞動者在此結構中常被定位為被管理的對象而非權利主體。這會帶來四種典型失衡:
資料產權錯置:定點茶站宣稱擁有所有工作資料,但勞動者難以取得其自身資料副本或更正權。
同意機制失真:以「不勾選就不能接案」的方式取得同意,使同意變成強迫。
風險外部化:資料外洩、模型誤判、或資料被挪作他用時,承受污名與法律風險的往往是勞動者。
利益分配不對等:模型提升效率或降低成本所帶來的收益,未必回饋給資料提供者。
在定點茶站情境下,以上失衡尤其尖銳,因為勞動者可能同時面臨社會排除、家戶風險與執法風險。換言之,對一般平台而言是「個資事件」,對定點茶站的勞動者而言可能是「人生毀損」。
三、勞動資料生命週期:從蒐集到刪除的治理缺口
要談AI行為預測模型,必須先談資料生命週期治理。本文以六個階段拆解定點茶站資料治理缺口,並提供可操作的管控點。
1) 蒐集(Collection)
定點茶站常以「安全」或「品質」名義擴張蒐集範圍,如要求即時定位、要求上傳多樣身份證明、或要求填寫身心狀態。治理原則應包含:
目的限制:每一類資料對應明確目的,禁止目的漂移。
最小必要:能不用就不用,能匿名化就匿名化。
分級敏感度:將資料分為一般、敏感、極敏感三層,採不同權限與保存期限。
2) 處理(Processing)
新創團隊常將資料清理、特徵工程、標註與資料增補視為純技術工作,但在定點茶站場域,標註本身就是權力操作。例如將「取消」標註為「不可靠」,或將「拒絕某類客戶」標註為「低配合度」。治理重點是:
標註準則公開:勞動者可理解並可提出異議。
反污名化設計:避免把自我保護行為標註成負面。
雙重審查:由獨立的倫理/勞權審查與技術審查共同把關。
3) 儲存(Storage)
定點茶站資料的儲存往往分散於聊天軟體、表單、雲端硬碟與第三方平台。治理重點是:
集中式權限管理:誰能看什麼、看多久、為何而看。
加密與分段:敏感欄位加密,身份識別資訊與行為資料分離。
可稽核日誌:任何查詢、匯出都留下可追溯紀錄。
4) 共享(Sharing)
最具風險的是定點茶站與新創之間的資料共享,以及新創與其下游供應商(雲端、分析工具、外包標註)之間的再共享。治理重點是:
資料處理者/控制者界定:明確責任歸屬與違約罰則。
再委外禁止或嚴格限制:尤其禁止將資料送往不明標註工廠。
去識別化與最小共享:模型訓練只用必要欄位,並採差分隱私或同態加密等方案(若可行)。
5) 使用(Use)
AI行為預測模型最終會被拿來做決策:派案、分級、加價、限制、或「風險提示」。治理重點是:
人類可干預:不得完全自動化剝奪接案機會。
可解釋與告知:勞動者需知道影響其權益的主要因素。
申訴與救濟:提供快速、低成本且不報復的申訴管道。
6) 保存與刪除(Retention/Deletion)
在高風險場域,資料保存越久,外洩成本越高。治理重點是:
明確保存期限:例如定位資料只保留最短期。
可證明的刪除:刪除需可驗證且涵蓋備份。
離職/退出權:勞動者退出後可要求刪除或封存其資料。
以上六階段若缺一,定點茶站的AI化就會把不確定性轉嫁給勞動者,並放大資訊不對等。
四、AI行為預測模型的三大風險:偏誤、黑箱、與「風險責任化」
1. 偏誤:把結構不利變成個人缺陷
模型常從歷史資料學習,但歷史資料本身包含污名、歧視與權力結構。對定點茶站而言,資料偏誤可能來自:客戶評價的性別偏見、管理者的主觀標註、或不同地區的執法強度差異。結果是:模型把「外在壓力」學成「個人不可靠」,讓弱勢者更難翻身。
2. 黑箱:勞動者不知道自己為何被降權
當模型輸出成為派案與收入的關鍵,黑箱就等於「看不見的規訓」。在定點茶站情境下,勞動者往往不敢問、不敢抗議,因為害怕被封鎖或被標記。這使得透明度與可申訴性不是附加選項,而是最低底線。
3. 「風險責任化」:以安全之名把責任推回個人
最危險的治理陷阱,是把風險當成可計算的「個人特徵」,例如「高風險接案者」「高衝突體質」。一旦定點茶站以模型分級,發生事件時就可能反過來指責勞動者「你本來就是高風險,所以後果自負」。這類責任化不僅不倫理,也可能形成制度性暴力。
五、治理框架:以「勞動者資料權」為中心的四層設計
本文提出四層治理框架,讓定點茶站與新創在任何技術路線下,都能有最低限度的權利保障。
(一)權利層:資料可攜、可更正、可拒絕
資料可攜:勞動者可取得自己的工作紀錄與評分摘要。
資料更正:錯誤標註(例如非本人取消)可被更正。
拒絕與退出:對極敏感資料(例如定位)可有替代方案或拒絕權。
(二)流程層:事前影響評估與持續稽核
資料保護影響評估(DPIA):在模型開發前評估風險與緩解措施。
模型影響評估(AIA):評估派案與分級是否造成差別待遇。
持續稽核:定期檢查誤判率、申訴率、與不同群體的影響差異。
(三)技術層:去識別化、最小特徵、與安全設計
去識別化:訓練資料中移除可直接識別欄位,並以代碼替代。
最小特徵:禁止用與人格/身心狀態高度相關但與目的無關的特徵。
安全設計:零信任架構、最小權限、密鑰管理與入侵偵測。
(四)治理層:共治機制與外部監督
勞動者代表參與:建立資料治理委員會,包含勞動者代表。
第三方監督:由獨立單位做隱私與公平性稽核。
違規救濟基金:資料外洩或誤判造成損害時,有明確補償機制。
在定點茶站合作情境,若缺乏治理層的外部監督,其他三層往往很容易流於形式。
六、情境分析:三種常見「應用」其治理對策
情境A:以模型預測需求、調整排班
此情境最容易被合理化,但仍需避免把「不願接案」或「自我保護」當成負面特徵。對策是:以區域與時段的聚合資料為主,避免過度依賴個人層級資料;排班建議只能是建議,不得作為懲罰依據。若定點茶站以演算法強制排班,將進一步加重控制。
情境B:以模型預測「取消」與「違約」
這類模型很容易把生活不穩定、照顧責任、或突發事件的群體標記為「不可靠」。對策是:採用可被理解的規則與彈性寬限,並提供「情境申報」而非自動扣分;同時要有「反歧視測試」,檢查是否對特定年齡、地域或經濟狀態群體不利。
情境C:以模型預測「安全風險」
最敏感也最容易造成二次傷害。對策是:把安全風險治理放在「環境改善」而非「個人分級」。例如以匿名化的事件回報做熱點分析,而不是把某些勞動者標記為高風險;同時禁止把安全模型輸出用於收入限制或派案封鎖。若定點茶站以此作為封鎖理由,等同用安全名義剝奪生計。
七、法律與倫理的交會:合規不等於正當
即使在形式上做了同意書、隱私政策與資安措施,定點茶站的資料治理仍可能不具正當性,原因在於:權力不對等使同意難以自由;污名化使救濟成本極高;而合作新創可能將資料「去場域化」後再利用,形成二次商業化。倫理上至少要做到三點:
不以資料換取生存:不得以交出更多敏感資料作為接案門檻。
不以模型掩蓋權力:不得用「AI說的」作為懲罰或歧視的藉口。
不把風險個人化:安全與衝突是結構問題,不得轉嫁給個人。
若定點茶站與新創忽略上述原則,再精準的模型也只是在擴大制度性傷害。
八、政策與實務建議:可直接採行的十項清單
以下清單以「立即可做」為原則,供任何涉及高風險勞動資料的組織參考:
建立資料資產清單:列出資料類型、來源、目的、保存期限。
分層權限與最小存取:敏感資料僅限少數角色可用。
制定標註與評分準則:公開且可被申訴。
設計退出機制:退出後刪除或封存資料並可驗證。
禁止再委外或跨境不透明處理:避免資料流向不明。
導入定期公平性測試:監測不同群體的差別影響。
建立人類覆核與申訴窗口:不得以自動化結果終局處分。
訂定外洩應變與補償:含通知、心理支持與法律協助。
設定用途紅線:禁止用於報復、脅迫、或收入剝奪。
共治委員會:納入勞動者代表與外部監督者。
在定點茶站情境,這十項不是「加分項」,而是降低傷害的必要條件。
九、結論:把資料治理當成勞動治理的一部分
AI行為預測模型常被想像成中立的效率工具,但在權力不對等的勞動場域,它更可能成為精密的控制裝置。本文指出:定點茶站與科技新創的合作若缺乏以勞動者為中心的資料治理,將使敏感資料被過度蒐集、被不透明共享、並被黑箱模型用來分級與懲罰,最終導致風險責任化與制度性暴力。相反地,若能以資料生命週期為骨架、以勞動者資料權為核心、以共治與外部監督為支柱,則即使在高風險環境中,也仍可能將技術用途限制在「降低傷害」而非「擴大控制」。
面對高度敏感的勞動資料,我們需要的不是更聰明的預測,而是更正當的治理;不是讓定點茶站更有效率地管理人(更不是讓定點茶變成新的監控理由),而是讓任何參與者都能在資料化浪潮中保有基本的尊嚴與安全。
延伸閱讀

