小心,你也被「數字」給騙了! | | 開根好 SquareGood
  • 搜尋
  • 關於

小心,你也被「數字」給騙了!

Single Articles

Photo by Stephen Dawson on Unsplash

用來捕捉現實的數據,最後成為現實

我不投資自己,是因為你不聘請我。
因為你不投資自己,所以我不會聘請你。

2003 年,美國維吉尼亞州發生了上述情事。44 在雇主和求職者之間,可能是一種激烈的協商攻防。或許求職者只是因為本身膚色而遭到拒絕;又或許,雇主只是隨意看了一眼求職者的履歷,就認為此人的教育程度不夠。

但上述的申請人的膚色不是黑色,而是紫色;對話的兩位主角也不是真正的求職者和召募員工,而是學生,他們正參加由哈佛大學經濟學教授羅蘭德.費爾(Roland Fryer)和同仁一起主持的實驗。費爾教授的研究證明,如果只注意數字,一個原本平等的世界,可以迅速被扭曲。

在實驗中,學生被隨機分配擔任「雇主」「綠色求職者」以及「紫色求職者」角色。在每一輪的實驗中,求職者必須決定他們是否要投資自己的教育程度。一方面,「投資教育」有個問題:學生參與實驗可以獲得金錢獎勵,但他們必須付錢才能「投資教育」。在另一方面,如果他們決定投資教育,他們在「測驗」中獲得好成績的機率較高(測驗內容包含一種權重計算,如果學生決定投資教育,他們在權重計算中獲得好結果的機率較高),學生贏得額外現金獎勵的機會也會更高。雇主傾向聘請擁有良好分數的求職者,因為教育程度較高的員工可替他們賺到更多獎勵。但是,雇主只能看到測驗分數,他們無法百分之百確定求職者是否實際在投資教育程度上。這個實驗設計非常趨近現實;雇主永遠無法明確知道求職者是否合格,但他們可根據各種不完美的標準進行評估,如測驗分數。

在第一輪實驗中,紫色求職者投資教育的金錢較少,但差異不大。這個結果與顏色無關,因為顏色是純粹的隨機分配。到了第二輪,雇主可以查看統計數字,於是雇主認為,不要聘請紫色的員工,將對自身更有利。而紫色求職者在看見綠色求職者更容易獲得聘雇後,決定減少投資,因為投資教育似乎無法提高獲得工作的機率。

這個實驗令人好奇之處在於,每個人都是依照理性行為決策。根據數據進行判斷似乎是最好的策略,但是在總計二十輪的實驗中,卻出現一個惡性循環,導致一個極度不平等的世界成形。「結果讓我很驚訝,而參加實驗的孩子們很生氣。」費爾告訴英國知名記者提姆·哈佛德( TimHarford),而哈佛德在著作《生活的邏輯》(Logic of Life)中探討此次實驗。「一開始的不對稱性來自純粹的機率,但人們抓住這種不對稱性,並且不願放手。」

顯然地,現實世界比幻想的實驗更複雜。但實驗可以傳達一個強烈訊息:數據同時是塑造世界模樣的起因和結果。

數字確實是反應現實的被動指標,但事實依然不會改變:數字塑造了現實。數字愈是能夠統治我們的世界,正如大數據對於現代世界的影響,數據就愈是可以改變世界。

以「預測執法」(predictive policing)為例,警方藉此發現可能的罪犯。美國的數據顯示,貧窮的黑人青年和犯罪行為之間有強烈的相關性。依照此種演算法的結果為基礎,警方著重於符合描述的社區和個人。此種演算法會導致何種結果?「種族剖繪」(racial profiling,意指以種族為基礎,假定某個人的行為必然符合種族的刻板印象),並導致許多無辜民眾遭到逮捕。警方逮捕更多符合特定描述的民眾,而遭逮捕的人也更容易造成統計數據增加。於是,警方將忽略富有的白人罪犯,因為他們不屬於執法的重點範圍。於是,隨後累積的統計數據,就會呈現膚色和犯罪行為之間的關聯——甚至創造更強烈的相關性。

預測執法的風險和信用分數相同。具備特定性格的人,發現自己比其他人更難獲得貸款,於是他們更迅速跌入貧窮狀態,於是更難獲得貸款,於是變得更貧窮······諸如此類並以此類推。

演算法,已經變成「自我實現的預言」。原本應該用於捕捉現實世界模樣的數據,已經取代現實世界。

本文摘自今周刊《數字偏見:不再被操弄與誤導,洞悉偽科學的防彈思考》

►延伸閱讀:你知道雜訊是什麼嗎?沒關係,沒有心理學背景也可以看《雜訊》
►相關書籍:今周刊《數字偏見:不再被操弄與誤導,洞悉偽科學的防彈思考》,桑妮·布勞 著

開根好_數字偏見_今周刊_大數據

https://www.facebook.com/hi.squaregood/