自駕車系統(tǒng)也有“種族歧視”? 背后的原因是這樣的
《Business Insider》報導,美國喬治亞理工學院最新研究顯示,自駕車系統(tǒng)在識別路人時,可能較容易識別膚色白的人,研究人員認為,這樣的差異是因為在訓練這些系統(tǒng)時,使用的黑皮膚人種的照片不夠多。
針對這次的研究,研究人員使用了8種圖像偵測系統(tǒng)(image-detection system)來分析行人,照片里的行人被依照菲茲派崔克膚色(Fitzpatrick skin type scale)分為兩類,一類膚色較白,一類膚色較黑。
接著,研究人員一一測試這些系統(tǒng)識別行人的能力,再比較圖片中的膚色較白的行人與膚色較黑的行人被偵測出來的比例,平均看來,這些系統(tǒng)識別膚色較黑的行人的準確度,比識別白人來的低5%,即使控制了其他可能影響到調查結果的因素,結果仍然沒有改變。
然而,由于這項研究使用的系統(tǒng)并非實際上自駕車所使用的系統(tǒng),也沒有使用自駕車制造商訓練系統(tǒng)所用的數(shù)據(jù)集,外媒《Vox》認為不應該輕信這次的研究結果。因為公司不會公開發(fā)表自己的訓練數(shù)據(jù),所以研究人員使用的系統(tǒng)是學術模型,并且使用可供公眾取得的數(shù)據(jù)集來訓練系統(tǒng)。
但這并不代表這個研究沒有價值,其中一位參與研究的學者Kate Crawford在推特上表示,在理想情況下,學者應該要使用自駕車廠商所用的模型以及訓練步驟來進行測驗,但這件事本身不可能實行。無論如何,這次的研究還是為實際存在的風險提供了深刻見解。
根據(jù)《Vox》報導,研究指出了人類的偏見可能也會導致自動決策系統(tǒng)產生偏頗,造成算法偏見(algorithmic bias)。由于演算系統(tǒng)是通過接收到的范例來學習,如果在學習階段沒有得到足夠的范例,真正運用時系統(tǒng)就無法識別他們。
《Vox》認為,對自駕車公司來說,最有利的方式就是盡可能的解決種族歧視問題,以免人們被迫承受一切傷害。





