在大衛與歌利亞的故事中,作威作勢的歌利亞被平凡的大衛打敗;在看這故事的時候,人們總是站在身為弱者的大衛的一邊。自古以來,人們喜歡以弱勝強和扭轉乾坤的故事,這就是為什麼海格力斯、阿布拉罕·林肯和伊隆·馬斯克會成為人們的偶像。他們在逆境中背水一戰,通過自己的努力和信念說服其他人,最後出乎意料、否極泰來地滿載而歸。
人工智能就如同巨人歌利亞一般,在許多方面的影響力都勝過了人類。運用了人工智能的演算法統治了社交媒體和影音串流平台;為了使內容曝光,YouTube影片上的標題和封面都了無新意,宛如餅印。在未來,隨著科技發展,人們不僅僅有可能被越來越多的人工智能分析、預測,還會被相應的預測結果分類,讓人們思考在人工智能的哲學問題:在我們享受人工智能帶來的便利的時候,我們是否可能也將自己暴露在許多潛在的風險之中?自古以來,許多突破性的成果都需要通過滿是荊棘和阻撓的道路獲得的。如果我和你說,在未來人們有機會會越來越一成不變,你會作何感想?
誠然,從古至今,人類一直在使用各種方式進行對未來的預測,人工智能亦不過是道具之一:通過各種各樣的預測,例如天氣預報,這讓人們對未來的掌控逐漸增加。這些預測往往是關於一大群人的——例如,100,000 人中有多少人會撞車。這些沒有針對性的預測僅僅是用來幫助分析,對大多數人一視同仁,並沒有辦法做出針對個人的預測。但是,今時今日,許多預測使用機器學習算法,通過數據統計來填補未知的空白,就好像自然語言處理通過數據和前文來推理句子的後續,應用於人類行為的算法利用我們的歷史數據來推斷我們的未來:我們的一舉一動,衣食住行,都影響著對我們的數據分析,並且越來越多通過這些個人化的分析做出決定。人類親手扶養人工智能長大,卻沒有設想到恐怕會隨之而來的許多哲學和倫理問題:
在你閱讀這篇文章的同時,可能有數個演算法在火力全開地分析你的數據,做出預測;也可能正正是因為其中一個演算法,你看到了這篇文章,因為它預測你會有興趣點擊閱讀。預測本身是一種綜合了各種因素的評估,雖然在數據的支撐下,預測或多或少是準確的,但是人類不僅僅不擅於理解這些數據,還容易被結果誤導:例如,設想如果演算法預測一名員工有75%為糟糕的員工,公司還敢重用他嗎?無論人工智能的決策分析結果是數字還是文字,它們都在無形之中影響了人們的決定。如果這樣下去,人們可能會需要重新思考哲學的永恆辯題:若人工智能如同一個全知的上帝一般,預先通過分析著即將要發生的一切,並影響著人們的決定。在有一個上帝可以預先知道要發生的一切的時候,那麼將要發生的一切不正正就是預先確定的嗎?這樣的話,人們還是真正的自由嗎?在人類塑造著人工智能的同時,人工智能也正在通過預測影響著我們的未來。
天文台會對天氣的預測做出分類,劃上不同顏色標籤,讓人們提前做好準備。但人類並不是天氣, 不是單憑數據就能進行劃分和標籤。當Facebook的演算法判斷這個帖子會受到歡迎時,它會增加對這帖子的曝光率,然後帖子十有八九會如病毒一般傳播開來。如同Facebook的算法一般,人們若因為預測被貼上標籤,並且因為印象和標籤受到不平等的對待,他們可以說是「輸在起跑線」。例如,Netflix上冷門的影片觀看數少可能並不是質量欠佳,而是因為影片缺乏曝光。同理,一個被預測為糟糕的員工無法找到工作的原因可能不是算法的準確性,而是因為算法本身不建議公司僱用,而公司會接受它的建議。有人說:「尊重一個人意味著承認他們改變自己和環境的能力。」如果我們通過對於未來的預測為人們畫上標籤,並相應地對待他們,我們在未來還沒到來的時候便讓他處在了劣勢之中。這樣的後果便是人們會順應演算法的機制,最佳化演算法的結果,變成一模一樣的成品,但是這是我們想要的嗎?
如果每次我們每次做完事情後,都有個機器人說:「知你會咁啦!」,我們怎會不感到不寒而慄呢?但是我們卻可能正在親手培育一個這樣的機器人長大。在預測算法的基礎上決定人類的命運,我們正在禁錮所有人類在最佳化算法的框架裡。人在逆境中鬥爭的決心是人類的獨特之處和最偉大的禮物之一,它推動了人類進步的齒輪。但是在演算法的影響下,我們正在把自己變成率由舊章,照樣畫葫的機器人……而這樣的後果只能由我們自己承擔。