“理解ChatGPT的本質并不困難。”復旦大學哲學學院教授徐英瑾介紹,ChatGPT的英文全稱是Chat Generative Pre-trained Transformer,其中Chat(聊天)一詞,在人工智能領域地位特殊,這源于圖靈測驗的一項發明——早已出現的“聊天盒(chatbox)”技術。而ChatGPT作為一種大型語言模型,是“傳統神經元網絡技術+深度學習技術”的進階版,通俗來說,就是通過數學建模建造出一個簡易的人工神經元網絡結構。
盡管ChatGPT的語言通順程度和機器翻譯水平令人贊嘆,但談到這種模型與人類的根本區別,徐英瑾指出,人工智能的進步,實際上是統計學意義上的進步,是通過不斷迭代的大規模數據集和人工語料訓練后“野蠻投入”的結果,因此,縱使ChatGPT看到“路遙知馬力”能接上“日久見人心”,但它并不能真正理解中文詩詞的精妙內涵。
從海德格爾哲學的角度看,這種人工智能系統訓練方式將不得不把“常人”的意見加以建制化與機械化,由此使得社會意識形態的板結現象變得更為嚴重。換言之,從機器的視角看,一個正確的意見就是被大多數人所認可的意見,因此,少數“異類”提出的“離經叛道”之說在技術上就會被過濾掉。 “這需要我們的高度警惕。”徐英瑾強調,“假若ChatGPT技術在托勒密的時代就出現,哥白尼的‘日心說’恐怕會永遠被判定為錯誤答案。”
而由于人工智能訓練與當下總是存在時間差,無法面對未來,是ChatGPT這類人工智能的最大瓶頸所在。徐英瑾表示,過度依賴ChatGPT,可能會讓人喪失反思力與對未來的把握能力,陷入過度“自欺”的狀態。
人工智能未來到底走向何處?在他看來,要想真正走通人工智能道路,需要在結合節儉性算法與推理引擎的基礎上,兼顧哲學思維帶來的“破”與“立”。技術的跨越必然需要帶來應用場景中的深入觀察,無論人工智能變得多聰明,適應與滿足人類發展的需要是根本指向。大數據的訓練很難讓機器對語境形成精準識別,如何突破語料的偽裝,真正識別人類的精神內核,人工智能仍在路上。 |