如果某個 AI 模型,一直出現幻覺、回答也充滿損害,那沒有投資人會想投資的。事實上,去年 ChatGPT 3.5 幻覺程度高到這樣,但大家還是很喜歡,我有點訝異。以前我協助蘋果 Siri team 六年的時間,從 2010 到 2016。當時 Siri 跟 Wolfram Alpha 這些系統整合的時候,兩邊都最注重的,就是不要出現幻覺,不要變成 Siri 聽到你一個問題去 Wolfram Alpha 回來,結果文不對題、回答造成損害之類,所以,非常準確、非常無害,這是低標,沒有這個不行的。