(圖片出處:https://twitter.com/jonathanrichens/status/1759607662528942090?t=cBZOacbpI0mcSUCs3cWh2A&s=19)
前因後果之所以重要,並不只是因為它是解決現實問題的運作原理與要件之一,同時它也是許多眾多行業必須去遵守的運作規則與決策點。
例如說:「為什麼會說ChatGPT不能取代律師?」看到這裡,也許有人會說, ChatGPT考試超強,但原因就在這裡,考試歸考試,現實歸現實,因為律師所需要的不是一位很會考試作答的背多分,而是一位能理解分析前因後果的專業律師諮詢服務。
如果只是要拼背了多少法條內容就能拿高分、倒背如流,這個不要說ChatGPT,可能只要有資料庫的Ai模型,都能直接無痛上手、駕馭其中。
基於上述,一般人如果用ChatGPT來詢問法律問題,那這時候就會100%失靈了,甚至會給出不正確的答案內容出來,這也是律師會希望當事人來花錢預約詢問專業律師,而不要詢問ChatGPT的原因。
而專業律師使用ChatGPT反而沒問題,是因為律師本身就悉知前因後果的潛規則,所以ChatGPT就算給出不正確的內容,也仍不足以左右影響律師的經驗判斷與決策過程。
如果您覺得這只是要思考如何下指令的問題,那麼就錯了。因為這問題更多是出在原始的Ai模型架構底層上的限制。
這就像OpenAI 發表的文字生成影片 - Sora 一樣,無論指令怎麼下,仍無法改變它不理解前因後果的限制問題。
(畫面擷取自 Open AI 官網)
那麼,要測試一個Ai模型架構「是否理解前因後果的條件」,最簡單的方式就是,要求在「生成一張迷宮圖 + 起點到終點之間畫一條紅線」,就是一個可以測試當前模型是否能100%正確理解前因後果的最佳測試項目。
如果Ai模型本身並不具有理解前因後果的特性,那麼該Ai模型就會理解成「生成一張沒有出入口可以相通的迷宮圖,到處畫紅線」的結果。而這也代表,該模型並不知道迷宮圖的出入口之間是具有前因後果的關聯性。
結論是,如果沒有「前因」當起點,那就不會有「決策過程」,自然也就沒有「後果」當終點。
而這背後也同時反映兩件事:
如果多數人認為ChatGPT-4在工作上很好用,那表示員工的工作複雜程度不如一張迷宮圖。
(這也同時意味著,這種Ai模型並不能用於更為複雜的情境。)
如果多數員工認為Google Gemini Pro不可能搶走工作,那表示員工手上的工作複雜程度可能比一張迷宮圖還複雜。(這也同時意味著,這種Ai模型只能處理較為複雜的情景。)
相關論文:
https://arxiv.org/abs/2402.10877
延伸閱讀:
掌握未來工作趨勢:生成式AI的革命性自動化技術探析