(人類的推理行為是,當棋子選擇落子在A點、B點、C點後,就會去主動推理、評估落子在A點、B點、C點之後所有可能發(fā)生的問題,然後去主動設(shè)法決策篩選掉那些潛在可能違反最終目標的選項。這種錯中複雜的決策、推理、規(guī)劃的思路,對DeepSeek R1、ChatGPT-4o、Mistral AI 、o3 mini、xAi gork3、claude 3.7模型目前都還做不到。)
而這也是為什麼很多訂閱DeepSeek R1、ChatGPT-4o、Mistral AI 、o3 mini、xAi gork3、claude 3.7模型的用戶無法實際部屬在職場工作上的職缺緣故(有些刊登職缺的雇主是開放應(yīng)徵者使用生成式Ai來工作沒錯,但通常都不會是生成文本與生成圖片、生成Code相關(guān)的工作內(nèi)容。),只因為每一個行業(yè)工作問題的本身,都有很多潛在的隱性風(fēng)險必須是由用戶自己承擔,因此他們只能選擇用在沒有隱性風(fēng)險成本的文本生成(Code、書面報告)、文字生成影像這種單向輸出的任務(wù)上。
一旦用於像那種需要到大量「決策、規(guī)劃、推理」的工作職務(wù)的時候(例如:市公車調(diào)度員、徵才的獵頭、客服、軍事活動的指揮官...等),這些平時只能強在純寫Code、純文本生成圖片方面的九成模型們,就會直接翻車了。
因為目前普遍亮相展示的Ai Agent,背後多半還是靠人工預(yù)先強制佈署指定的自動化流程步驟,而不是模型本身就已經(jīng)具有自主化決策、推理、規(guī)劃建議的潛在能力,所以這樣充其量,只是讓一個LLM去觸發(fā)RPA來執(zhí)行指定任務(wù)流程的偽Ai Agent,只要遇到開放性、動態(tài)即時性的問題類型,就會直接現(xiàn)出原形了。
Q:那什麼是開放性、動態(tài)即時性的問題類型?
像這則新聞提到的別說鴻海只是硬體代工之王!劉揚偉:生成式AI每年省下100億費用,還幫忙抓出不肖同業(yè)派人「假應(yīng)徵、真騙錢」,就是屬於開放性、動態(tài)即時性的決策、推理規(guī)劃的問題,這跟多數(shù)像DeepSeek R1、ChatGPT-4o、Mistral AI 、o3 mini、xAi gork3、claude 3.7模型所強調(diào)的文字生圖片、寫CODE完成什麼目標、修改文本、YT自媒體網(wǎng)紅提出的各種虛構(gòu)、假設(shè)性問題,這類單向輸出的工作流程內(nèi)容完全不同,以鴻海董事長劉揚偉先生提出的問題性質(zhì)來說,其實就跟下棋一樣複雜。當職場上的工作有九成都是這種性質(zhì)的複雜問題,那麼DeepSeek R1、ChatGPT-4o、Mistral AI 、o3 mini、xAi gork3、claude 3.7模型聲稱真的可以替公司節(jié)省成本、提高員工的生產(chǎn)效率,也就只是一種網(wǎng)路言論上的存在感炒作而已。
延伸閱讀:
DeepSeek R1、ChatGPT-4o、Mistral AI 、o3 mini、xAi gork3、claude 3.7、Google Gemini 2.0 Flash Thinking推理測試
AI、自動化與裁員:解析關(guān)稅時代下企業(yè)的成本策略與未來佈局
AI 肯定會取代人類,未來企業(yè)規(guī)模更小、老闆更賺
AI是否真的會搶走人類的工作?(這篇有實際使用中的職場案例可以解惑)
Google Gemini 2.0 Flash:Project Astra效果實測感想