提及 ChatGPT 危機,首要想到必然是取代人類,這個其實並不可怕,真正影響深遠的是另一個危機。
人類文化的前進,科技淘汰某種工種的同時,也創造了新的機會,有人把握這些機會便可如滑浪高手般不被大浪淹沒。 例如 iPhone 的出現,很多觸覺敏銳的人都明白到未來人類可以不限地點不限時間地上網,很多網上行業種子在當時植下,相信今天應該有不錯的收成。ChatGPT 亦一樣,只要把注意力投放到它的創造面,有機會令你的職業生涯向前邁進一大步。 當然這個過程涉及了觀察、創造及跳出舒適圈,你是否有心理準備及力量去獨自跨過,這是一個自我的考驗。
我們使用 ChatGPT 4 版本已經有一段時間了,主要是取代了一些文章上重複的工作,例如幾篇文章的對比、重點摘要、次序編排建議,大大節省了以往閱讀及參照所需的時間。 發現當人們找到了讓自己舒服的工具,便會開始產生依賴。 ChatGPT 也是一樣,當 OpenAI 伺服器出現問題,人們的反應第一時間是等待維修,經過半天沒反應但仍是會選擇繼續等待而不是轉用舊的閱讀及思考模式。 這情況也很自然,例如你擁有了一台優異的電磨咖啡豆工具,你身體自然不會再使用手磨,ChatGPT 情況也一樣,不過你身體拒絕的不是單純的物理動力,而是拒絕思考。
不過依賴不是最危險,無條件信任才是人類今後最大危機,我們對於他人的訊息總是帶著懷疑,然後根據自身的經驗去判斷對方是否可信。不過我們不會懷疑自己的計數機是否加錯數,亦不會驗證 Excel 的 SUM ALL 是否會加錯數,這是我們由小到大的認知。 ChatGPT 最危險的是人們當它是一台電腦看待,一切由電腦運算得出,沒有立場亦沒有感情的支配,所以我們選擇相信它的答案多於人類,這是一件非常危險的事情。 不同國家及地區,對於某些答案有著不同法例,ChatGPT 可以因應這些法律給出不同的答案,其實不難明白到答案是可以由人類操控。 另外是 ChatGPT 的資料輸入,由以上 unwire 同事使用的例子來說,編輯們輸入是指定了某幾篇文章,所以用戶對其資料來源有著一個框架限制及驗證,是相對地安全。 不過一般用戶使用時,對於 ChatGPT 引用了那些指定資料我們無從知道,日後對 Microsoft 結合 ChatGPT 直接從網絡實時搜索收集資料時,這意味著只要能有力量同一時間產生該命題的報導及資料到 Internet 上,就直接影響到 ChatGPT 的答案,又或者通過大規模的「用戶」回應修正訓練,也可以達到其目的。 不過這些「造假」過程用戶是不會知道的,他們只知道這是一台電腦給出的答案,就像計算機 1 + 1 = 2 一樣,沒有理由不相信。
ChatGPT 的不道德,不僅僅是說出了一些傷人的說話,相信看過「賭俠」的 unwire 讀者都知道「電腦分析,65%係7,35%係JACK,唔係7就係JACK」這經典對白。其實這是 AI 及人類間的君子協定,AI 會告訴你這個答案有多可信,要你自行再分析。 ChatGPT 的問題在於,由推出至今並沒有提供這一項參考指標。這可能是 OpenAI 認為每一個答案經過了可信度最大的篩選,從程式上是沒有方法計算「可信程度」,也沒有這個必要。 但結果是,OpenAI 對於一些錯誤的答案,會企圖「合理化」。一些人所皆知的答案,用家當然一笑置之,但對於自己不懂的用家可能就會深信不疑,這個情況在 3 版本尤其嚴重。 以前常有人說,操控到網絡 / 社交媒體就可以得天下,在未來就是操控到 ChatGPT 可以得天下了。在未來你不知道投票給誰?試試去問 ChatGPT 吧。
==
**TLDR : 如果你有良好的資源輸入框架,利用ChatGPT 幫忙分析是一個不錯的工具,但如果你依靠 ChatGPT 自行解決問題,請當作他是人類,他不一定是對的、他的答案也可能被操控著 。