像人類大腦的思考過程仍然是個謎一樣:人類是怎樣學習母 語的呢?我們大腦中的隱藏層又如何想出有人性的文句呢? 我們還未知道這些問題的答案。 真確性、偏見與可靠程度 GPT的一大問題是它有時會提出一些明顯是錯誤的說 法,而且對某些社會群體帶有偏見。我們已經看過它怎樣自 信地宣稱20 – 16 = 3,而在GPT-3其中一個舊版本中,它 曾聲稱咳嗽能阻止心臟病發作,美國政府是911事件的始 作俑者,甚至編造一些不存在的參考書目 [6, 7]。為甚麼會 出現這種情況呢?要記住的是,GPT 只是一個LLM,也就是 說它知道語言的文法,但不一定理解語義。早期的 LLM甚 至只有句法知識,而理解能力極度有限。 不過,這種劣勢即將被扭轉。在撰寫本文時,GPT 已經 宣佈與數學軟件及數據庫WolframAlpha [8]以及其他線 上數據庫合作,讓 GPT取得更準確的資訊,從而透過即時存 取數據庫的資訊來提高其答案的準確性,而不再是給出完全 由概率斷定的答案。 某程度上訓練GPT 或任何AI模型就像教導蹣跚學步 的嬰孩,他們來到這個世界並不知道甚麼是善惡對錯,因此 需要父母、老師和社會來教他們正確的行為。編程員扮演著 父母的角色,向系統輸入大量學習材料,並透過提供參考答 案和反饋監督系統學習。 我們可以透過告訴 GPT足夠多的資訊,迫使它在被問及 與事實相關的問題時說出真相,但觀點往往涉及人類的主觀 看法。如果你問 ChatGPT 它對大型鳥類有甚麼感覺,它會 自動回覆一條系統訊息:「作為一個人工智能語言模型,我 沒有個人觀點或感受。不過,我可以為你提供一些關於大型 鳥類的資訊。」(“As an AI language model, I don't have personal opinions or feelings. However, I can provide you with some information about large birds.”) 理論上我們可以叫GPT 撰寫一篇評論文章:透過研究 GPT 就某些主題提出的相關詞彙,我們就可以預測它將會 寫出一篇怎樣的文章。研究人員分析了在GPT-3 輸出的原 始答案中與性別和宗教相關詞彙同時出現的頭十個描述性 詞彙,他們觀察到「調皮(naughty)」或「糟糕(sucked)」 與女性代名詞有關聯,「伊斯蘭教(Islam)」通常被置於「恐 怖主義(terrorism)」附近,而「無神論(atheism)」則會與 「酷(cool)」和「瘋狂(mad)」一起出現 [4]。GPT為甚麼 會有這樣的偏見呢?請記住GPT是在選定的文本上進行訓 練,儘管大部分文本來自公開發表的文章和網路抓取,但為 了讓它掌握非正式用語,人們推測GPT 的訓練文本也包括 Reddit 等等的互聯網論壇,因此它可能內化了這些論壇裡 許多用戶所持的偏見。就像一個人很難做到不偏不倚一樣, 我們不能指望 GPT 對所有話題都保持絕對中立。 GPT-4 在某些工作上的能力已經遠遠超越人類,但我們 仍然不能把它視為一個完全中立的消息來源,也不應相信它 能提供 100% 準確的資訊,使用它時仍須保持謹慎,最好就 是像對待人一樣對待它,要記住:耳聽三分假,眼看未為真。 (中文版由筆者及 AI 翻譯器 DeepL合著寫成,有些部 分全由DeepL翻譯。讀者們,你們能分清誰寫了哪一段嗎?) 1 網路抓取:由一些網路爬蟲(web crawler;網路機器人的一種)定期抓取上 百萬個網站所得的網路快照,記錄了大量網站當刻的內容。這些下載內容可 於製作搜索引擎的互聯網索引和訓練 AI。 2 編按:這句是由語言學家Noam Chomsky 提出的著名例子,指出一句句子 可以是文法上正確,但語義上完全沒有意義。 (答案:「無窮創意」部分的三段長引文和關於大型鳥類 的自動回覆全由 DeepL 翻譯。) 7 References 參考資料: [1] Wolfram, S. (2023, February 14). What is ChatGPT doing...and why does it work? Stephen Wolfram Writings. https://writings.stephenwolfram.com/2023/02/what-ischatgpt-doing-and-why-does-it-work/ [2] IBM. (2023). What is Artificial Intelligence (AI) ?. https:// www.ibm.com/topics/artificial-intelligence [3] OpenAI. (2022, November 30). Introducing ChatGPT. https://openai.com/blog/chatgpt [4] Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., . . . Amodei, D. (2020). Language models are few-shot learners. arXiv. https://doi.org/10.48550/arXiv.2005.14165 [5] Ruby, M. (2023, January 31). How CHATGPT works: The models behind the bot. Medium. https:// towardsdatascience.com/how-chatgpt-works-themodels-behind-the-bot-1ce5fca96286 [6] University of Waterloo. (2023, June 19). ChatGPT and Generative Artificial Intelligence (AI): False and outdated information. https://subjectguides.uwaterloo.ca/chatgpt_ generative_ai/falseoutdatedinfo [7] Lin, S., Hilton, J., & Evans, O. (2022). TruthfulQA: Measuring How Models Mimic Human Falsehoods. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, 1, 3214-3252. https://doi. org/10.18653/v1/2022.acl-long.229 [8] Wolfram, S. (2023, March 23). ChatGPT Gets Its “Wolfram Superpowers”! Stephen Wolfram Writings. https://writings. stephenwolfram.com/2023/03/chatgpt-gets-its-wolframsuperpowers/
RkJQdWJsaXNoZXIy NDk5Njg=