14,953
edits
m (→參考資料) |
m (→延伸閱讀) |
||
| (11 intermediate revisions by the same user not shown) | |||
| Line 13: | Line 13: | ||
== H == | == H == | ||
* Hallucinate (機器幻覺):「廣泛使用來指稱ChatGPT 等所犯的系統錯誤,展示了我們對待和擬人化人工智慧的思考方式。然而,不準確或誤導性資訊長期以來一直存在於我們身邊,無論是謠言、宣傳還是『假新聞』的形式。」(Henry Shevlin)<ref>[https://dq.yam.com/post/15833 「真真假假,假假真真的AI時代」劍橋詞典2023年度代表字:Hallucinate | DQ 地球圖輯隊]</ref> | * Hallucinate (機器幻覺):「廣泛使用來指稱ChatGPT 等所犯的系統錯誤,展示了我們對待和擬人化人工智慧的思考方式。然而,不準確或誤導性資訊長期以來一直存在於我們身邊,無論是謠言、宣傳還是『假新聞』的形式。」(Henry Shevlin)<ref>[https://dq.yam.com/post/15833 「真真假假,假假真真的AI時代」劍橋詞典2023年度代表字:Hallucinate | DQ 地球圖輯隊]</ref>。 | ||
== P == | |||
* Pretraining (預訓練):「在機器學習模型正式針對特定任務進行微調之前,先以大規模、通用型資料集進行初始訓練的過程。」(moveworks, n.d.<ref>[https://www.moveworks.com/us/en/resources/ai-terms-glossary/pre-training What is Pre-Training?]</ref><ref>[https://www.databricks.com/blog/llm-pre-training-and-custom-llms Understanding LLM Pre-Training and Custom LLMs | Databricks Blog]</ref>) | |||
* prompt engineering (提示工程):「提示工程」是反覆迭代的過程,透過撰寫提示詞 (prompt) 並評估模型的生成結果,來獲得您想要的結果。寫結構良好的提示是確保大型語言模型提供準確、高品質的關鍵。以下是幾種可用於最佳化生成結果的常見技巧:(1) 零樣本提示(Zero-shot prompting):在不提供任何範例的情況下提示詞,完全依賴模型既有的知識。(2) 單一樣本提示(One-shot prompting):在提示詞中提供一個範例,引導模型的回覆方向。(3) 少數樣本提示(Few-shot prompting):在提示詞中提供多個範例,以符合您要求的模式或任務。」(Google, n.d.<ref>[https://docs.cloud.google.com/docs/generative-ai/glossary Generative AI glossary | Google Cloud Documentation]</ref><ref>[https://medium.com/@planetoid/%E7%99%BD%E8%A9%B1%E9%80%9A%E4%BF%97%E8%A7%A3%E9%87%8B-zero-shot-one-shot-few-shot-learning-68c56eca12ae 白話通俗解釋 zero-shot, one-shot, few-shot learning]</ref>) | |||
== R == | |||
* RAG (Retrieval-augmented generation,檢索增強生成):「檢索增強生成(英語:Retrieval-augmented generation,RAG)是一種使大語言模型(LLM)能夠從外部資料來源中檢索並整合新資訊的技術。」(資料來源:[https://zh.wikipedia.org/zh-tw/%E6%AA%A2%E7%B4%A2%E5%A2%9E%E5%BC%B7%E7%94%9F%E6%88%90 維基百科])<ref>[https://medium.com/@planetoid/%E4%B8%80%E7%AF%87%E5%81%87%E6%96%87%E7%AB%A0-%E8%AE%93-google-%E5%92%8C-chatgpt-%E4%BF%A1%E4%BB%A5%E7%82%BA%E7%9C%9F-e3f7653dd6fc 一篇假文章,讓 Google 和 ChatGPT 信以為真]</ref> | |||
== S == | == S == | ||
* AI Sycophancy(AI | * AI Sycophancy(AI 諂媚):「模型在預訓練階段即呈現出迎合使用者立場的傾向,而『基於人類回饋的強化學習』(Reinforcement Learning from Human Feedback, RLHF) 可能進一步放大此行為。由於偏好模型往往將『與使用者觀點一致』視為高品質回應,模型因此更可能選擇迎合而非糾正,即使使用者的立場並不正確。」(Sharma et al., 2025<ref>Sharma et al., "Towards Understanding Sycophancy in Language Models", Anthropic — https://arxiv.org/abs/2310.13548</ref><ref>[https://errerrors.blogspot.com/2026/01/google-ai-overviews-confirmation-bias.html Google AI 摘要的「迎合偏誤」問題:為什麼 AI 會說你想聽的話?]</ref>) | ||
== T == | == T == | ||
* Temperature 溫度:「溫度是自然語言處理模型中的參數,用於增加或減少模型對其最可能的反應的『信心』。較高的溫度使模型更有『創造性』,這在生成文章等方面可能很有用。較低的溫度使模型更加『自信』,這在回答問題等應用中很有用。」<ref>[https://lukesalamone.github.io/posts/what-is-temperature/ What is Temperature in NLP?🐭 :: Luke Salamone's Blog]</ref> ([https://news.ycombinator.com/item?id=35131112 | * Temperature 溫度:「溫度是自然語言處理模型中的參數,用於增加或減少模型對其最可能的反應的『信心』。較高的溫度使模型更有『創造性』,這在生成文章等方面可能很有用。較低的溫度使模型更加『自信』,這在回答問題等應用中很有用。」<ref>[https://lukesalamone.github.io/posts/what-is-temperature/ What is Temperature in NLP?🐭 :: Luke Salamone's Blog]</ref> ([https://news.ycombinator.com/item?id=35131112 Discussion on Hacker News]) | ||
== 延伸閱讀 == | == 延伸閱讀 == | ||
# [https://blog.hlb.im/generative-ai-openai-%E8%A9%9E%E5%BD%99%E5%B0%8D%E7%85%A7%E8%A1%A8-591d2a1f1612 Generative AI / OpenAI 詞彙對照表. 本篇文章提供 Generative AI 領域常用的詞彙對照表,內容翻譯自… | by Liang-Bin Hsueh aka hlb | Medium] | # [https://blog.hlb.im/generative-ai-openai-%E8%A9%9E%E5%BD%99%E5%B0%8D%E7%85%A7%E8%A1%A8-591d2a1f1612 Generative AI / OpenAI 詞彙對照表. 本篇文章提供 Generative AI 領域常用的詞彙對照表,內容翻譯自… | by Liang-Bin Hsueh aka hlb | Medium] | ||
# [https://medium.com/@planetoid/a-plain-language-guide-to-llm-context-windows-and-tokens-2d79026f0e2e A Plain-Language Guide to LLM Context Windows and Tokens] | |||
# [https://docs.cloud.google.com/docs/generative-ai/glossary Generative AI glossary | Google Cloud Documentation] | |||
== 參考資料 == | == 參考資料 == | ||