LLMs Usage FAQ in Mandarin
Jump to navigation
Jump to search
LLMs 使用常見問題與解答
如何解決「強制保持繁體中文輸出」
- 在問題前加上 #zh-TW。[1]
- 或指定「使用臺灣常用的繁體中文」。
範例:
請使用台灣常用的繁體中文: 規則: - 使用全形標點符號,中英文之間加入空格。 - 以下是常見的 AI 相關術語詞彙對應表(English -> 中文): * Transformer -> Transformer * Token -> Token * LLM/Large Language Model -> 大語言模型 * Zero-shot -> 零樣本 * Few-shot -> 少樣本 * AI Agent -> AI 代理 * AGI -> 通用人工智慧
我想產生更長的文章內容
📝 問題: 我想要使用 LLMs 產生 5000~6000 字的文章,但是每次只能產生 1000~1500 字的文章。
💬 原因: LLMs 模型有上下文 (context window) 的長度限制,每次請求的輸入與輸出加起來的 token 數量有固定限制。因此每次產生的結果都會遇到 1000~1500 字的上限。建議的解決方式(workaround)是將預定輸出的文章進行結構拆解,分章節逐步輸出內容。
以 OpenAI o3 模型為例:(1) Context Window (200,000):輸入 + 輸出的總額度、(2) Max Output Tokens (100,000):單次回答上限。實際輸入空間:200,000 - 預計輸出長度
解決方案: 如果無法一次產生 5000~6000 字的文章,可以在輸入指示中事先規劃五個章節架構,再依照章節順序逐次產生內容,最終達到 5000~6000 字文章的產出目標。
如何解決 AI 會忘記訓練內容
📝 詢問內容:
我想進一步請教一個問題:如果我們採用「層層優化提示詞」這種漸進式的方法來改善AI表現,會不會遇到以下情況:在經過多次提示詞優化後,AI確實學會了相關技能並表現良好,但是過了一段時間後,它又忘記了這些已經訓練好的能力? 我想了解現在各大主流AI模型平台是否都具備穩定的記憶保留功能,也就是說,它們能夠持續記住之前我們給予的訓練提示和指導內容嗎? 我有時候會感覺AI的記憶力似乎不太穩定。在同一個專案進行過程中,明明之前已經向AI詳細說明過的內容和要求,過了一陣子卻需要重新從頭解釋一遍,這讓我對AI的學習持續性產生疑問。
💬 回覆內容:
確實,早期的AI模型由於context window(上下文視窗)長度限制較短,很容易出現偏離原本設定方向的情況。當我遇到這種狀況時,我通常會選擇開啟一個全新的對話,重新開始整個互動過程。
現在的AI模型在這方面應該有顯著的改善。如果這次的對話效果令人滿意,我建議你可以給AI下達一個指令,要求它總結並收斂整個對話過程,將對話中累積的互動原則和經驗歸納整合到最初的提示詞中:
假設我要開啟一個新的對話來討論相同的主題,請你建議我應該使用怎樣的完整提示詞。 這個提示詞需要包含我們整個討論過程中的重要內容: (1) 原本提示詞想要解決的核心問題和目標 (2) 與原本問題相關聯,但是一開始的解決方法沒有充分考慮到的重要面向和細節