LLMs Usage FAQ in Mandarin: Difference between revisions

Jump to navigation Jump to search
m
Line 33: Line 33:
💬 原因:
💬 原因:
LLMs 模型有上下文 (context window) 的長度限制,每次請求的輸入與輸出加起來的 token 數量有固定限制。因此每次產生的結果都會遇到 1000~1500 字的上限。建議的解決方式(workaround)是將預定輸出的文章進行結構拆解,分章節逐步輸出內容。
LLMs 模型有上下文 (context window) 的長度限制,每次請求的輸入與輸出加起來的 token 數量有固定限制。因此每次產生的結果都會遇到 1000~1500 字的上限。建議的解決方式(workaround)是將預定輸出的文章進行結構拆解,分章節逐步輸出內容。
{{Tip | tip= 以 [https://platform.openai.com/docs/models/o3 OpenAI o3] 模型為例:(1) Context Window (200,000):輸入 + 輸出的總額度、(2) Max Output Tokens (100,000):單次回答上限。實際輸入空間:200,000 - 預計輸出長度}}


解決方案:
解決方案:
如果無法一次產生 5000~6000 字的文章,可以在輸入指示中事先規劃五個章節架構,再依照章節順序逐次產生內容,最終達到 5000~6000 字文章的產出目標。
如果無法一次產生 5000~6000 字的文章,可以在輸入指示中事先規劃五個章節架構,再依照章節順序逐次產生內容,最終達到 5000~6000 字文章的產出目標。
{{Tip | tip= 以 [https://platform.openai.com/docs/models/o3 OpenAI o3] 模型為例:(1) Context Window (200,000):輸入 + 輸出的總額度、(2) Max Output Tokens (100,000):單次回答上限。實際輸入空間:200,000 - 預計輸出長度}}


== 如何解決 AI 會忘記訓練內容 ==
== 如何解決 AI 會忘記訓練內容 ==

Navigation menu