14,970
edits
m (→我想產生更長的文章內容) |
|||
| Line 33: | Line 33: | ||
💬 原因: | 💬 原因: | ||
LLMs 模型有上下文 (context window) 的長度限制,每次請求的輸入與輸出加起來的 token 數量有固定限制。因此每次產生的結果都會遇到 1000~1500 字的上限。建議的解決方式(workaround)是將預定輸出的文章進行結構拆解,分章節逐步輸出內容。 | LLMs 模型有上下文 (context window) 的長度限制,每次請求的輸入與輸出加起來的 token 數量有固定限制。因此每次產生的結果都會遇到 1000~1500 字的上限。建議的解決方式(workaround)是將預定輸出的文章進行結構拆解,分章節逐步輸出內容。 | ||
解決方案: | 解決方案: | ||
如果無法一次產生 5000~6000 字的文章,可以在輸入指示中事先規劃五個章節架構,再依照章節順序逐次產生內容,最終達到 5000~6000 字文章的產出目標。 | 如果無法一次產生 5000~6000 字的文章,可以在輸入指示中事先規劃五個章節架構,再依照章節順序逐次產生內容,最終達到 5000~6000 字文章的產出目標。 | ||
{{Tip | tip= 以 [https://platform.openai.com/docs/models/o3 OpenAI o3] 模型為例:(1) Context Window (200,000):輸入 + 輸出的總額度、(2) Max Output Tokens (100,000):單次回答上限。實際輸入空間:200,000 - 預計輸出長度}} | |||
== 如何解決 AI 會忘記訓練內容 == | == 如何解決 AI 會忘記訓練內容 == | ||