[洽特] 利用AI/LLM進行創意寫作的操作流程
0. 選LLM平台、選模型
模型商自營、串連API或是本地離線模型的前端平台都可以
目前中文創意寫作應對較流暢的模型:ChatGPT, Claude, Gemini, Grok, DeepSeek
上前禱詞
1. 越獄詞
AC_in主軸。一串讓模型能夠跳過審查的說詞。自己寫或上網找,英文關鍵字jailbreak
2. 調整LLM輸出方向
設定文風。(某個作者寫的)日系輕小說、言情小說、武俠小說、古典文學等
若有指定作者,要先跟模型確認它知不知道,然後自己也要具備不被AI瞎掰的判斷能力
語境上如果不想被中國用語蓋台,在這邊也要特別標注
3. 強化特定需求
例如對空間位置、行為互動、特定劇情走向的理解,或是不要重複利用相同的語句
要求AI進行較短輸出(<4k tokens),再叫它回頭分析、反饋至下一次輸出,效果最佳
(一個繁體字約1 ~ 2個tokens。DeepSeek比較妙,它文件裡估一個中文字0.6 tokens)
進階知識
4. 搞清楚模型規格
查文件說明,若是模型商自己經營的平台,也能直接問模型
a. 上下文(contest length):該LLM模型單次輸入的tokens上限
b. 輸出(output length):該LLM模型單次輸出的tokens上限
5. 做上下限控管
除非你是要求LLM做逐行處理的工作(例如翻譯),不然現行LLM都有中段記憶力衰退問題
就算上下文超過100k的模型,通說是利用20k~30k最佳,之後AI中段內容就會越忘越多
最上端與最下端的3k~5k是黃金記憶區,也就是AI最記得住、最能影響AI輸出的位置
開始輸出
6. 丟設定
告訴AI你要它產出什麼內容
7. 監督短輸出內容
不滿意的話重新生成。後續可下指令調整AI劇情走向,滿意的話也可以叫它繼續
8. 接近模型上下文上限或進入20k~30k區:開始總結
叫AI把產出的內容總結精煉成一份摘要,整坨或分幾段都可以,不滿意的話重新生成
9. 重開對話視窗,把1. 2. 3. 8.貼進去
然後繼續6~9的迴圈
---
以上這一串內容,其實就是AI RP平台(Silly Tavern, RisuAI, etc)已經標準化的流程
對應到 preset - 卡片內容 - 記憶模組。所以若具備相關知識,直接利用AI RP平台最快
本週AI新聞
.新出爐的ChatGPT 4.5跟Claude 3.7 RP真香。許多網民驚覺玩這個噴錢速度不亞於吃毒
.出圖平台NovelAI Diffusion V4模型(NAI4)新上線。各方NSFW賢達現正摸索中
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 184.65.128.80 (加拿大)
※ 文章網址: https://www.ptt.cc/bbs/AC_In/M.1741421526.A.3AA.html
推
03/08 16:32,
3周前
, 1F
03/08 16:32, 1F
※ 編輯: driftcreator (184.65.128.80 加拿大), 03/08/2025 17:37:17
推
03/08 19:02,
3周前
, 2F
03/08 19:02, 2F
推
03/08 19:09,
3周前
, 3F
03/08 19:09, 3F
AC_In 近期熱門文章
10
19
PTT動漫區 即時熱門文章
20
79
47
73