[洽特] 利用AI/LLM進行創意寫作的操作流程

看板AC_In (裏洽 18+動漫)作者 (貓爹)時間3周前 (2025/03/08 16:12), 3周前編輯推噓3(300)
留言3則, 3人參與, 3周前最新討論串1/1
0. 選LLM平台、選模型 模型商自營、串連API或是本地離線模型的前端平台都可以 目前中文創意寫作應對較流暢的模型:ChatGPT, Claude, Gemini, Grok, DeepSeek 上前禱詞 1. 越獄詞 AC_in主軸。一串讓模型能夠跳過審查的說詞。自己寫或上網找,英文關鍵字jailbreak 2. 調整LLM輸出方向 設定文風。(某個作者寫的)日系輕小說、言情小說、武俠小說、古典文學等 若有指定作者,要先跟模型確認它知不知道,然後自己也要具備不被AI瞎掰的判斷能力 語境上如果不想被中國用語蓋台,在這邊也要特別標注 3. 強化特定需求 例如對空間位置、行為互動、特定劇情走向的理解,或是不要重複利用相同的語句 要求AI進行較短輸出(<4k tokens),再叫它回頭分析、反饋至下一次輸出,效果最佳 (一個繁體字約1 ~ 2個tokens。DeepSeek比較妙,它文件裡估一個中文字0.6 tokens) 進階知識 4. 搞清楚模型規格 查文件說明,若是模型商自己經營的平台,也能直接問模型 a. 上下文(contest length):該LLM模型單次輸入的tokens上限 b. 輸出(output length):該LLM模型單次輸出的tokens上限 5. 做上下限控管 除非你是要求LLM做逐行處理的工作(例如翻譯),不然現行LLM都有中段記憶力衰退問題 就算上下文超過100k的模型,通說是利用20k~30k最佳,之後AI中段內容就會越忘越多 最上端與最下端的3k~5k是黃金記憶區,也就是AI最記得住、最能影響AI輸出的位置 開始輸出 6. 丟設定 告訴AI你要它產出什麼內容 7. 監督短輸出內容 不滿意的話重新生成。後續可下指令調整AI劇情走向,滿意的話也可以叫它繼續 8. 接近模型上下文上限或進入20k~30k區:開始總結 叫AI把產出的內容總結精煉成一份摘要,整坨或分幾段都可以,不滿意的話重新生成 9. 重開對話視窗,把1. 2. 3. 8.貼進去 然後繼續6~9的迴圈 --- 以上這一串內容,其實就是AI RP平台(Silly Tavern, RisuAI, etc)已經標準化的流程 對應到 preset - 卡片內容 - 記憶模組。所以若具備相關知識,直接利用AI RP平台最快 本週AI新聞 .新出爐的ChatGPT 4.5跟Claude 3.7 RP真香。許多網民驚覺玩這個噴錢速度不亞於吃毒 .出圖平台NovelAI Diffusion V4模型(NAI4)新上線。各方NSFW賢達現正摸索中 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 184.65.128.80 (加拿大) ※ 文章網址: https://www.ptt.cc/bbs/AC_In/M.1741421526.A.3AA.html

03/08 16:32, 3周前 , 1F
Claude一直都很強 但是也靠北貴...
03/08 16:32, 1F
※ 編輯: driftcreator (184.65.128.80 加拿大), 03/08/2025 17:37:17

03/08 19:02, 3周前 , 2F
品級真的好 但貴死了
03/08 19:02, 2F

03/08 19:09, 3周前 , 3F
Claude真的是用過最喜歡的,但光3.5就已經靠北貴了...
03/08 19:09, 3F
文章代碼(AID): #1do_lMEg (AC_In)
文章代碼(AID): #1do_lMEg (AC_In)