[瑟瑟] 看色圖不求人Part2 AI生成色圖全教學已回收

看板C_Chat (希洽)作者 (北歐組一生推)時間2年前 (2022/09/20 09:37), 2年前編輯推噓46(46016)
留言62則, 50人參與, 2年前最新討論串1/1
古拉鎮樓 (從Discord搬運 非本人生成) https://i.imgur.com/HWRVeJW.png
Part 1 在這 https://www.pttweb.cc/bbs/C_Chat/M.1662444496.A.2E6 不重要 過時了 這篇將包含所有你生成色圖需要的資訊 1. 使用者界面 Stable Diffusion Webui 天天更新官方的在這裡 https://github.com/sd-webui/stable-diffusion-webui 但個別版本一堆主流好像是用1111的 個人也是用這個 https://github.com/AUTOMATIC1111/stable-diffusion-webui 跑起來大概長這樣 https://i.imgur.com/JmYKTSv.png
安裝方式按照每個網站說的 像是官方的寫這樣 windows https://github.com/sd-webui/stable-diffusion-webui/blob/master/docs/1.installati on.md linux https://github.com/sd-webui/stable-diffusion-webui/blob/master/docs/1.linux-inst allation.md 1111的Nvidia卡寫這樣 https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-o n-NVidia-GPUs 個人linux就是clone回來 開conda環境 跑python launch.py 有dependency問題就修 然後就好了 另外也有用Google Colab的選擇 只想測試沒有要瑟瑟的人可以用 使用上就像上面那張 可以選擇 postive 跟 negative prompt https://i.imgur.com/JmYKTSv.png
(negative prompt 貌似只有 1111 的有支援) positive個人一般放 artwork of ... 之類的 negative很迷 可以放一些感覺負面的東西 (如圖中所示) 也可以試著避開一些結果例如把opened mouth放過去讓嘴巴閉起來之類的 到底怎麼找到合適的prompt蠻不直覺的 而且很浪費時間 畢竟這個東西一個月後大概就長不一樣了 所以下面會介紹其他方式來生成想要圖片 2.模型 有了使用者界面最重要的當然是模型本身 幸運的是現在很多人在訓練 從一般的到動畫到瑟瑟到pony到furry都有 這裡整理了一些 https://rentry.org/yrpvv 一般ACG用Waifu Diffusion 這週末會釋出v1.3 要瑟瑟用Lewd Diffusion 不太好控目前只是beta beta beta版本 大老們還持續在蒐集資料跟訓練中 載下來後傳到webui資料夾裡面models的資料夾就可以用了 理論上用哪個模型現在可以直接在Settings換就可以 不過目前似乎有bug所以behavior有點迷 有時候直接整個關掉重開比較方便 另外因為是開一個port 可以在伺服器開外部ssh進去 也有支援直接public開給人用等等 3.圖片生成: 學習概念篇 如上所說 要用prompt生成想要的圖片實在不易 所以個人推薦自己跑一個 textual inversion 學習你想要的概念的embedding 之前已經發了好幾篇實作案例 https://www.pttweb.cc/bbs/C_Chat/M.1662622748.A.4E6 https://www.pttweb.cc/bbs/C_Chat/M.1662808060.A.746 https://www.pttweb.cc/bbs/C_Chat/M.1662880538.A.386 這一次拿來測彩奈 https://i.imgur.com/H7XS3YX.png
頭髮遮眼睛真的學不起來 髮飾則微妙 要學這個embedding個人測試過兩個 分別是 以stable diffusion原本repo為基礎的 https://github.com/lstein/stable-diffusion/blob/main/docs/features/TEXTUAL_INVER SION.md 和diffuser的 https://github.com/huggingface/diffusers/tree/main/examples/textual_inversion 學這個12GB Vram的話圖片大小用448x448才不會記憶體容量不足 Vram更多直接用原本的512x512就可以 個人覺得diffuser的操作起來比較容易但每次重新複製整個模型很迷 如果用diffuser的話產生的東西裡面會有會有一個.bin的檔案就是學到的embedding 至於用第一個好處是可以用tensorboard看當下進度 而其中目前生成的圖片會存在log/..../images/train面 可以大概判斷一下目前學的如何 覺得ok的時候停掉 跑的過程會直接產生一推.pt的檔案在checkpoints裡面 之後就在webui開一個embeddings的資料夾 把想要的.pt放進去 如果沒意外你可以選最後一個 (embeddings.pt) 改一下名稱 像是arona.pt 之後prompt直接輸入arona拿學到的embedding 如一開始的圖所示 (這裡用arona0) https://i.imgur.com/JmYKTSv.png
至於diffuser生成的.bin檔案把結尾改成.pt一樣同一個方法用 textual inversion因為不調模型只學embedding所以受限於模型參數本身 沒辦法完全重現想要的結果 想要更符合的圖片的話 除了直接finetune還可以用dreambooth https://github.com/XavierXiao/dreambooth-stable-diffusion 比起finetune只需要少量圖片 跑起來比textual inversion還快 (不到一小時) 缺點是訓練出來的模型沒有相容性 一個觀念就一個模型 而且因為調整個模型需要30G Vram 現階段幾乎只能用雲端服務租A6000 不過很便宜 舉例來說 一個人訓練的古拉模型花才幾百台幣 可以得到以下成果 https://i.imgur.com/jYQA6gC.png
比起個人之前的文章很明顯更好的學到了特徵 只是dreambooth學到的東西也不好控制 常常prompt給錯就整個崩掉 相較之下textual inversion得到的結果雖然比較差但壞掉時也是漸進式的 下面的古拉自拍系列prompt也調很久 https://i.imgur.com/69dRvb7.png
開頭那張也是這個模型生的 4.圖片生成: 以其他圖片做基底篇 Image to Image webui功能一大堆天天更新有興趣的可以自己看 這裡再介紹一個image2image用圖片當輸入作為參考 就某個角度來說它這個implementation是用個很簡單的演算法 效果差強人意 但拿來做風格微調或者當作圖片構圖基底還算能用 界面長這樣 https://i.imgur.com/fczYbl2.png
使用範例 拿來把戀X或女X3dX的圖2d化 像這張 (取自https://www.pixiv.net/artworks/85531604) https://i.imgur.com/47jljPp.png
https://i.imgur.com/XOA8Q5k.jpg
或是 (目前的模型仍然有生成四肢障礙 https://i.imgur.com/x7WxXHa.jpg
https://i.imgur.com/eMC89Qs.jpg
Denoising越大會離遠本圖片越遠 因為會先加一堆噪音開始重新繪圖 (圖片生成原理細節: https://www.pttweb.cc/bbs/C_Chat/M.1661681711.A.DE3 再貼幾個 (右3d 左2d化 https://i.imgur.com/dRBO1Qp.png
https://i.imgur.com/8Dvl4rZ.png
https://i.imgur.com/ReJK5Az.png
source: https://www.pixiv.net/artworks/87009158 https://www.pixiv.net/artworks/85178188 https://www.pixiv.net/artworks/85443189 當然像是lyroris那篇把2d真人化也可以 當輸入是就是真實系3d cg 只能說效果很可怕 基本上就是deepfake 然後目前雖然有支援inpainting也就是把缺失部分補足的功能 但個人發現diffuser跟stable diffusion原本repo的演算法不一樣 webui應該是用後者 然後兩個演算法感覺都沒到很好 所以有興趣的人應該可以藉此水一篇paper (雖然應該一堆人會去水了 5.色圖 上面那套用正確的模型下去做基本上可以生成各種色圖 不過目前主要受限於資料品質以及clip embedding相關知識不足 當姿勢或視角跑掉太多基本上幾乎生不出來 日本的馬賽克規定也變相增加訓練難度 使得關鍵部份常常效果不佳 但各種調整還是可以有不錯的結果 有興趣可以去 4chan h/hdg 看 (不過那裡也混了各種真實系的 以下示意圖應該不會被桶吧? https://i.imgur.com/hcC4K9n.png
https://i.imgur.com/FCUWKY2.png
置底貼個彩奈換裝系列 效果依舊差強人意 https://i.imgur.com/a8gffeN.jpg
更多資訊可以參考 https://wiki.installgentoo.com/wiki/Stable_Diffusion#Waifu_Diffusion 網路上有幾個discord也都可以加 (應該都是英文的 -- 北歐組一生推 https://i.imgur.com/ydMoryp.jpg
https://i.imgur.com/njHa0OA.jpg
https://i.imgur.com/KVrWmNb.jpg
https://i.imgur.com/leUc4jP.jpg
https://i.imgur.com/aWFuDE4.jpg
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.34.19.251 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1663637848.A.AA1.html

09/20 09:39, 2年前 , 1F
09/20 09:39, 1F

09/20 09:39, 2年前 , 2F
色色
09/20 09:39, 2F

09/20 09:40, 2年前 , 3F
瑟瑟教學
09/20 09:40, 3F

09/20 09:40, 2年前 , 4F
爆讚
09/20 09:40, 4F

09/20 09:40, 2年前 , 5F
09/20 09:40, 5F

09/20 09:41, 2年前 , 6F
最正確的使用方法
09/20 09:41, 6F
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:42:19 ※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:43:37

09/20 09:43, 2年前 , 7F
09/20 09:43, 7F
※ 編輯: cybermeow (114.34.19.251 臺灣), 09/20/2022 09:50:48

09/20 09:47, 2年前 , 8F
所以這可以訓練r18圖嗎
09/20 09:47, 8F
上面lewd diffusion就是完全在ACG r18圖訓練的 真人的更是行之有年了 furry pony也都是有R18的

09/20 09:48, 2年前 , 9F
推 科技進步
09/20 09:48, 9F

09/20 09:48, 2年前 , 10F
完成這些的人應該領諾貝爾和平獎
09/20 09:48, 10F

09/20 09:49, 2年前 , 11F
色圖永動機要研發成功了嗎
09/20 09:49, 11F

09/20 09:51, 2年前 , 12F
學術研究
09/20 09:51, 12F

09/20 09:51, 2年前 , 13F
學...學術研究(鼻血
09/20 09:51, 13F
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:55:21

09/20 09:57, 2年前 , 14F
謝囉
09/20 09:57, 14F

09/20 09:57, 2年前 , 15F
會不會以後有人用殭屍電腦來畫色圖上傳牟利啊?
09/20 09:57, 15F
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:59:05

09/20 09:59, 2年前 , 16F
畫圖ai最終都會被人類訓練成只會畫色圖
09/20 09:59, 16F

09/20 10:00, 2年前 , 17F
槓 文組看不懂啦
09/20 10:00, 17F

09/20 10:05, 2年前 , 18F
浪漫 優質
09/20 10:05, 18F

09/20 10:05, 2年前 , 19F
AI:人類就是色色
09/20 10:05, 19F

09/20 10:05, 2年前 , 20F
還好AI不看迷因,不然畫一畫都變阿姆斯壯
09/20 10:05, 20F

09/20 10:05, 2年前 , 21F
以後不用去理洽請神了
09/20 10:05, 21F

09/20 10:09, 2年前 , 22F
這篇有點猛
09/20 10:09, 22F

09/20 10:10, 2年前 , 23F
電腦白痴的我已經過載了
09/20 10:10, 23F

09/20 10:10, 2年前 , 24F
有沒有一鍵生成澀圖的啊?
09/20 10:10, 24F
你安裝完成就是一鍵了 或是請別人安裝好開給你用也是一鍵 剩下就很多東西要調整自己想文字放什麼 使用者介面倒是做很快 開源來這個月每天都在飆 剩下或是背後演算法要好 之後有自然會有人寫介面

09/20 10:11, 2年前 , 25F
看不懂也要先推
09/20 10:11, 25F

09/20 10:14, 2年前 , 26F
太爽辣 色圖自給自足
09/20 10:14, 26F

09/20 10:16, 2年前 , 27F
爆生時間
09/20 10:16, 27F
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:17:13

09/20 10:17, 2年前 , 28F
09/20 10:17, 28F
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:18:00

09/20 10:22, 2年前 , 29F
以後色圖自己產
09/20 10:22, 29F

09/20 10:23, 2年前 , 30F
為什麼覺得AI瑟瑟比手繪色色還複雜.....
09/20 10:23, 30F
因為還在開發階段 五年後就不好說了 ※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:27:27 ※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:29:25

09/20 10:29, 2年前 , 31F
09/20 10:29, 31F

09/20 10:30, 2年前 , 32F
畫圖學不好,電腦又學不好,我還有什麼用QQ
09/20 10:30, 32F

09/20 10:30, 2年前 , 33F
推 有空也想來研究一下
09/20 10:30, 33F

09/20 10:33, 2年前 , 34F
太強了
09/20 10:33, 34F

09/20 10:39, 2年前 , 35F
推一個w
09/20 10:39, 35F

09/20 10:40, 2年前 , 36F
太苦了 我只是想要瑟瑟
09/20 10:40, 36F

09/20 10:41, 2年前 , 37F
了解,我需要找電腦工程師表妹幫我裝好
09/20 10:41, 37F

09/20 10:41, 2年前 , 38F
這樣會社死嗎?
09/20 10:41, 38F

09/20 10:47, 2年前 , 39F
跟她說要用人工智慧進行藝術創作 聽起來就很潮
09/20 10:47, 39F

09/20 11:13, 2年前 , 40F
一天10次有材料啦
09/20 11:13, 40F

09/20 11:24, 2年前 , 41F
好奇你兩個upscaler的來源是哪裡? Reddit的unstablediffus
09/20 11:24, 41F

09/20 11:25, 2年前 , 42F
ion被BAN了 NovelAI也有自己做了anime和furry model
09/20 11:25, 42F
我就用模型生成沒用upscaler欸 novel ai都不開源搞sfw吧zzzzz

09/20 11:26, 2年前 , 43F
等到AI理解人類性癖的時候,就是決定要毀滅人類的時
09/20 11:26, 43F

09/20 11:26, 2年前 , 44F
刻了
09/20 11:26, 44F
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 11:37:13

09/20 11:37, 2年前 , 45F
感受到時代的進步
09/20 11:37, 45F

09/20 11:37, 2年前 , 46F
我比較怕以後有人大量生產157
09/20 11:37, 46F

09/20 11:48, 2年前 , 47F
沒事Google到了 NovelAI至少他DC現在是可以免費產圖
09/20 11:48, 47F

09/20 11:49, 2年前 , 48F
我不確他之後是走midjourney模式還是會開源 不過SD一開始
09/20 11:49, 48F

09/20 11:50, 2年前 , 49F
在DC也是會用SFW filter 幫助他們產生SFW版本
09/20 11:50, 49F

09/20 11:51, 2年前 , 50F
走商業模式是沒辦法 只能說SD創辦人太有錢 目光也很遠
09/20 11:51, 50F
需要賺錢的確是現實上很麻煩的點 理想上是走開源軟體那套做Open Source software as a service 而且老實講現在這個東西這麼多人搞 實在不看好靠模型賺錢 不如開源演算法模型趕快做平台 hugging face 也是幾乎都開源的 市值也到了20億美金 不知道他們商業模式怎麼樣 訓練waifudiffusion的人說 but if they do make some high quality smut model and never open source it, i'm g oing to just train a clone of it and make it open source. 然後也不知道是受限於美國商業文化還怎樣 全部都畫地自限做sfw 像是今天讓幻影社來做是不是就會完全不一樣 明明nsfw也是很大的商機 當然把這樣的模型用midjourney那套做也不合理 雖然理想上是把nsfw模型開源給所有人用 然而這背後確實也有很多的社會因素需要探討 只是實在是很不爽很多公司什麼都商業機密那一套 ※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 12:05:33 ※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 12:18:14

09/20 12:48, 2年前 , 51F
09/20 12:48, 51F

09/20 12:51, 2年前 , 52F
色色
09/20 12:51, 52F

09/20 13:11, 2年前 , 53F
太棒了 但是看不懂
09/20 13:11, 53F

09/20 13:24, 2年前 , 54F
哇靠 我好像玩得起來 來試試
09/20 13:24, 54F

09/20 14:11, 2年前 , 55F
太專業了
09/20 14:11, 55F

09/20 14:29, 2年前 , 56F
優文
09/20 14:29, 56F

09/20 14:45, 2年前 , 57F
瑟瑟貓千萬要小心別被FBI抓走了==
09/20 14:45, 57F

09/20 15:39, 2年前 , 58F
會注意的 多謝關心 祝大大一生上廁所都有衛生紙
09/20 15:39, 58F

09/20 16:04, 2年前 , 59F
太神啦
09/20 16:04, 59F

09/20 16:37, 2年前 , 60F
謝謝 光看你這篇我就好了
09/20 16:37, 60F

09/20 17:14, 2年前 , 61F
滿詳細地 也來玩玩看好了
09/20 17:14, 61F

09/20 18:39, 2年前 , 62F
詳細推 顯卡:我到底學了什麼東西
09/20 18:39, 62F
文章代碼(AID): #1ZAHbOgX (C_Chat)
文章代碼(AID): #1ZAHbOgX (C_Chat)