Re: [閒聊] DeepSeek是不是真的很強?

看板C_Chat (希洽)作者 (貓在鋼琴上昏倒了)時間6小時前 (2025/02/02 14:39), 5小時前編輯推噓11(11022)
留言33則, 10人參與, 5小時前最新討論串19/21 (看更多)
yt看到以後花了我兩個小時在摸 完全不會寫程式也不用高昂配備就可以給地端用 https://www.youtube.com/watch?v=Td_jdwRHofo
要注意 1.問問題cpu會飆車 2.可以用於工作 我餵他吃法律 他吃得算開心 這東西可以吃地端資料就可以用於工作 但還沒想到能幹嘛... ================= FROM deepseek-r1:7b PARAMETER temperature 0.5 SYSTEM """ 記事本輸入敘述對話需要參考的內容(地端無法讀網路 只能地端) 然後去除.txt即可 可以做角色扮演也可以回答指定法條 ====的上方是EW內容 """ ================= 指令 cd C:\Users\user\Desktop\1 檔案路徑 ollama create EW -f ./EW EW是檔案名稱,要先將EW打好 ollama run EW https://i.imgur.com/yhUnMGF.jpeg
https://i.imgur.com/R4K0eRS.jpeg
還沒讀地端資料時 回答跟大便一樣..不過當初chatgpt也是從亂回開始 https://i.imgur.com/SqL7HCW.jpeg
讀地端資料後就像個人了 https://i.imgur.com/w2wHmkM.jpeg
※ 引述《protoss97 (wei)》之銘言: : ※ 引述《subsonic (索尼克)》之銘言: : 試著讓deepseek寫一小章 : ### **第一章:黑船之繭(1890)** : 森鷗外的手錶停在凌晨三時十七分。 -- https://www.youtube.com/watch?v=sEQf5lcnj_o
Unravel - Tokyo Ghoul OP [Piano] -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.249.251 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1738478349.A.F6C.html

02/02 14:40, 6小時前 , 1F
地端是啥
02/02 14:40, 1F

02/02 14:41, 6小時前 , 2F
抓到了,中共同路人
02/02 14:41, 2F

02/02 14:41, 6小時前 , 3F
其實用lmstudio更簡單 不用打任何指令
02/02 14:41, 3F
可是我用lm studio很慢 不知道為甚麼...可能是他更吃資源

02/02 14:41, 6小時前 , 4F
接地氣的意思嗎
02/02 14:41, 4F

02/02 14:43, 6小時前 , 5F
然後聽說7B審查會比較多一點 可是8B的中文又比較差一點
02/02 14:43, 5F

02/02 14:46, 6小時前 , 6F
怎麼一堆人都是拿去玩養自己的AI老婆XD
02/02 14:46, 6F
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:48:11

02/02 14:47, 6小時前 , 7F
工作上叫本地機房也是說地端啊 支語警察是不是沒工作
02/02 14:47, 7F

02/02 14:47, 6小時前 , 8F
過 點點點
02/02 14:47, 8F
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:52:39

02/02 14:50, 6小時前 , 9F
用gpu跑32b 4Q基本沒問題 用cpu滿恐怖的
02/02 14:50, 9F

02/02 14:50, 6小時前 , 10F
*Q4
02/02 14:50, 10F

02/02 14:51, 6小時前 , 11F
你的電腦配備呢? 我用起來是lmstudio快非常多
02/02 14:51, 11F

02/02 14:52, 6小時前 , 12F
因為它有vulkan加速 A卡也能用
02/02 14:52, 12F
我是老機器 GA401 16gb ram rtx 2060 ※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:53:56

02/02 14:52, 6小時前 , 13F
如果不用gpu體感是跟用ollama差不多 實際不知道
02/02 14:52, 13F

02/02 14:53, 5小時前 , 14F
因為ollama也沒顯示每秒幾個token
02/02 14:53, 14F
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:55:12

02/02 15:05, 5小時前 , 15F
2060 6GB的話應該勉強塞得下去才對
02/02 15:05, 15F

02/02 15:05, 5小時前 , 16F

02/02 15:06, 5小時前 , 17F
不過可能太緊繃 所以你用lmstudio VRAM不夠 所以沒GPU加速
02/02 15:06, 17F

02/02 15:07, 5小時前 , 18F
用ollama它有幫你塞進去有用到GPU加速所以就快很多
02/02 15:07, 18F

02/02 15:07, 5小時前 , 19F
感謝大大 我找找看能不能硬塞..
02/02 15:07, 19F

02/02 15:12, 5小時前 , 20F
有promt可以繞過審查吧
02/02 15:12, 20F

02/02 15:12, 5小時前 , 21F
會大吃CPU的話 速度還真的會慢到一個難受
02/02 15:12, 21F

02/02 15:12, 5小時前 , 22F
temperature設0.5會不會有點低阿?
02/02 15:12, 22F

02/02 15:13, 5小時前 , 23F
02/02 15:13, 23F

02/02 15:14, 5小時前 , 24F
這一定要用GPU跑的
02/02 15:14, 24F

02/02 15:14, 5小時前 , 25F
寫作設到1.5呢 雖然1.5感覺很怪 一般不是0~1嗎?
02/02 15:14, 25F

02/02 15:20, 5小時前 , 26F
我目前用0.5的對話其實就滿長的,1.5他可能需要更多資
02/02 15:20, 26F

02/02 15:20, 5小時前 , 27F
源我不知道能不能負擔
02/02 15:20, 27F

02/02 15:20, 5小時前 , 28F
其實我要的也只是簡單的問與答,但是0.5他現在就打幾百
02/02 15:20, 28F

02/02 15:20, 5小時前 , 29F
字了
02/02 15:20, 29F

02/02 15:26, 5小時前 , 30F
理論上temperature是不影響回應長度的
02/02 15:26, 30F

02/02 15:26, 5小時前 , 31F
溫度影響的不是長度,而是發散性或創意性
02/02 15:26, 31F

02/02 15:26, 5小時前 , 32F
他是讓模型更有機會去選擇機率比較低的結果
02/02 15:26, 32F

02/02 15:27, 5小時前 , 33F
設高一點理論上會比較有"創意"
02/02 15:27, 33F
文章代碼(AID): #1ddnCDzi (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1ddnCDzi (C_Chat)