Re: [討論] 其實Deepseek真的很厲害了

看板C_Chat (希洽)作者 (【林】)時間1天前 (2025/01/29 12:32), 編輯推噓3(301)
留言4則, 3人參與, 1天前最新討論串7/10 (看更多)
※ 引述《NDSL (NDou112)》之銘言: : 魯宅如我只想問 : Deepseek可以接諸如傻酒館之類的東西 : 然後跑眾多肥宅寄與厚望的那個嗎? : 不管是API或本地部署都好 : 不過本地部署偶的ram只有8G 跑不動 : 有沒有懂哥試過講解一下 拜託 很急 看一些評論 deepseek有一點較特殊的是在於 特意篩選主題後減少資料量來讓較低硬體也能較快運算 也就是當判斷現在聊的主題是偏向那種類型時 則選擇較小資料庫來做運算,讓較低階硬體能即時輸出堪用的結果 不過輸出結果可能也會受選擇的類型而有所影響 另外還有運算量的差異 一些細節部分可能也會有思考不足的情況 但以目前硬體程度跟其他AI發展出來的理論模型基礎 雖然硬體較差資料也較小 但看來大部分一般應用可能還可以接受 也就是deepseek可能比較偏向以現有技術拿來做較一般應用方面的處理 而其他更重資本的AI開發 可能更偏向基礎研究以及需要更精細要求的應用 所以拿來當聊天室玩小說設定接龍應該是可以吧 我倒是想要可以本機用一般中價位電腦就能翻得比較順的軟體 拿來看沒中文代理的ACG作品 XD -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.232.4.167 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1738125136.A.8C8.html

01/29 14:27, 1天前 , 1F
可以試試看SakuraLLM 專門ACG 日翻中的本地模型
01/29 14:27, 1F

01/29 14:40, 1天前 , 2F
SakuraLLM本機架設的建議要求是顯卡要24g vram,我
01/29 14:40, 2F

01/29 14:40, 1天前 , 3F
用12g顯卡翻譯還是卡卡的qq
01/29 14:40, 3F

01/29 14:51, 1天前 , 4F
目前看來就是要打破只有高階晶片才能跑AI的說法吧
01/29 14:51, 4F
文章代碼(AID): #1dcQzGZ8 (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1dcQzGZ8 (C_Chat)