Re: [討論] 其實Deepseek真的很厲害了

看板C_Chat (希洽)作者 (托爾)時間12小時前 (2025/01/30 12:51), 編輯推噓12(13125)
留言39則, 18人參與, 9小時前最新討論串10/10 (看更多)
https://x.com/Azure/status/1884753427059609991 剛剛看到的消息 Coming soon: Customers will be able to use distilled flavors of the DeepSeek R1 model to run locally on their Copilot+ PCs. 即將推出:客戶將能夠使用 DeepSeek R1 型號的精簡版本在他們的 Copilot+ PC 上本地運行。 微軟說以後的windows會有內建的DeepSeek AI系統 免錢的就是香? 以後玩日文遊戲是不是可以靠AI實現在自己電腦上同步翻譯 不再需要代理商來翻譯了阿...? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.132.41.160 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1738212696.A.98B.html

01/30 12:53, 12小時前 , 1F
痾 本地的有多垃圾誰用誰知道==
01/30 12:53, 1F

01/30 12:54, 12小時前 , 2F
不用買老黃貴貴的卡了,需求降到很低很低很低很低
01/30 12:54, 2F

01/30 12:54, 12小時前 , 3F
AI pc了不起也到14B而已 其實現在就能自己載來試了
01/30 12:54, 3F

01/30 12:54, 12小時前 , 4F
GPT藥丸 老黃藥丸 輝達藥丸 中或最贏
01/30 12:54, 4F

01/30 12:56, 12小時前 , 5F
這則訊息到底哪邊有講windows內建了
01/30 12:56, 5F

01/30 12:58, 12小時前 , 6F
有競爭是好事r
01/30 12:58, 6F

01/30 12:58, 12小時前 , 7F
大語言模型要跑 不是訓練 本來就不用N卡啊
01/30 12:58, 7F

01/30 12:58, 12小時前 , 8F
A卡也能加速 我用6600XT跑7B模型
01/30 12:58, 8F

01/30 12:58, 12小時前 , 9F
大概可以到35token/sec 這速度已經比用免費gpt快了
01/30 12:58, 9F

01/30 12:58, 12小時前 , 10F
但就...很蠢 7B的智商是真的低
01/30 12:58, 10F

01/30 12:58, 12小時前 , 11F
不用等什麼內建 現在就可以自己抓回來電腦玩了
01/30 12:58, 11F

01/30 12:59, 12小時前 , 12F
然而口拍擋東擋西的出圖還是得自己來
01/30 12:59, 12F

01/30 12:59, 12小時前 , 13F
我尋思著日文遊戲同步翻譯不是早就有了嗎==
01/30 12:59, 13F

01/30 13:01, 12小時前 , 14F
確實 如果是微軟幫你搞大概會擋很多東西 不如自己載
01/30 13:01, 14F

01/30 13:01, 12小時前 , 15F
當然模型本身還是會有拒絕回答的東西 但不會再套一層檢查
01/30 13:01, 15F

01/30 13:03, 12小時前 , 16F
早就有了 現在差在各模型誰翻的最好又便宜而已
01/30 13:03, 16F

01/30 13:06, 12小時前 , 17F
A卡有救嗎
01/30 13:06, 17F

01/30 13:08, 12小時前 , 18F
日文翻譯有8g顯卡用sakura7b+luna就夠了
01/30 13:08, 18F

01/30 13:12, 12小時前 , 19F
a卡看你哪張 6600xt用lm studio可以加速
01/30 13:12, 19F

01/30 13:12, 12小時前 , 20F
大概35token/sec沒用顯卡大概只有10token/sec
01/30 13:12, 20F

01/30 13:22, 12小時前 , 21F
10年前的VNR不就有這種功能了?
01/30 13:22, 21F

01/30 13:28, 12小時前 , 22F
不過如果用deepseek 它"想"的時間常常會到10幾20秒
01/30 13:28, 22F

01/30 13:28, 12小時前 , 23F
而且因為7b 8b太蠢 常常想錯方向 我覺得中文對談還不如qwen
01/30 13:28, 23F

01/30 13:30, 12小時前 , 24F
大概就數學好一點? 像9.11跟9.9誰大偶而可以答對
01/30 13:30, 24F

01/30 13:30, 12小時前 , 25F
但其實要求其他7b左右的模型仔細計算他們有時也能答對
01/30 13:30, 25F

01/30 13:36, 11小時前 , 26F
微軟本地的AI功能原本預計只有TEAMS去背降噪 畫圖i2i 用自然
01/30 13:36, 26F

01/30 13:36, 11小時前 , 27F
語言查電腦的使用歷程紀錄 這個看要加什麼功能在本地端
01/30 13:36, 27F

01/30 13:37, 11小時前 , 28F
這個應該是用內建NPU跑的功能 如果是自己架的隨便要什麼都可
01/30 13:37, 28F

01/30 13:38, 11小時前 , 29F
不過我是比較期待AI MAX也搞統一記憶體 如果VRAM 96G配DS
01/30 13:38, 29F

01/30 13:39, 11小時前 , 30F
比較大的模型(有嗎)效果應該很不錯?
01/30 13:39, 30F

01/30 13:41, 11小時前 , 31F
如果你是要翻r18的東西 建議還是用llama 70b
01/30 13:41, 31F

01/30 13:42, 11小時前 , 32F
鴨鴨走那邊可以免費無限用 效果比deepseek 7b好太多了
01/30 13:42, 32F

01/30 13:47, 11小時前 , 33F
這只是在azure和github上提供而已,沒有要加功能在本
01/30 13:47, 33F

01/30 13:47, 11小時前 , 34F
地端
01/30 13:47, 34F

01/30 13:51, 11小時前 , 35F
本地就算了
01/30 13:51, 35F

01/30 14:08, 11小時前 , 36F
你的英文是不是不太好...
01/30 14:08, 36F

01/30 14:19, 11小時前 , 37F
吹的應該沒實際用過本地AI 蠢到爆好嗎
01/30 14:19, 37F

01/30 14:19, 11小時前 , 38F
英文不好你可以先用你最愛的DS翻譯一下 不要來鬧笑話
01/30 14:19, 38F

01/30 16:10, 9小時前 , 39F
will be able翻譯內建 不愧是中國翻譯
01/30 16:10, 39F
文章代碼(AID): #1dcmLOcB (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1dcmLOcB (C_Chat)