Re: [閒聊] 這代哀鳳買最基本的版本就夠了吧?

看板C_Chat (希洽)作者 (Zaious.)時間8小時前 (2025/09/10 08:51), 8小時前編輯推噓2(207)
留言9則, 5人參與, 7小時前最新討論串3/3 (看更多)
※ 引述《yokann (我怕練太壯)》之銘言: : ※ 引述《htps0763 (Fish~月~)》之銘言: : : 感覺可以買來玩音G了 : : 之前還沒退世界計畫的時候,還特別搞一隻安卓來玩 : : 120Hz的音G就是爽 讓我一篇文貼三個板ya 其實最大的差異應該是 RAM。 對我這個 AI 領域的工作者,其實還是有聽到蘋果提 AI , 查了一下 Reddit 也有人在討論 「"even more RAM for running local language models"」 這句話應該能映證 17Pro 的 Ram 「應該」 多於 17 跟 16Pro, 流出情報無誤的話是 12G。 *根據隔壁板友指出, 17用8GB-LPDDR5,Air是12GB-LPDDR5,Pro跟Pro Max皆為12GB-LPDDR5X - 至於 4G 的 RAM 差異,或者本地跑語言模型到底有沒有用? 可以參考 Edge AI 這個這一兩年業界常常會提到的觀念: https://ikala.ai/zh-tw/blog/ai-technology/edge-ai-introduction/ 過去如果你什麼AI需求都是連網,會有兩個問題 1.回應時間過長 2.資訊安全疑慮 這年頭的智慧裝置都在拼命堆本地的運算能力等微型語言模型能力越來越強 (像是open ai最近就開源了gpt-oss-20b),RAM 的大小決定了裝置 AI 能力的上限。 我認為蘋果有提這麼一句代表他們對 AI 發展是有一定程度的意識的。 but 對,看起來是還沒準備好,所以吹都不敢吹... 但官網還是有強調17系列的Apple Intelligence https://www.apple.com/tw/apple-intelligence/ PS. 本地語言模型通常不會單獨使用, Apple Intelligence 之前提到是把機敏資料跟一些需要快速響應的需求(翻譯?) 放在本地,然後其他再去雲端處理。 問題其實是 Apple 在雲端,自己的大語言模型應該是失敗了, 到底要跟哪家合作?怎麼對接?這段看起來嚴重卡關了。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.161.126.186 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1757465500.A.D07.html

09/10 09:00, 8小時前 , 1F
還是不懂蘋果的AI到底是怎樣 之前的內鬥說是真的? 那也過
09/10 09:00, 1F

09/10 09:00, 8小時前 , 2F
了這麼久一點東西都拿不出來...?
09/10 09:00, 2F

09/10 09:01, 8小時前 , 3F
搶不到人的可能性比較大
09/10 09:01, 3F

09/10 09:01, 8小時前 , 4F
Meta、X、Google、OpenAI 幾間搶人搶到殺紅眼了
09/10 09:01, 4F

09/10 09:03, 8小時前 , 5F
現在不是傳說要跟google合作?
09/10 09:03, 5F

09/10 09:03, 8小時前 , 6F
Apple比較龜毛,感覺無法確認忠誠的中國員工他們也不敢用
09/10 09:03, 6F

09/10 09:04, 8小時前 , 7F
所以導致軟體根本慘到不行,17Pro只能先把硬體開出來放
09/10 09:04, 7F

09/10 10:20, 7小時前 , 8F
2025年RAM還在8G
09/10 10:20, 8F

09/10 10:22, 7小時前 , 9F
希望2027年的PRO MAX能到16GB就好了
09/10 10:22, 9F
文章代碼(AID): #1emCkSq7 (C_Chat)
文章代碼(AID): #1emCkSq7 (C_Chat)