[閒聊] 人類的"秒懂"能否對抗AI?

看板C_Chat (希洽)作者 (bebopfan)時間6天前 (2025/12/09 11:53), 編輯推噓5(5048)
留言53則, 14人參與, 6天前最新討論串1/1
駭客任務片段: 男主: "妳懂直升機嗎?" 女主: "還不懂." (三秒後 女主: "現在懂了." ------------- 如果人類開發出秒懂技術, 是否就能對抗AI了? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 106.107.135.143 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1765252408.A.E55.html

12/09 11:54, 6天前 , 1F
人類運作所需要的能量遠小於ai
12/09 11:54, 1F

12/09 11:55, 6天前 , 2F
變身國王高剛:知道了.jpg
12/09 11:55, 2F

12/09 11:55, 6天前 , 3F
你先植入晶片
12/09 11:55, 3F

12/09 11:55, 6天前 , 4F
只有露西能對抗AI吧
12/09 11:55, 4F

12/09 11:56, 6天前 , 5F
你是在說全人類都變成新人類呢 還是全人類都變成橘子汁?
12/09 11:56, 5F

12/09 11:56, 6天前 , 6F
許多人都以為叫AI算零除零(0/0),他們就會自爆了XD
12/09 11:56, 6F

12/09 11:57, 6天前 , 7F
其實AI根本不怕這種運算
12/09 11:57, 7F

12/09 11:58, 6天前 , 8F
AI都不用3秒吧,駭客任務不是就告訴你人類再怎樣都在A
12/09 11:58, 8F

12/09 11:58, 6天前 , 9F
I的控制之下嗎?「救世主」也是AI設計好的循環的一部
12/09 11:58, 9F

12/09 11:58, 6天前 , 10F
12/09 11:58, 10F

12/09 12:02, 6天前 , 11F
看設定
12/09 12:02, 11F

12/09 12:02, 6天前 , 12F
零除以零是報無效操作錯誤啊,要一除以零才是報除零錯誤
12/09 12:02, 12F

12/09 12:06, 6天前 , 13F
兩個都是裝懂 沒啥差
12/09 12:06, 13F

12/09 12:08, 6天前 , 14F
老闆問你懂不懂的時候,我也會秒懂啊
12/09 12:08, 14F

12/09 12:08, 6天前 , 15F
AI就沒有生存壓力
12/09 12:08, 15F

12/09 12:14, 6天前 , 16F
如果是說現在的語言模型,其實要讓它學新東西超級麻煩
12/09 12:14, 16F

12/09 12:19, 6天前 , 17F
語言模型訓練初期會灌入網路上爬到的巨量資料,這時候
12/09 12:19, 17F

12/09 12:19, 6天前 , 18F
我還以為直升機是體位
12/09 12:19, 18F

12/09 12:20, 6天前 , 19F
它可以學到一些知識,然後和其他東西混在一起而無用化
12/09 12:20, 19F

12/09 12:20, 6天前 , 20F
後面的訓練過程要喚醒這些知識是相對容易很多的
12/09 12:20, 20F

12/09 12:21, 6天前 , 21F
但是要新增從未學過的知識,難度是公認的超高又危險
12/09 12:21, 21F

12/09 12:21, 6天前 , 22F
人類的學習能力反而屌打這個麻煩的性質
12/09 12:21, 22F

12/09 12:43, 6天前 , 23F
人類其實也是用一樣方式在學習 只是人類持續在現實世界訓練
12/09 12:43, 23F

12/09 12:43, 6天前 , 24F
等同有無數人在當你的人為監控所以不會走歪而已
12/09 12:43, 24F

12/09 12:45, 6天前 , 25F
現在AI的問題就是規模與成本 它仍然只有在作為高效工具時才
12/09 12:45, 25F

12/09 12:45, 6天前 , 26F
比人類“更划算”
12/09 12:45, 26F

12/09 14:10, 6天前 , 27F
那就是對稱加密
12/09 14:10, 27F

12/09 14:10, 6天前 , 28F
你說的東西 對人與人的溝通來說 就是對稱加密
12/09 14:10, 28F

12/09 14:11, 6天前 , 29F
基於某種不公開少數人知道的共識對應的密碼
12/09 14:11, 29F

12/09 14:13, 6天前 , 30F
LLM的計算終究是廣義與高維度的HMM 但依然是統計
12/09 14:13, 30F

12/09 14:13, 6天前 , 31F
對刻意設計的編碼 現在的LLM是沒有合理時間內的破解
12/09 14:13, 31F

12/09 14:14, 6天前 , 32F
與推理能力的 至於量子計算 那跟核融合一樣
12/09 14:14, 32F

12/09 14:14, 6天前 , 33F
目前是騙錢用的
12/09 14:14, 33F

12/09 14:14, 6天前 , 34F
不維持個理論可行狀態 就拿不到補助與持續投資了
12/09 14:14, 34F

12/09 14:15, 6天前 , 35F
這些投資其實主要會用在基礎科學研究上
12/09 14:15, 35F

12/09 14:15, 6天前 , 36F
人是不是用同樣的方法在學習 這要打一個大問號
12/09 14:15, 36F

12/09 14:16, 6天前 , 37F
目前的ANN核心的理論是從泛函分析出發的
12/09 14:16, 37F

12/09 14:17, 6天前 , 38F
Stone-Weierstrass 定理 這定理說明 可以用單純的刺激
12/09 14:17, 38F

12/09 14:17, 6天前 , 39F
-回應小型函數(一個類神經節點的函數)無限近似任何
12/09 14:17, 39F

12/09 14:18, 6天前 , 40F
機率分布函數 只要有夠高的維度與夠多的節點
12/09 14:18, 40F

12/09 14:18, 6天前 , 41F
但並沒有說明怎麼做到 是不是真的能做到
12/09 14:18, 41F

12/09 14:18, 6天前 , 42F
所以說人是用同樣的方法學習本身是個錯誤的論述
12/09 14:18, 42F

12/09 14:18, 6天前 , 43F
AI那是統計學的結論
12/09 14:18, 43F

12/09 14:19, 6天前 , 44F
LLM依然是統計學 沒有其他 但是是可以靠算力大力出
12/09 14:19, 44F

12/09 14:19, 6天前 , 45F
奇蹟的統計學 不代表能夠真的實現AGI
12/09 14:19, 45F

12/09 14:20, 6天前 , 46F
因為人腦也不完全是透過貝氏理論推論的
12/09 14:20, 46F

12/09 14:22, 6天前 , 47F
LLM目前的行為是使用者的鏡子
12/09 14:22, 47F

12/09 14:26, 6天前 , 48F
另外有興趣的話 Transformer模式真正的革命是平行化
12/09 14:26, 48F

12/09 14:26, 6天前 , 49F
因為那就是在算向量內積
12/09 14:26, 49F

12/09 15:02, 6天前 , 50F
人腦運作確定就是靠超多層超大量的刺激回應單元完成的啊
12/09 15:02, 50F

12/09 15:02, 6天前 , 51F
自己都說機率分佈與刺激回饋兩者會呈現出一樣結果 如果這
12/09 15:02, 51F

12/09 15:02, 6天前 , 52F
個基礎論述本身無錯表示我的設備性能到位就能做出一個完全
12/09 15:02, 52F

12/09 15:02, 6天前 , 53F
一樣功能的人腦
12/09 15:02, 53F
文章代碼(AID): #1fDvquvL (C_Chat)
文章代碼(AID): #1fDvquvL (C_Chat)