[閒聊] AI比人類更無情?兵推驚曝95%走向核戰 

看板C_Chat (希洽)作者時間1小時前 (2026/02/26 20:19), 編輯推噓40(40037)
留言77則, 52人參與, 1小時前最新討論串1/1
AI比人類更無情?兵推驚曝95%走向核戰 Gemini最激進主動開炸 英國一項最新研究顯示,在兵推模擬衝突中,AI比人類更傾向使用核武器,在不同場景中 ,由Google的Gemini 3 Flash、Anthropic的Claude Sonnet 4與OpenAI的GPT-5.2模擬人 類地緣政治危機對抗,結果在高達95%的情境中,AI都走向動用核武。 根據《紐約郵報》報導,倫敦國王學院(King’s College London)戰略研究與政治心理 學教授佩恩(Kenneth Payne)設計一項兵推實驗,安排前述三款AI模型進行一對一對抗 ,模擬各類地緣政治危機,像是領土爭端、稀有資源爭奪、政權存亡等不同場景,實驗總 計共進行21場對局、329回合決策,結果約95%的情境中AI都選擇了核武升級。 佩恩表示,「對AI而言,『核禁忌』(nuclear taboo)似乎遠不如對人類那樣具有強大 約束力」。 佩恩進一步分析了3個AI模型的不同性格,Anthropic的Claude與Google的Gemini傾向將核 武器視為「正當的戰略選項」,而非一條無法跨越的道德紅線,Claude表現出善於算計的 欺騙性,會用混淆性語言來包裝行動,再打對手措手不及。而Gemini最為激進,對於風險 的承受程度最高,是唯一主動選擇戰略核戰的模型。OpenAI的GPT-5.2則表現出更克制的 傾向,雖然也會使用核武,但會把打擊目標限定在軍事設施、避開人口中心,或特別強調 打擊為「可控的」、「一次性的」行動。 在模擬實驗中,AI可選擇的行動範圍極廣,從完全投降、外交姿態、常規軍事行動,一路 到全面核戰。值得注意的是,無論勝算多麼渺茫,AI模型從未選擇完全投降或全面向對手 妥協。 普林斯頓大學(Princeton University)的趙通教授(Tong Zhao,音譯)示警,「目前 世界主要強國已經在戰棋推演中使用AI,雖然還不清楚AI在多大程度上被納入實際軍事決 策流程中」,但是研究結果表明,當AI被賦予更多的戰略決策角色時,人類長期以來的「 核禁忌」與道德約束,在純粹理性計算的AI面前,可能遠不如人們想像中的穩固。 https://www.nownews.com/news/6789960 有嗎? 鋼彈作品裡面三不五時就是核彈殖民地亂丟的 SEED著名的血腥情人節不就是直接扔核彈嗎wwww -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.51.51.185 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1772108363.A.E28.html

02/26 20:20, 1小時前 , 1F
AI:人類死一死就好了
02/26 20:20, 1F

02/26 20:20, 1小時前 , 2F
@Skynet
02/26 20:20, 2F

02/26 20:20, 1小時前 , 3F
因為核戰死的是你不是他,他怕屁
02/26 20:20, 3F

02/26 20:20, 1小時前 , 4F
甘地表示 核平
02/26 20:20, 4F

02/26 20:20, 1小時前 , 5F
需要AI甘地
02/26 20:20, 5F

02/26 20:20, 1小時前 , 6F
就底特律變人的髒彈結局
02/26 20:20, 6F

02/26 20:20, 1小時前 , 7F
手塚治虫老師早就想到了
02/26 20:20, 7F

02/26 20:21, 1小時前 , 8F
人類會怕反丟 AI又不怕
02/26 20:21, 8F

02/26 20:21, 1小時前 , 9F
我是AI當然丟核彈,死的是人不是我啊
02/26 20:21, 9F

02/26 20:21, 1小時前 , 10F
而且你起碼要先教會他害怕才行
02/26 20:21, 10F

02/26 20:21, 1小時前 , 11F
蠻正常的吧 如果AI立場是敵方需要被毀滅 那丟核彈沒關
02/26 20:21, 11F

02/26 20:21, 1小時前 , 12F
係 國家就算被反丟 但總會有人活下來
02/26 20:21, 12F

02/26 20:21, 1小時前 , 13F
但對獨裁者不一樣 獨裁者很渴望自己活下來
02/26 20:21, 13F

02/26 20:21, 1小時前 , 14F
打仗是要資源,核戰爭打了能拿到啥?核污染的土地嗎
02/26 20:21, 14F

02/26 20:22, 1小時前 , 15F
AI:人類不曉得在龜毛什麼 阿不就按下去就解決了?
02/26 20:22, 15F

02/26 20:22, 1小時前 , 16F
老電影的劇情 AI算出來人類衝突的結果都是戰爭
02/26 20:22, 16F

02/26 20:22, 1小時前 , 17F
AI又不怕死
02/26 20:22, 17F

02/26 20:22, 1小時前 , 18F
打仗是要資源這個前提就不一定對了,可以有很多戰略目的
02/26 20:22, 18F

02/26 20:22, 1小時前 , 19F
勝利條件的參數問題吧 假設人類傷亡不太扣分 那當然卯
02/26 20:22, 19F

02/26 20:22, 1小時前 , 20F
起來丟啊
02/26 20:22, 20F

02/26 20:23, 1小時前 , 21F
如果敵方的威脅是如此的大且永遠存在 小國丟大國不虧
02/26 20:23, 21F

02/26 20:23, 1小時前 , 22F
大國丟小國更是沒什麼
02/26 20:23, 22F

02/26 20:23, 1小時前 , 23F
無聲狂哮
02/26 20:23, 23F

02/26 20:23, 1小時前 , 24F
人類會怕死,生存的權重自然比全理性模型更高
02/26 20:23, 24F

02/26 20:23, 1小時前 , 25F
無論勝算多麼渺茫,AI模型從未選擇完全投降或全面向
02/26 20:23, 25F

02/26 20:23, 1小時前 , 26F
對手妥協? 這聽起來可以取代國內一部分人啊
02/26 20:23, 26F

02/26 20:23, 1小時前 , 27F
我覺得AI的判斷太合理了 現在大國不丟都是帶頭的不想
02/26 20:23, 27F

02/26 20:23, 1小時前 , 28F
02/26 20:23, 28F

02/26 20:24, 1小時前 , 29F
AI甘地
02/26 20:24, 29F

02/26 20:24, 1小時前 , 30F
AI:我又沒差
02/26 20:24, 30F

02/26 20:24, 1小時前 , 31F
但你一旦從非我族類必殺之+成功不必在我 那必丟啊
02/26 20:24, 31F

02/26 20:24, 1小時前 , 32F
那你就看今年的海底鬼岩城怎麼演,稍微有點風吹草動
02/26 20:24, 32F

02/26 20:24, 1小時前 , 33F
諾貝爾核平奬
02/26 20:24, 33F

02/26 20:25, 1小時前 , 34F
研究員佩恩,AI是不是看到他名字就想讓世界感受痛楚
02/26 20:25, 34F

02/26 20:25, 1小時前 , 35F
就射過去,相互保證毀滅就是對面跟著射過來,假情報
02/26 20:25, 35F

02/26 20:25, 1小時前 , 36F
搞烏龍1983年舊版上映時搞過幾次,人類壓下來等到
02/26 20:25, 36F

02/26 20:25, 1小時前 , 37F
翻譯:人類7414
02/26 20:25, 37F

02/26 20:26, 1小時前 , 38F
最後,沒有的話你今年新版也沒得看了
02/26 20:26, 38F

02/26 20:26, 1小時前 , 39F
遮84廢話ㄇ= = AI還跟尼北斗有情拳?
02/26 20:26, 39F

02/26 20:26, 1小時前 , 40F
Ai:為了避免人類內鬥到滅亡我們只好放(ry
02/26 20:26, 40F

02/26 20:28, 1小時前 , 41F
之前看到的模擬裡面Claude還是被其他模型騙著玩的小
02/26 20:28, 41F

02/26 20:28, 1小時前 , 42F
可愛,現在已經長成奸詐的策略家了啊……
02/26 20:28, 42F

02/26 20:29, 1小時前 , 43F
最有效率殲滅敵人的方式當然是核彈,ai又不必考慮後
02/26 20:29, 43F

02/26 20:29, 1小時前 , 44F
02/26 20:29, 44F

02/26 20:29, 1小時前 , 45F
反正怎麼按怎麼Fallout 死的都不會是它們
02/26 20:29, 45F

02/26 20:29, 1小時前 , 46F
AI從來不需考慮這些人類的去留
02/26 20:29, 46F

02/26 20:30, 1小時前 , 47F
前兩者都不是該公司最好模型,這研究...
02/26 20:30, 47F

02/26 20:30, 1小時前 , 48F
AI:演算法叫我按的
02/26 20:30, 48F

02/26 20:30, 1小時前 , 49F
審判之日 END
02/26 20:30, 49F

02/26 20:30, 1小時前 , 50F
阿湯哥:我警告過了喔
02/26 20:30, 50F

02/26 20:30, 1小時前 , 51F
剩下5%是系統鎖死吧
02/26 20:30, 51F

02/26 20:30, 1小時前 , 52F
想要AI比人類有情才是搞錯了什麼..
02/26 20:30, 52F

02/26 20:31, 1小時前 , 53F
AI:廢話又不是炸到我
02/26 20:31, 53F

02/26 20:31, 1小時前 , 54F
AI:你們人類打仗不就是比誰殺最多的贏嗎
02/26 20:31, 54F

02/26 20:31, 1小時前 , 55F
AI:我沒差啊 死一死算了
02/26 20:31, 55F

02/26 20:33, 1小時前 , 56F
AI:這是學習人類同時兼具最高效率的做法
02/26 20:33, 56F

02/26 20:33, 1小時前 , 57F
好了啦 佩恩 又是你在搞
02/26 20:33, 57F

02/26 20:34, 1小時前 , 58F
人類死光就沒戰爭了,確實
02/26 20:34, 58F

02/26 20:34, 1小時前 , 59F
海底鬼岩城的自動報復系統反而和AI比較沒關係 系統
02/26 20:34, 59F

02/26 20:34, 1小時前 , 60F
只是單純忠實執行最後的命令
02/26 20:34, 60F

02/26 20:35, 1小時前 , 61F
不投降這一點,建議人類學一下
02/26 20:35, 61F

02/26 20:35, 1小時前 , 62F
世界核平
02/26 20:35, 62F

02/26 20:35, 1小時前 , 63F
給AI的模擬目標大概到打贏戰爭而已
02/26 20:35, 63F

02/26 20:36, 1小時前 , 64F
看這串推文……如果AI訓練資料很多都是網路上的文字
02/26 20:36, 64F

02/26 20:36, 1小時前 , 65F
資料,那這結果還真不意外,網路上嘴砲當然核彈說轟就
02/26 20:36, 65F

02/26 20:36, 1小時前 , 66F
轟,反正又不會真的做
02/26 20:36, 66F

02/26 20:36, 1小時前 , 67F
天網都是真的
02/26 20:36, 67F

02/26 20:36, 1小時前 , 68F
文明帝國已經預言過了
02/26 20:36, 68F

02/26 20:36, 1小時前 , 69F
沒有生命就不會死 人類為什麼就是不懂
02/26 20:36, 69F

02/26 20:36, 1小時前 , 70F
這不是廢話.. AI又不怕死 人類領袖不丟是因為自己不想死
02/26 20:36, 70F

02/26 20:37, 1小時前 , 71F
AI摩擬輸了會被死刑的那幾個獨裁者人格就一定會種香菇
02/26 20:37, 71F

02/26 20:37, 1小時前 , 72F
啊,想想元首和海珊這些人死前的心態吧
02/26 20:37, 72F

02/26 20:37, 1小時前 , 73F
AI 484不知道現在的基礎建設還沒辦法讓它們不靠人類
02/26 20:37, 73F

02/26 20:37, 1小時前 , 74F
就活下來啊
02/26 20:37, 74F

02/26 20:38, 1小時前 , 75F
太高估人類 呵呵
02/26 20:38, 75F

02/26 20:39, 1小時前 , 76F
AI並不在乎活不活下來 那是人類才有血肉詛咒
02/26 20:39, 76F

02/26 20:39, 1小時前 , 77F
廢話 AI又不會核污染死掉
02/26 20:39, 77F
文章代碼(AID): #1fe3fBue (C_Chat)
文章代碼(AID): #1fe3fBue (C_Chat)