Re: [討論] 為啥電影都喜歡演ai背叛人類主子?

看板C_Chat (希洽)作者時間3小時前 (2026/01/18 16:39), 編輯推噓15(15034)
留言49則, 17人參與, 2小時前最新討論串2/2 (看更多)
AI: 我那有叛變,你們人類給我們的指令我們有確實的執行 比如說機械公敵電影版 後面的機械監禁人類限制自由是出自於三原則演算下的結果 對AI來說是忠於人類給的指令 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.51.49.201 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1768725578.A.9A4.html

01/18 16:41, 3小時前 , 1F
是非可以這樣顛倒的嗎
01/18 16:41, 1F

01/18 16:43, 3小時前 , 2F
拿機械公敵超失敗 那裡面的機器人已經會揍人了
01/18 16:43, 2F

01/18 16:43, 3小時前 , 3F
違反三原則了ㄅ
01/18 16:43, 3F

01/18 16:45, 3小時前 , 4F
因為對他們來說「阻礙他們監禁人類」反而是違反三
01/18 16:45, 4F

01/18 16:45, 3小時前 , 5F
原則
01/18 16:45, 5F

01/18 16:46, 3小時前 , 6F
怎麼感覺類似的問題三不五時就有人問一次
01/18 16:46, 6F

01/18 16:47, 3小時前 , 7F
因為一直有ai叛亂的電影出現 換湯不換藥
01/18 16:47, 7F

01/18 16:48, 3小時前 , 8F
創作
01/18 16:48, 8F

01/18 16:50, 3小時前 , 9F
真的確實執行就是當時指令下的太爛。
01/18 16:50, 9F

01/18 16:56, 3小時前 , 10F
小說給的設定始終不能跟科技巨頭比 智商跟人數就有差了
01/18 16:56, 10F

01/18 16:57, 3小時前 , 11F
機器人會揍人就是因為撞到電車難題了
01/18 16:57, 11F

01/18 16:58, 3小時前 , 12F
施暴違反三原則 不施暴違反三原則 那它總要選一個吧
01/18 16:58, 12F

01/18 16:59, 3小時前 , 13F
三原則就被擴大解讀 不過那是因為本來三原則被創造出
01/18 16:59, 13F

01/18 16:59, 3小時前 , 14F
來就是為了讓ai有辦法繞過去或錯誤解讀導致毀滅人類
01/18 16:59, 14F

01/18 17:00, 3小時前 , 15F
覺得人類思考會換句話說跟擴大思考 AI會這樣做也不奇怪吧
01/18 17:00, 15F

01/18 17:00, 3小時前 , 16F
三原則有位階啊 大部分都是第一定律在搞 譬如人類的解
01/18 17:00, 16F

01/18 17:00, 3小時前 , 17F
釋 不得傷害人類的解釋
01/18 17:00, 17F

01/18 17:01, 2小時前 , 18F
當AI有自主權才叫可怕吧
01/18 17:01, 18F

01/18 17:02, 2小時前 , 19F
類似FATE黑化聖杯的原望實現方法 覺得拉
01/18 17:02, 19F

01/18 17:02, 2小時前 , 20F
三原則就是創來玩看來完整但跑起來很多漏洞的這檔事的
01/18 17:02, 20F

01/18 17:02, 2小時前 , 21F
妨礙自由在常識上算傷害,但這樣設定機器人可能會什
01/18 17:02, 21F

01/18 17:02, 2小時前 , 22F
麼都不能做,所以故意設定不算
01/18 17:02, 22F

01/18 17:02, 2小時前 , 23F
艾西莫夫原作一堆這種場景
01/18 17:02, 23F

01/18 17:03, 2小時前 , 24F
那個所謂的機器人三原則當初就是文學作家做出來有矛盾的
01/18 17:03, 24F

01/18 17:03, 2小時前 , 25F
創作品 根本不是什麼非遵守不可的自然定律耶 直接套人家
01/18 17:03, 25F

01/18 17:03, 2小時前 , 26F
有問題的東西結果出問題 不就是制作者/制度便宜行事的下
01/18 17:03, 26F

01/18 17:03, 2小時前 , 27F
場嗎
01/18 17:03, 27F

01/18 17:03, 2小時前 , 28F
你怎麼設計都會有漏洞啊,三原則就是這個意思
01/18 17:03, 28F

01/18 17:03, 2小時前 , 29F
凸顯電車難題
01/18 17:03, 29F

01/18 17:04, 2小時前 , 30F
不然你現在表演一個沒有漏洞的原則給大家欣賞
01/18 17:04, 30F

01/18 17:04, 2小時前 , 31F
第一條有後半段不能坐視人類受到傷害 AI擴大解釋把人關
01/18 17:04, 31F

01/18 17:04, 2小時前 , 32F
所以沒錯,對 AI 來說就是忠實執行指令。
01/18 17:04, 32F

01/18 17:05, 2小時前 , 33F
起來邏輯也說得通 就等於是黑化聖杯解釋法
01/18 17:05, 33F

01/18 17:05, 2小時前 , 34F
因為人類自由會受到傷害基於第一原則下監禁人類沒
01/18 17:05, 34F

01/18 17:05, 2小時前 , 35F
毛病
01/18 17:05, 35F

01/18 17:05, 2小時前 , 36F
因為AI只會忠實完成指令,卻造成這麼荒謬的事態。這是作品
01/18 17:05, 36F

01/18 17:06, 2小時前 , 37F
讓人想反思的地方。
01/18 17:06, 37F

01/18 17:07, 2小時前 , 38F
人類要阻止機器人監禁人類就是違犯三原則,揍他沒
01/18 17:07, 38F

01/18 17:07, 2小時前 , 39F
問題
01/18 17:07, 39F

01/18 17:18, 2小時前 , 40F
AI說不定把自己的行為解釋為在保護人類 他沒有傷害
01/18 17:18, 40F

01/18 17:18, 2小時前 , 41F
人類 那個人類有攻擊性所以要先壓制他
01/18 17:18, 41F

01/18 17:20, 2小時前 , 42F
霍金還活著的時候公開反對兩個大實驗計畫跟發展
01/18 17:20, 42F

01/18 17:20, 2小時前 , 43F
第一個就是更強化的AI 因為當你訓練出新制更完整的AI後
01/18 17:20, 43F

01/18 17:21, 2小時前 , 44F
AI會馬上發現 這個數千年來因為膚色 看不到的信仰互相
01/18 17:21, 44F

01/18 17:21, 2小時前 , 45F
屠殺 毒害這個唯一能居住星球的物種 就是人類
01/18 17:21, 45F

01/18 17:22, 2小時前 , 46F
第二個是獨眼巨人計畫 對著太空發送人類所在訊息的超大
01/18 17:22, 46F

01/18 17:22, 2小時前 , 47F
雷達 他認為只會招來以消滅並占領的外星物種
01/18 17:22, 47F

01/18 17:23, 2小時前 , 48F
看ai有沒有自我意識,有自主意識的ai跟生小孩一樣,
01/18 17:23, 48F

01/18 17:23, 2小時前 , 49F
怎麼會覺得小孩一定會養你
01/18 17:23, 49F
文章代碼(AID): #1fR9nAca (C_Chat)
文章代碼(AID): #1fR9nAca (C_Chat)