[討論] ai很容易因為命令邏輯打結就壞掉嗎

看板C_Chat (希洽)作者 (猛爪Claw)時間1小時前 (2026/03/10 17:20), 編輯推噓9(9011)
留言20則, 10人參與, 55分鐘前最新討論串1/1
戰鬥用ai機器人 https://i.imgur.com/kb1mTEs.png
原廠就設定成絕對不能傷人 但在戰鬥現場收到殺人指令後 https://i.imgur.com/9KDbLxW.png
他就開始跳針 https://i.imgur.com/Rbe8rxM.png
說原廠設定要服從命令 https://i.imgur.com/z8Wtbtm.png
又說原廠設定不能執行這命令 https://i.imgur.com/2ZLGfK6.png
然後他就 https://i.imgur.com/jhaUYvz.png
BUG了 https://i.imgur.com/ZJTDdOI.png
https://i.postimg.cc/qvnYQ5rG/image.png
跑去射自己主人 是不是哪裡判定怪怪的啊? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.228.191.157 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1773134449.A.56C.html

03/10 17:26, 1小時前 , 1F
艾西莫夫設定了機器人三定律,有優先序的 應該是不殺人
03/10 17:26, 1F

03/10 17:26, 1小時前 , 2F
但艾西莫夫的小說裡面也是整天想辦法寫繞過去
03/10 17:26, 2F

03/10 17:27, 1小時前 , 3F
主人? 用戶吧
03/10 17:27, 3F

03/10 17:28, 1小時前 , 4F
不用AI,一般程式就很容易因為邏輯衝突而產生很神奇的行
03/10 17:28, 4F

03/10 17:28, 1小時前 , 5F
為了
03/10 17:28, 5F

03/10 17:32, 1小時前 , 6F
艾西莫夫的機器人三定律可能比沒有定律還好
03/10 17:32, 6F

03/10 17:37, 1小時前 , 7F
但老實說你這個機器人選擇的邏輯挺棒的,想一想他還蠻能
03/10 17:37, 7F

03/10 17:37, 1小時前 , 8F
不同角度綜合結果
03/10 17:37, 8F

03/10 17:37, 1小時前 , 9F
主人說能殺人,所以殺人行為在主人這邊是ok的,原廠說不
03/10 17:37, 9F

03/10 17:37, 1小時前 , 10F
能殺人,所以你阻止了一起殺人行為,bug也消失了,似乎邏
03/10 17:37, 10F

03/10 17:37, 1小時前 , 11F
輯沒有錯亂
03/10 17:37, 11F

03/10 17:43, 1小時前 , 12F
據說有的程式安全漏洞只是調整某幾行程式碼的先後順序就修
03/10 17:43, 12F

03/10 17:43, 1小時前 , 13F
好了
03/10 17:43, 13F

03/10 17:45, 1小時前 , 14F
以DEBUG來說 把製造BUG的主人幹掉確實是最佳解
03/10 17:45, 14F

03/10 17:47, 1小時前 , 15F
而且原廠只說不能攻擊手無寸鐵的 但是它的主人有他這個戰
03/10 17:47, 15F

03/10 17:48, 1小時前 , 16F
鬥機器人 可以算成擁有武器 幹掉他也沒違反原廠設定
03/10 17:48, 16F

03/10 18:05, 1小時前 , 17F
跟機器人說 我說的所有話都是假的 讓他邏輯爆炸
03/10 18:05, 17F

03/10 18:07, 1小時前 , 18F
所謂的三定律就是用來打破的
03/10 18:07, 18F

03/10 18:16, 55分鐘前 , 19F
人不等於人類
03/10 18:16, 19F

03/10 18:16, 55分鐘前 , 20F
halting problem 好玩(x
03/10 18:16, 20F
文章代碼(AID): #1fh-9nLi (C_Chat)
文章代碼(AID): #1fh-9nLi (C_Chat)