Re: 最近看完攻殼的一些感想(有捏)
※ 引述《shamanlin (薩滿已死有事燒紙)》之銘言:
:
: 那想必養成「人類」非常沒有保障了
: 因為所有的人類也有機會發生頓悟般的錯誤
: 但實際上這些都有跡可尋
: 而不是在戰場上如發瘋般的頓悟
: 一個怕死的人,上戰場前就可以知道他沒種
: 同上
: 學到了新的東西,可能有新的頓悟
: 在戰鬥中產生極為影響戰況的頓悟?
: 一個人不會突然從超勇猛變得怕死
: 一台機器也不會
: 另外市面上好像沒有可學習的智能AI這種東西
: (現在是2008年)
: 死的東西當然是一個版本一個版本的出
這就是人類設計精良的地方之一
不管你的AI會不會思考
都是一個基於計算產生的系統
只要計算的過程出現錯誤
就會產生與原來相差甚遠的結果
一個簡單的算式 i = i + 1
if i = 100 then i = i % 100
j = j - i
...
只要其中一個算式是可能不執行的
你就會得到完全不同的結果
所以,也許一個人不會從超勇猛變的超怕死
但是,一個機器人可能會從超勇猛
變的勇於避開戰鬥、勇於近乎自殺的衝向火線
勇於抗命、勇於在戰場上做個人的戰術實驗...etc
在穩定狀態下,會不會發生都是可預期的
但在AI不穩定的情況下
[隨時]都有可能出現某條指令失效的情況
: 一句「無法預期」就想打死所有的可自由思考AI
: 那根本就只能用馬尾型嘛
: 但這種AI永遠只會是就是一個口令一個動作
: 沒事先輸入進去的,不會就是不會
事實上,素子的世界觀中也只敢用類似馬尾型的
而你需要的功能的確可以事先輸入
沒理由每買一台機器人你還要重新作新兵訓練...
: 只要AI的思考能力越靈活,能分擔的層級也就越高
: 一個叫他幹嘛,他就會自動想辦法完成指令的AI
: (去救巴特)
: 跟一個必須下好完整一系列指令才能完成的AI
: (從馬路用物理方式移動,選取最快路徑,碰到敵人執行標準戰鬥程序)
: 後者實在太麻煩了
這點就是你的誤解了
馬尾或許無法作出[應該去地點A]的決定
但你一但告訴他[應該去地點A],他就會去執行
甚下的可以交給導航程式、跟應敵標準程序、最短路徑演算法
並不需要你一個一個輸入...
至於你是怎麼樣得出[應該去地點A]的結論
那只有你最清楚
: 更甚,要是九課人員身處無法下達指令的狀態
: (瀕死,或是昏迷等等情況)
: 哪種AI比較有機會保護人員安全?
如果你期望AI在你昏迷後可以替你彌補你決策上的失誤
那你一定是準備回家吃自己了
因為這個單位恐怕養AI比養你還便宜...
: 錯很大
: 馬尾辦不辦得到跟哲學性與否一點關係都沒有
: 這個事件代表的是馬尾型只能執行資料庫內有的
: 當初設計的時候就已輸入進去的東西
: 他們並沒有自己思考的能力
: 所以碰到塔奇克馬問他的問題,資料庫內也沒有
: 才會進入當機狀態
是的,那麼你期望一個你定義為可以思考的AI替你做出什麼事?
: 反過來,要是當初設計馬尾的人把這問題解答放進去
: 那馬尾反而會滔滔大論開始講述
: 「標準程序」「瞄準系統」「調閱資料」都可以事先輸入進去的
: 但就是一個指令一個動作,只能去下指令執行某種動作
: 然而設計人員有可能預先想好戰場上所有可能的變化嗎?
: 當然不可能,他們又沒有預知能力
所以素子這些活人才會存在
不然他們早就沒工作了...
: 難不成設計人員會在水晶球看到...
: 「之後會要侵入潛艦,去查水手的私人網路喔」
: 「當聽到把難民記憶上傳時,要去入侵衛星喔」
: 只能叫馬尾從某條線路去執行標準化的入侵動作
: 而無法叫馬尾「自己想」各種侵入潛艇的方法
: 即便馬尾的AI強到可以丟一句「去侵入」
你可以叫馬尾去進行A目標的入侵
但除此之外
你有什麼理由要叫馬尾自己想?
這是你的工作,也是為什麼你可以領薪水的原因
: 就自動去執行各種侵入方法
: 那也只能說當初的設計者太厲害
: 事先寫好碰到這種情況該執行的程序
這樣的基本設計一點都不利害
遇到A就執行a
遇到B就跳開b
這種單純的判斷式目前很多程式都有
你知道為什麼每次素子都會請馬尾或是攻殼車支援侵入?
因為攻殼車或是馬尾都可以作為跳板
一但過於深入被反擊的時候,燒掉的不會是素子的腦
: 是啊
: 塔奇克馬用衛星攻擊核彈的舉動只是剛好
: 但馬尾型要「剛好」的可能性連0.000001%都沒有
: 面臨沒有預設過的事情卻還能應對的
: 只有塔奇克馬,而不是馬尾
你祈求這樣0.000001%的可能性
是建立在 99.999999%的風險上
well...主角的運比較好吧
我不會預期自己有這麼好的運氣
: 當你一直執著在AI可能突然自我行動的時候
: 麻煩你先想想,人類也是同樣情況的東西
: 可思考型的AI有違背命令的可能
: 這件事情研究人員跟素子一直都有在評估
: 這也是第一部後期攻殼車被踢回lab的原因
: (為什麼同樣的話要一講再講)
: 在倒數第二集,攻殼車們也做出違背命令的舉動
: 那為什麼素子還是讓攻殼車回來了?
: 理由很簡單
: 雖然塔奇克馬有可能違背命令
: 但他們違背命令的目的是好的
: 違背命令一定是錯的嗎?
: 我想不是吧
: 如果巴特在第一部最後面,因為素子掛了太傷心
: 叫攻殼車亂槍把他打死,一起上路
: 這時候違背命令是對的還錯的?
: AI有思考能力,有可能違背命令
: (前提是朝好的方向)
: 所以塔奇克馬不只是工具,而變成夥伴
: 這是馬尾永遠都不可能達成的境界
: 這點在GIG的開頭跟結尾都有特別提到
: 我也不想再說一次了
: 當然你會說,要是AI違背命令往壞的方面去發展呢?
: 那塔奇克馬就會被踢回lab,而不是持續服役
: (奇怪勒,這講幾次了)
: 就像軍隊中出現違抗命令的頑劣分子
: 同樣也會被踢出去一樣
那是因為你預期了這些抗命應該是[好]的 XD (這真的是太浪漫了)
你一直用[人]作類比
完完全全的忽略了世界上的[人]都不是全然[好]的
也許你擔心死亡、也許你擔心沒有錢或刑期,所以你遵守法律
但塔其克馬擔心什麼?
機器並沒有死亡的概念
時間或是金錢對他們而言沒有意義
即便擁有相同的智能
AI在思考基礎上就與人不同
更不用說他們思考的運作方式也是不同的
所以我不確定你為什麼可以簡單的用人將塔其克馬作類比
或是你覺得世界上的人都是照著預期的方向前進的?
不過我知道你這樣認定的關鍵在哪裡
你一直都認為
AI像人一樣是可以透過觀察來得知適任與否
並且觀察的頻率也與人相同不會出現突發狀況
然而,只要發生一次溢位
就可以把原本算出來是最大值的數字歸零
一個算式的沒有預期的執行
得到的結果就是差十萬八千里
真的要我作類比的話
一條鋼筋平常你看不出在承重上有什麼異狀
但是要崩彎斷裂只需要一秒不到...
(所以設備必須要定期更換避免老化)
: 喔
: 你可以把劇中出現的塔奇克馬們當作1.0
: 然後他們隨時把資料傳回lab去研發2.0
: 到了第三部,塔奇克馬成長了耶!
如果只要[當成]就會具有功能的話...
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 123.194.129.236
※ 編輯: rabbit66376 來自: 123.194.129.236 (07/04 22:12)
→
07/05 15:18, , 1F
07/05 15:18, 1F
討論串 (同標題文章)
Ghost-Shell 近期熱門文章
PTT動漫區 即時熱門文章
125
229