Re: 最近看完攻殼的一些感想(有捏)

看板Ghost-Shell作者 (逸蒼雲)時間16年前 (2008/07/04 20:26), 編輯推噓0(001)
留言1則, 1人參與, 最新討論串37/45 (看更多)
※ 引述《shamanlin (薩滿已死有事燒紙)》之銘言: : : 那想必養成「人類」非常沒有保障了 : 因為所有的人類也有機會發生頓悟般的錯誤 : 但實際上這些都有跡可尋 : 而不是在戰場上如發瘋般的頓悟 : 一個怕死的人,上戰場前就可以知道他沒種 : 同上 : 學到了新的東西,可能有新的頓悟 : 在戰鬥中產生極為影響戰況的頓悟? : 一個人不會突然從超勇猛變得怕死 : 一台機器也不會 : 另外市面上好像沒有可學習的智能AI這種東西 : (現在是2008年) : 死的東西當然是一個版本一個版本的出 這就是人類設計精良的地方之一 不管你的AI會不會思考 都是一個基於計算產生的系統 只要計算的過程出現錯誤 就會產生與原來相差甚遠的結果 一個簡單的算式 i = i + 1 if i = 100 then i = i % 100 j = j - i ... 只要其中一個算式是可能不執行的 你就會得到完全不同的結果 所以,也許一個人不會從超勇猛變的超怕死 但是,一個機器人可能會從超勇猛 變的勇於避開戰鬥、勇於近乎自殺的衝向火線 勇於抗命、勇於在戰場上做個人的戰術實驗...etc 在穩定狀態下,會不會發生都是可預期的 但在AI不穩定的情況下 [隨時]都有可能出現某條指令失效的情況 : 一句「無法預期」就想打死所有的可自由思考AI : 那根本就只能用馬尾型嘛 : 但這種AI永遠只會是就是一個口令一個動作 : 沒事先輸入進去的,不會就是不會 事實上,素子的世界觀中也只敢用類似馬尾型的 而你需要的功能的確可以事先輸入 沒理由每買一台機器人你還要重新作新兵訓練... : 只要AI的思考能力越靈活,能分擔的層級也就越高 : 一個叫他幹嘛,他就會自動想辦法完成指令的AI : (去救巴特) : 跟一個必須下好完整一系列指令才能完成的AI : (從馬路用物理方式移動,選取最快路徑,碰到敵人執行標準戰鬥程序) : 後者實在太麻煩了 這點就是你的誤解了 馬尾或許無法作出[應該去地點A]的決定 但你一但告訴他[應該去地點A],他就會去執行 甚下的可以交給導航程式、跟應敵標準程序、最短路徑演算法 並不需要你一個一個輸入... 至於你是怎麼樣得出[應該去地點A]的結論 那只有你最清楚 : 更甚,要是九課人員身處無法下達指令的狀態 : (瀕死,或是昏迷等等情況) : 哪種AI比較有機會保護人員安全? 如果你期望AI在你昏迷後可以替你彌補你決策上的失誤 那你一定是準備回家吃自己了 因為這個單位恐怕養AI比養你還便宜... : 錯很大 : 馬尾辦不辦得到跟哲學性與否一點關係都沒有 : 這個事件代表的是馬尾型只能執行資料庫內有的 : 當初設計的時候就已輸入進去的東西 : 他們並沒有自己思考的能力 : 所以碰到塔奇克馬問他的問題,資料庫內也沒有 : 才會進入當機狀態 是的,那麼你期望一個你定義為可以思考的AI替你做出什麼事? : 反過來,要是當初設計馬尾的人把這問題解答放進去 : 那馬尾反而會滔滔大論開始講述 : 「標準程序」「瞄準系統」「調閱資料」都可以事先輸入進去的 : 但就是一個指令一個動作,只能去下指令執行某種動作 : 然而設計人員有可能預先想好戰場上所有可能的變化嗎? : 當然不可能,他們又沒有預知能力 所以素子這些活人才會存在 不然他們早就沒工作了... : 難不成設計人員會在水晶球看到... : 「之後會要侵入潛艦,去查水手的私人網路喔」 : 「當聽到把難民記憶上傳時,要去入侵衛星喔」 : 只能叫馬尾從某條線路去執行標準化的入侵動作 : 而無法叫馬尾「自己想」各種侵入潛艇的方法 : 即便馬尾的AI強到可以丟一句「去侵入」 你可以叫馬尾去進行A目標的入侵 但除此之外 你有什麼理由要叫馬尾自己想? 這是你的工作,也是為什麼你可以領薪水的原因 : 就自動去執行各種侵入方法 : 那也只能說當初的設計者太厲害 : 事先寫好碰到這種情況該執行的程序 這樣的基本設計一點都不利害 遇到A就執行a 遇到B就跳開b 這種單純的判斷式目前很多程式都有 你知道為什麼每次素子都會請馬尾或是攻殼車支援侵入? 因為攻殼車或是馬尾都可以作為跳板 一但過於深入被反擊的時候,燒掉的不會是素子的腦 : 是啊 : 塔奇克馬用衛星攻擊核彈的舉動只是剛好 : 但馬尾型要「剛好」的可能性連0.000001%都沒有 : 面臨沒有預設過的事情卻還能應對的 : 只有塔奇克馬,而不是馬尾 你祈求這樣0.000001%的可能性 是建立在 99.999999%的風險上 well...主角的運比較好吧 我不會預期自己有這麼好的運氣 : 當你一直執著在AI可能突然自我行動的時候 : 麻煩你先想想,人類也是同樣情況的東西 : 可思考型的AI有違背命令的可能 : 這件事情研究人員跟素子一直都有在評估 : 這也是第一部後期攻殼車被踢回lab的原因 : (為什麼同樣的話要一講再講) : 在倒數第二集,攻殼車們也做出違背命令的舉動 : 那為什麼素子還是讓攻殼車回來了? : 理由很簡單 : 雖然塔奇克馬有可能違背命令 : 但他們違背命令的目的是好的 : 違背命令一定是錯的嗎? : 我想不是吧 : 如果巴特在第一部最後面,因為素子掛了太傷心 : 叫攻殼車亂槍把他打死,一起上路 : 這時候違背命令是對的還錯的? : AI有思考能力,有可能違背命令 : (前提是朝好的方向) : 所以塔奇克馬不只是工具,而變成夥伴 : 這是馬尾永遠都不可能達成的境界 : 這點在GIG的開頭跟結尾都有特別提到 : 我也不想再說一次了 : 當然你會說,要是AI違背命令往壞的方面去發展呢? : 那塔奇克馬就會被踢回lab,而不是持續服役 : (奇怪勒,這講幾次了) : 就像軍隊中出現違抗命令的頑劣分子 : 同樣也會被踢出去一樣 那是因為你預期了這些抗命應該是[好]的 XD (這真的是太浪漫了) 你一直用[人]作類比 完完全全的忽略了世界上的[人]都不是全然[好]的 也許你擔心死亡、也許你擔心沒有錢或刑期,所以你遵守法律 但塔其克馬擔心什麼? 機器並沒有死亡的概念 時間或是金錢對他們而言沒有意義 即便擁有相同的智能 AI在思考基礎上就與人不同 更不用說他們思考的運作方式也是不同的 所以我不確定你為什麼可以簡單的用人將塔其克馬作類比 或是你覺得世界上的人都是照著預期的方向前進的? 不過我知道你這樣認定的關鍵在哪裡 你一直都認為 AI像人一樣是可以透過觀察來得知適任與否 並且觀察的頻率也與人相同不會出現突發狀況 然而,只要發生一次溢位 就可以把原本算出來是最大值的數字歸零 一個算式的沒有預期的執行 得到的結果就是差十萬八千里 真的要我作類比的話 一條鋼筋平常你看不出在承重上有什麼異狀 但是要崩彎斷裂只需要一秒不到... (所以設備必須要定期更換避免老化) : 喔 : 你可以把劇中出現的塔奇克馬們當作1.0 : 然後他們隨時把資料傳回lab去研發2.0 : 到了第三部,塔奇克馬成長了耶! 如果只要[當成]就會具有功能的話... -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 123.194.129.236 ※ 編輯: rabbit66376 來自: 123.194.129.236 (07/04 22:12)

07/05 15:18, , 1F
技術層面而言, rabbit的立論比shamanlin接近真實
07/05 15:18, 1F
文章代碼(AID): #18RXRoVR (Ghost-Shell)
討論串 (同標題文章)
文章代碼(AID): #18RXRoVR (Ghost-Shell)