Re: [閒聊] 讓AI判斷野菇能不能吃,結果中毒

看板C_Chat (希洽)作者 (最是清楚哇她咩)時間32分鐘前 (2025/11/22 19:20), 30分鐘前編輯推噓2(203)
留言5則, 3人參與, 2分鐘前最新討論串3/3 (看更多)
※ 引述《jerry00116 (飛羽觴而醉月)》之銘言: : 和歌山市生活保健課提醒:「以 AI 或圖鑑自行判斷非常危險。無法確實判斷是食用菇的蘑菇,請不要採、不要吃、不要販售,也不要送給別人。」 : 推 NicoNeco: 難道AI公司不用負責嗎(震怒 11/22 15:54 : 推 shadowblade: 絕大部分普通民眾(我是很想用另個講法但大概會出事) 11/22 16:35 : → shadowblade: 根本不具備去質疑跟思考一項未知事物的能力 11/22 16:35 : 推 mouscat: 那類人根本不會 也沒有興趣了解AI跟網路搜尋結果的差別 11/22 16:36 : → mouscat: 他們只知道丟input進去 反正有output就能當作正確知識了 11/22 16:36 : 推 intela03252: 他的問題是ai講就信,ai講的正確與否其實不是癥結點 11/22 18:46 : 推 hiphopboy7: 就很多人對ai有誤解 以為ai不會犯錯 11/22 18:51 這個是一個很有意思的問題。 實際上我覺得美國可能之後會出現對應的法規來保護使用者 提供LLM的服務的公司肯定希望大家把這些AI想得超神超好用, 但撇開公司的利己心態,我們來看一下一般社會上人類的行動趨性。 (1) 很多人都同意「但是ChatGPT/Gemini並不是什麼專家,而是聊天機器人」, 所以認定「AI可以給你個不錯的參考,但仍要經過驗證你才能確信敘述的真偽」 這是正論,是我們標準教育理念會得出這個結果。 你去學校問學生,他們應該也會認同這個結論 (2) 但是我們也得承認一個普遍的事實: 「驗證一個敘述的真偽」的學養門檻其實滿高的 絕大部分人除非很有必要, 不然其實比較偏向「訴諸權威」這種委任的方式。 最近的LLM,在回答很多問題上,給予令人滿意的答覆的機率其實很高。 真的給出些低能回答的情況算是比較少的 如果今天採用 (1) 的規則,對於學養較差的大多數人, 等於是為了少數不良結果, 放棄使用一個大多數情況都正確的優良工具。 而且還只能眼睜睜看著自己跟學養較佳的人, 因為LLM的發達而拉大雙方之間的差距 所以絕大部分人的策略會是「盲信LLM所述說的結果」。 至於有人如果要用(1)的論點去挑戰這盲信行為,排擠他就好了 :) 雖然這是不理想的情況,但其實相當普遍 我是覺得這會有法規去管理啦 「放消費者以利己心態的去碰壁」這個在美國相對容易被干涉 -- 令人心跳加速的購物旅程 https://i.imgur.com/zre1bf4.jpg
https://i.imgur.com/imTvMub.jpg
原出處:https://www.pixiv.net/en/artworks/98098481 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 98.45.195.96 (美國) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1763810435.A.B3D.html ※ 編輯: arrenwu (98.45.195.96 美國), 11/22/2025 19:22:07

11/22 19:22, 30分鐘前 , 1F
現在是人調教AI 以後就反過來囉
11/22 19:22, 1F

11/22 19:23, 29分鐘前 , 2F
不對 已經是現在進行式了
11/22 19:23, 2F

11/22 19:29, 23分鐘前 , 3F
"不會GOOGLE嗎?"→"不會問AI嗎?"
11/22 19:29, 3F

11/22 19:50, 2分鐘前 , 4F
再過幾年調教,搞不好AI就能變成權威了
11/22 19:50, 4F

11/22 19:50, 2分鐘前 , 5F
比學習應該沒有人比得上AI
11/22 19:50, 5F
文章代碼(AID): #1f8Po3iz (C_Chat)
文章代碼(AID): #1f8Po3iz (C_Chat)