Re: [閒聊] 各位覺得AI是否無法自創畫風?

看板C_Chat (希洽)作者 (charlesgg)時間1天前 (2025/04/02 14:37), 23小時前編輯推噓16(20422)
留言46則, 23人參與, 6小時前最新討論串4/5 (看更多)
※ 引述 《yniori》 之銘言: : 如題 : : 現在AI吉卜力畫風風靡全球 : : 各種橋段都有可能變成吉卜力風格 : : 不過畫風這種東西 : : 就是被人創作出來的 : : 現在也有看過皮克斯畫風 : : 哪天說不定又跑出鳥山明畫風 : 阿肥自己是機器學習領域的專業從業研究員。 其實人類繪師學習的過程不也是先從大量的畫作跟圖像開始?這世界上應該還沒有人類能夠 天生五感全盲就領悟出驚世繪作的人類吧~AI當前的學習其實就等同於人類繪師在成為專業 前閱讀模仿大量繪畫的過程,只是差別在於我們看不見人類繪師模仿學習的過程但AI可以看 到罷了。 然後很多人以為的創作這件事情其實就是大量模仿解構再加上人類創作者對於生活經驗(與 世界互動)跟作品閱讀的經歷才做出創造的,這個是目前很多研究人員正在努力的讓AI能理 解世界跟世界互動,更近一步的主動學習也是今年比較熱的主題,像今年有幾篇IEEE的Onli ne RLHF就是在談這個還有Anthropic最新的報告也發現到其實當前的大模型已經具備一定的 世界感知能力(只是還沒到人類水準而且需要更多的研究)。Embodies AI(中國翻譯叫具 身)也是今年熱門研究主題(如果當前的AI具備身體且可以搜集環境圖像用於二次訓練優化 ,這樣我給他買票帶他進電影院看大量的電影動畫還算嫖竊資料嗎?)。 目前人類大腦我覺得優點是在於低能耗生物腦的能耗還是非常優秀的,但AI真正可怕的是在 於分散式學習這個在當前人類是完全不具備的(等同於鳴人用多重影分身無限鍛鍊再一次搜 集所有分身的經驗),這也是Hinton一直疾呼AI的危險性的部分。 然後比較後話的部分就是腦科學比較新的進展也發現到人類大腦其實存在表徵空間會去定位 各種物體跟詞彙的相對位置,跟當前大模型有異曲同工之妙。我覺得AI的出現間接證明人類 心智獨一這套理論未來也可以丟進垃圾桶了吧。 差不多四將 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.105.9 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1743575855.A.F34.html

04/02 14:39, 1天前 , 1F
請問專業從業研究員 今年nvda還會上150嗎
04/02 14:39, 1F

04/02 14:42, 1天前 , 2F
抓起來做腦晶片啦
04/02 14:42, 2F

04/02 14:48, 1天前 , 3F
大師大師 我還要多久才能當電池整天躺著不用工作?
04/02 14:48, 3F

04/02 14:49, 1天前 , 4F
除了多重影分身還能待精神時光屋
04/02 14:49, 4F

04/02 14:50, 1天前 , 5F
未來人類連腦子都沒價值了qq
04/02 14:50, 5F

04/02 14:51, 1天前 , 6F
那一點可悲的生物電連自己的維生倉都供不起
04/02 14:51, 6F

04/02 14:52, 1天前 , 7F
未來可以去當算勞嗎
04/02 14:52, 7F

04/02 14:53, 1天前 , 8F
Anthropic那兩篇很有趣 在語言上人類開發的這些LLM
04/02 14:53, 8F

04/02 14:54, 1天前 , 9F
跟人類處理語言很像 但是數學就完全不同
04/02 14:54, 9F

04/02 14:55, 1天前 , 10F
連說謊跟幻象都87%像
04/02 14:55, 10F

04/02 14:58, 1天前 , 11F
金屬內訊號傳遞比腦神經快,我擔心的是這個...
04/02 14:58, 11F

04/02 14:59, 1天前 , 12F
現在有矽光子晶片喔 (?
04/02 14:59, 12F

04/02 15:03, 1天前 , 13F
跟我想的差不多
04/02 15:03, 13F

04/02 15:05, 1天前 , 14F
從業員幫我算算nvda還有機會翻倍嗎?
04/02 15:05, 14F

04/02 15:15, 1天前 , 15F
所以AGI還要幾年才誕生
04/02 15:15, 15F

04/02 15:20, 1天前 , 16F
人類該慶幸目前的耗能比AI便宜
04/02 15:20, 16F

04/02 15:21, 1天前 , 17F
現在有意見的基本都是畫太像太快
04/02 15:21, 17F

04/02 15:23, 1天前 , 18F
最近聽說 人腦其實有意識的部分處理量不高
04/02 15:23, 18F

04/02 15:23, 1天前 , 19F
腦機接口一個問題就是有意識部分處理不了
04/02 15:23, 19F

04/02 15:24, 1天前 , 20F
而人腦厲害的部分是無意識處理的部分
04/02 15:24, 20F

04/02 15:25, 1天前 , 21F
無意識大概就長期反射形成的自動處理
04/02 15:25, 21F

04/02 15:37, 1天前 , 22F
人類連大腦的運作都搞不清楚就在那邊講AI像人腦==
04/02 15:37, 22F

04/02 15:45, 1天前 , 23F
請問量子電腦有機會改善AI能耗比嗎?
04/02 15:45, 23F

04/02 15:47, 1天前 , 24F
AI做不到當初梵谷和超現實主義 橫空出世的原創
04/02 15:47, 24F

04/02 15:49, 1天前 , 25F
多數人也做不到 ai就不是要來取代天才的
04/02 15:49, 25F

04/02 15:50, 1天前 , 26F
機械學習的專業研究員=>不就是不會畫畫的AI仔嗎?
04/02 15:50, 26F

04/02 15:50, 1天前 , 27F
藝術的聖杯是終極的原創性 是作品被發現時讓觀賞者感嘆
04/02 15:50, 27F

04/02 15:50, 1天前 , 28F
“對齁 還有這種表現手法 “ 這種原創AI的訓練是永遠
04/02 15:50, 28F

04/02 15:50, 1天前 , 29F
推演不出的無中生有
04/02 15:50, 29F

04/02 15:53, 1天前 , 30F
套用在動漫或影視 AI最難的是做不出有創意的運鏡和轉場
04/02 15:53, 30F

04/02 15:53, 1天前 , 31F
或有創新的跳剪 舉例來說就是新世紀或是86
04/02 15:53, 31F
那是當前的AI不具備有身體跟自身經驗,如果有身體可以經歷生命經驗跟環境互動的Embodi es AI,你覺得原創性是很困難的嗎?我就說了人類如果天生喪失五感會有藝術體悟嗎?

04/02 15:56, 1天前 , 32F
不用講那麼多,AI仔也覺得多請幾隻猴子就能敲出莎士比亞
04/02 15:56, 32F
※ 編輯: sxy67230 (49.216.105.9 臺灣), 04/02/2025 16:03:29 ※ 編輯: sxy67230 (49.216.105.9 臺灣), 04/02/2025 16:04:21

04/02 16:11, 23小時前 , 33F
又是這種人類學習跟AI學習等價的說法,AI在怎麼厲害那
04/02 16:11, 33F

04/02 16:11, 23小時前 , 34F
也是AI的事,跟使用AI產圖的人無關,你不過就是委託AI
04/02 16:11, 34F

04/02 16:11, 23小時前 , 35F
產圖而已
04/02 16:11, 35F

04/02 16:15, 23小時前 , 36F
原創性你只要有人買單就是有,故事包裝的好一點讓
04/02 16:15, 36F

04/02 16:15, 23小時前 , 37F
人覺得有價值。
04/02 16:15, 37F

04/02 16:17, 23小時前 , 38F
從抽象畫到從牆上的要定期換的藝術香蕉到AI幻覺 看
04/02 16:17, 38F

04/02 16:17, 23小時前 , 39F
你怎麼包跟說服別人。
04/02 16:17, 39F

04/02 16:18, 23小時前 , 40F
目前雜訊生成的方式只能生出跟訓練資料相似的東西,
04/02 16:18, 40F

04/02 16:18, 23小時前 , 41F
無法無中生有
04/02 16:18, 41F

04/02 16:21, 23小時前 , 42F
AI畫手指畫成一朵花、畫拉麵用手抓,說明AI生圖跟人
04/02 16:21, 42F

04/02 16:21, 23小時前 , 43F
類畫圖的邏輯根本上不同,除非AGI能結合邏輯思考生
04/02 16:21, 43F

04/02 16:21, 23小時前 , 44F
圖,不然目前的AI仍然只是精巧的模仿而已
04/02 16:21, 44F

04/02 21:07, 18小時前 , 45F
人類怎麼無中生有 嬰兒能畫出什麼東西出來
04/02 21:07, 45F

04/03 09:09, 6小時前 , 46F
噓的人只能用在2027以前的臺灣情況。
04/03 09:09, 46F
文章代碼(AID): #1dxDilyq (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1dxDilyq (C_Chat)