這大概是AI議題中,寫的第三篇專欄了,比較偏中立觀點。
大部分人都聚焦在,一堆人用AI生成的都不乾淨,訓練也不乾淨。
這篇講的也是,之前在群裡面討論的觀點,整理一下拿出來PO。
。點->很多人其實希望AI最後能變成個人化繪師工具,訓練AI畫畫。
像是SOP,自己丟骨架下去,讓AI用自己風格去呈現出來,最後自己在細修。
但,現在就是這樣阿,只是說--AI是個工具。
合法的人會走合法路線,
會出事的人 就會拿工具亂搞。
既然問題的來源是訓練庫不乾淨,那只好從頭到尾都自己弄乾淨了?
這篇只是簡單講一下怎麼弄合法路線。
程式技術面的就不講了,其他文章一堆,本篇只講圖片取材方式。
簡單來說只有分兩區:風格+物件
。風格的問題
1.從頭到尾自己畫
2.花一堆錢跟繪師買版權
3.員工畫
。畫面物件的豐富量問題
1.自己去拍不同角度的照片,做好TAG標記。
比方說你想要一個樹,那就自己拿相機去拍,去森林拍一堆樹,給AI分析。
2.花錢買網路圖庫,有錢才有比較好的品質,好處在於人家都幫你分類好了。
不過授權條款記得看?
像是->
國外網站:https://www.textures.com/
國外網站:https://www.textures.com/
博客來有一堆素材書籍,裡面會有素材光碟,阿,光碟裡面的東西就可以給你重製再利用。
順便支持出版社,多買書。
adobe也有個自己的圖庫。
3.CC0網站
cc0免費的不用,要用甚麼?
pixabay、pxhere、stocksnap......一大堆。
4.各國國家庫藏、典藏網站其實有發放一些,免費供大眾隨便用的圖庫資源。
像是故宮open date->https://theme.npm.edu.tw/opendata/digitimagesets.aspx
雖然應該沒人會無聊的拿故宮的來訓練,標記好之後。
以後自己的圖,隨機生成不時的跑出中國歷史文物來?路邊的石頭生成文物。
假設你有你自己的風格,就可以讓AI嘗試去生成出一堆你沒畫過的物件或背景。
我舉個例子,你拿了一堆cc0海灘照片去訓練hyper network、lora,
並且標記[Beach],訓練的差不多之後。
只要用你自己的風格參數比重調高,在載入訓練好的乾淨資源包,
就可以看著AI用你自己繪師的風格,生成出你過去從來沒有畫過的場景。
比方說,
你想要一個人,坐在咖啡店喝咖啡,
但你沒有咖啡店的背景訓練包,很簡單去pixabay找一堆咖啡店背景來訓練,不就好了。
你想要用弄中世紀石頭、木頭牆壁,搞奇幻異世界建築背景,去textures.com買一下會員,載一載牆壁、房屋素材來跑一下訓練也可以。
構圖跟透視這兩點,就算不用AI生成,
一堆繪圖軟體本身就有拉透視線的效果了,
人用滑鼠在對應的透視深度放上的圖片物件放大縮小變形,跟。
AI演算法生成在對應的透視深度放上訓練好的隨機物件,就這樣而已。
所以也不用特別去訓練這兩個,出來的透視跟構圖都軟體隨機參數出的。
但實際是計算機生成圖學,是不是這樣搞我不知道,我沒涉獵這邊。
本篇就這樣,簡單結束。
因為真的沒什好說的。
每個人都有高畫質手機,會拍照,隨時隨地都可以用手機取材。