最近發現了一個超酷的AI技術,叫做stable diffusion AI。它可以直接計算出超美的照片,而且完全不需要攝影師!
不得不說,現在的AI技術真的是越來越強大了,甚至可能會取代攝影師呢!
畢竟,AI可以透過數據學習和自我修正,逐漸進化出更精準、更出色的技術,讓我們能夠輕鬆地拍出美美的照片。
當然啦,攝影師的經驗和專業仍然非常重要,但是隨著AI技術的不斷進步,我們也許可以期待更多的嶄新可能性和更加創意的攝影作品呢!
總之,如果你想要試試這個神奇的stable diffusion AI,千萬不要錯過啊!我相信你一定會愛上它的!
以上的文章是由 GhatGPT生成
接下來就是正題 AI繪圖 :stable diffusion
對於一個程式等級只在大學一個學分的我來說,要看懂這些也是滿困難
但是...照抄,就很容易
大概需要幾個工具
1. 安裝 Git
2. 安裝Python
3. 安裝stable diffusion webUI
(安裝的方式網路上很多就不多說
Win環境下在命令提示字元中開啟 webui-user.bat (也可以在資料夾中開啟執行
開啟後就會給你一個連結,就可以進到網頁模式下執行
但是命令提示字元的視窗不能關掉,它其實是借助網頁操作而已
之後就是找到你想使用的模型,並且安裝在stable diffusion中
我的製作目標就是仿真實AI照片,還有很多種模型,像是動畫、藝術風格等繪畫類
我這邊使用的是 chilloutmix_NiPrunedFp32Fix + Korean Doll Likeness
有些已經死檔了,如果有需要我再來上傳
接下來就是最重要的 詠唱咒語
打下要生成的參數
Promet (想要生成的)
例如:<lora:koreanDollLikeness_v15:0.65>, best quality, 8K, ultra high res, (photorealistic:1.4), facing camera, 1 girl, smile, solo face, ((full body), (brown hair)), real light, in Taiwan, white chiffon skirt, chiffon blouse,
Nagtive Promet(不想生成的)
例如:painting, sketches, (wrorst quality:2), lowers, (low quality:2), low res,
下面還有很多細參數可以調整
解析度越大,越吃GPU,我的設備是RTX 3060 12G
跑Sampling 30 1024X800 一張圖大概要56秒左右
每次生成後就會有一個SEED,如果使用同一個種子+同樣的參數,就會生成同樣的圖片
所以只要保留SEED,並改變參數,就可以調整其中的細節
這篇不是要教大家怎麼使用
而是講講這個未來
1. 僅靠外表MD不再需要了:以後虛擬MD要多少有多少,可以留下來的只有有流量的MD (同時虛擬MD也會開始集粉,背後只要是行銷公司即可)
2. 商業攝影產生危機:只要整合AI技術,人+商品的照片可以快速產出 (整合圖片導入、動作模擬)
3. 再更未來VR AR MR 逐漸成熟、3D虛擬渲染速度跟上;虛擬仿真互動MD就可以真實上演了
火箭已經起飛幾個月,我要來開始學詠唱了
留言列表