欧洲精品久久久av无码电影,日日噜噜夜夜爽爽,精品无码国产自产拍在线观看蜜,人妻少妇被粗大爽9797pw,羞国产在线拍揄自揄视频,国产白嫩漂亮美女在线观看,天码欧美日本一道免费,av大片在线无码免费

      歡迎來到同城快修-附近家電維修、家電清洗、家電安裝服務平臺

      24小時家電維修熱線:

      400—1558638

      當前位置:主頁 > 油煙機 > 維修資訊 >

      只需1%參數,效果超越ControlNet,新AI繪畫控制大師來襲

      發布日期:2023-09-23 18:20:54 瀏覽:
      只需1%參數,效果超越ControlNet,新AI繪畫控制大師來襲

      西風 發自 凹非寺

      量子位 | 公眾號 QbitAI

      “新·AI繪畫細節控制大師”ControlNetXS來啦!

      敲重點的是參數只要原始ControlNet的1%。

      就能做到蛋糕口味隨意切換:

      △左圖為改前

      改變一個人的行頭也輕輕松松:

      上圖同款,身形不變藝術氛圍感拉滿:

      自然風光也能hou住,一年四季任意切換:

      還有這貓頭鷹,直接從活物變雕塑:

      參數很小的情況下,能做到這樣的效果,網友也是直呼絕絕子,并迫不及待想看論文。

      ControlNetXS由海德堡大學計算機視覺實驗室研發,目前相關論文、預訓練模型還未公布。

      但研究人員表示ControlNetXSFID分數明顯優于ControlNet。

      且控制Stable DiffusionXL和Stable Diffusion 2.1的代碼將在不久后開源。

      新生代控制大師

      先來康康對StableDiffusionXL的控制。

      研究人員在評估了不同大小的控制模型后發現,控制模型甚至不必和2.6B參數的StableDiffusionXL基礎網絡大小一樣。

      400M、104M和48M參數的ControlNetXS控制也很明顯。

      深度圖給出了更為直觀的展示,根據圖像內容的距離、深度,深度圖呈現出準確的顏色深淺度:

      要注意的是,這里研究人員設置的每行seed值不同,每列seed值相同。

      此外,還有Canny邊緣檢測圖,物體的邊界、輪廓都能清晰地展現出來:

      對StableDiffusion的控制,研究人員則是評估了491M、55M和14M參數的三個版本的ControlNetXS。

      結果表明1.6%的參數(865M)也能夠可靠地控制生成過程。

      那這是如何做到的呢?

      從頭開始訓練

      原始ControlNet是StableDiffusion基礎模型(base model)中UNet編碼器的副本,所以接收與基礎模型相同的輸入,并帶有額外的引導信號,比如說邊緣圖。

      然后,經過訓練的ControlNet的中間輸出被添加到基礎模型的解碼器層的輸入中。在ControlNet的整個訓練過程中,基礎模型的權重保持凍結狀態。

      ControlNetXS的研究者們認為這種方法存在問題,ControlNet不必這么龐大。

      首先是Stable Diffusion最終輸出圖像,是在一系列步驟中迭代生成的。每個步驟會在UNet網絡結構的編碼器(Encoder)和解碼器(Decoder)兩部分中執行。

      每次迭代基礎模型和控制模型的輸入是前一個步驟生成的圖像。控制模型還接收一個控制圖像。

      問題在于,在編碼器階段這兩個模型都獨立運行,而控制模型的反饋只在基礎模型的解碼階段輸入。

      總之,結果就是一個延遲的校正/控制機制。

      也就是說ControlNet必須執行兩項任務:一邊校正/控制,一邊還要提前預測基本模型的編碼器將犯哪些“錯誤”。

      通過暗示圖像生成和控制需要相似的模型容量,自然而然地可以用基礎模型的權重初始化ControlNet的權重,然后進行微調。

      而對于ControlNetXS,研究人員表示從設計上就與基礎模型不同,是從零開始訓練ControlNetXS權重,解決了延遲反饋的問題。

      如上圖所示,方法是從基礎模型的編碼器添加連接到控制編碼器(A),這樣校正過程可以更快地適應基礎模型的生成過程。但這并不能完全消除延遲,因為基礎模型的編碼器仍然沒有受到引導。

      因此,研究人員從ControlNetXS添加額外的連接到基礎模型編碼器,直接影響整個生成過程(B)。

      此外,他們還評估了在ControlNet設置中使用鏡像解碼架構是否有用(C)。

      最終,研究人員在COCO2017驗證集上,針對Canny邊緣引導的三種不同變體(A、B、C)與原始的ControlNet進行了FID分數性能評估。

      結果所有變體都有了顯著提升,同時僅使用了原始ControlNet參數的一小部分。

      研究人員又拿出了變體B,分別使用Canny邊緣圖和深度圖引導,針對StableDiffusion2.1和StableDiffusionXL分別訓練了三種不同大小的模型。

      所以下一步就等相關論文、代碼以及預訓練模型公布啦~

      項目地址:https://vislearn.github.io/ControlNetXS/

      — 完 —

      量子位 QbitAI · 頭條號簽約

      關注我們,第一時間獲知前沿科技動態

      主站蜘蛛池模板: 亚洲狠狠婷婷综合久久久久图片| 亚洲 自拍 色综合图区av网站| 日韩精品在线一区二区| 亚洲熟女少妇一区二区| 久久精品中文无码资源站| 免费中文字幕日韩欧美| 美女尿尿网站| 女人高潮流白浆视频| 久久九九久精品国产综合| 久久黄视频| 午夜精品福利在线| 国产第一页屁屁影院| 亚洲香蕉免费有线视频| 久久免费视频精品| 猫咪av网| 久久婷婷五月综合色中文字幕| 成年女人毛片免费观看97| 国产传媒在线视频| 日本欧美一级| 欧美黑人xxxx高潮猛交| 精品含羞草免费视频观看| 日本三级影院| 国产浪潮av| 国外亚洲成av人片在线观看 | 奇米精品一区二区三区在线观看| 精品久久久久久久久久中文字幕| 狠狠色丁香婷婷第六色孕妇| 精品福利在线| 亚洲最大色网站| 国产精品成人观看视频国产奇米| av蓝导航精品导航| 91精品久久久久久| 9i看片成人免费| 18无码粉嫩小泬无套在线观看| 又色又爽又黄又无遮挡的网站| 日韩av专区| 日皮在线观看| 中国少妇无码专区| 国产精品videos麻豆| 五月天激情婷婷| 成人app在线|