女人久久久,最近更新中文字幕在线,成人国内精品久久久久影院vr,中文字幕亚洲综合久久综合,久久精品秘?一区二区三区美小说

原創(chuàng)生活

國內(nèi) 商業(yè) 滾動

基金 金融 股票

期貨金融

科技 行業(yè) 房產(chǎn)

銀行 公司 消費

生活滾動

保險 海外 觀察

財經(jīng) 生活 期貨

當前位置:滾動 >

快資訊丨GAN卷土重來:10億參數(shù)的GigaGAN效果堪比擴散模型

文章來源:程序員客?!? 發(fā)布時間: 2023-05-17 16:48:56  責任編輯:cfenews.com
+|-


(資料圖片僅供參考)

點藍色字關注“機器學習算法工程師”

設為星標,干貨直達!

自從 DALL·E 2 之后,在圖像生成方面擴散模型替代GAN成了主流方向,比如開源的文生圖模型stable diffusion也是基于diffusion架構的。近日, Adobe研究者在論文Scaling up GANs for Text-to-Image Synthesis提出了參數(shù)量為10億(1B)的GAN模型:GigaGAN,其在文生圖效果上接近擴散模型效果,而且推理速度更快,生成512x512大小圖像只需要0.13s,生成16M像素圖像只需要 3.66s。同時GigaGAN也支持latent空間的編輯功能,比如latent插值,風格混合,以及向量運算等。

GigaGAN改進了StyleGAN架構,采用兩階段訓練策略:一個是64x64的圖像生成器和一個512x512的圖像超分2器,其圖像生成器架構如下所示(這里也是采用CLIP text encoder來引入text condition):GigaGAN在 LAION2B-en和 COYO-700M數(shù)據(jù)集上訓練,其在COCO數(shù)據(jù)集上的FID達到9.09,超過stable diffusion 1.5,推理速度比stable diffusion快20倍多(2.9s vs 0.13s):GigaGAN除了文生圖能力,還可以實現(xiàn)可控的合成,比如風格混合,如下圖所示:更多效果圖和技術細節(jié)見論文https://arxiv.org/abs/2303.05511和網(wǎng)站https://mingukkang.github.io/GigaGAN/

關鍵詞:

專題首頁|財金網(wǎng)首頁

投資
探索

精彩
互動

獨家
觀察

京ICP備2021034106號-38   營業(yè)執(zhí)照公示信息  聯(lián)系我們:55 16 53 8 @qq.com 關于我們 財金網(wǎng)  版權所有  cfenews.com