婷婷久久综合九色综合,欧美成色婷婷在线观看视频,偷窥视频一区,欧美日本一道道一区二区

<tt id="bu9ss"></tt>
  • <span id="bu9ss"></span>
  • <pre id="bu9ss"><tt id="bu9ss"></tt></pre>
    <label id="bu9ss"></label>

    當(dāng)前位置:首頁 >  科技 >  IT業(yè)界 >  正文

    智象未來兩項(xiàng)研究入選ICCV 2025,發(fā)布兩項(xiàng)視覺生成突破性成果

     2025-07-18 09:50  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯(cuò)

      阿里云優(yōu)惠券 先領(lǐng)券再下單

    近日,智象未來團(tuán)隊(duì)兩項(xiàng)創(chuàng)新成果入選ICCV 2025,分別聚焦于圖像生成與視頻增強(qiáng)兩個(gè)方向,全面展示了其在生成式AI技術(shù)上的突破與領(lǐng)先。

    在圖像生成方面,智象未來團(tuán)隊(duì)提出了全新去噪掩碼自回歸生成范式De-MAR,解決了自回歸模型在視覺生成中的關(guān)鍵瓶頸。自回歸模型雖在語言領(lǐng)域大獲成功,但在圖像生成中存在細(xì)節(jié)表現(xiàn)力不足、推理速度慢等痛點(diǎn)。De-MAR框架通過雙重令牌優(yōu)化機(jī)制,創(chuàng)新性引入擴(kuò)散頭與去噪頭模塊:擴(kuò)散頭利用交叉注意力捕捉全局上下文,提升掩碼區(qū)域預(yù)測精度;去噪頭動態(tài)優(yōu)化已知區(qū)域令牌,減少誤差累積。實(shí)驗(yàn)顯示,De-MAR在ImageNet和MS-COCO數(shù)據(jù)集上,F(xiàn)ID指標(biāo)達(dá)1.47和5.27的頂尖水平,生成速度較DiT-XL/2快45%,打破高質(zhì)量與高效率不可兼得的困境,生成圖像細(xì)節(jié)更豐富、偽影更少。

    在視頻增強(qiáng)方面,團(tuán)隊(duì)則推出了創(chuàng)新的生成式視頻畫質(zhì)增強(qiáng)框架GenVE,攻克傳統(tǒng)方法細(xì)節(jié)缺失難題。其核心在于雙重對齊機(jī)制:通過圖像擴(kuò)散模型生成語義參考,確保全局布局一致;借助局部感知交叉注意力模塊,精準(zhǔn)遷移參考圖像的紋理細(xì)節(jié)至視頻。同時(shí),多重增強(qiáng)策略提升模型魯棒性:噪聲增強(qiáng)平衡質(zhì)量與保真度,時(shí)間增強(qiáng)強(qiáng)化幀間連貫性,掩碼策略提升特征利用率。在YouHQ40、VideoLQ等數(shù)據(jù)集上,GenVE的MUSIQ、DOVER等指標(biāo)全面領(lǐng)先,能生動還原毛發(fā)、衣物褶皺等細(xì)節(jié),使視頻畫面更自然流暢。

    這兩項(xiàng)成果分別發(fā)表于ICCV 2025 論文《Denoising Token Prediction in Masked Autoregressive Models》和《Aligning Global Semantics and Local Textures in Generative Video Enhancement》,為視覺生成技術(shù)開辟新路徑,推動高質(zhì)量、高效率的多模態(tài)內(nèi)容生成邁向?qū)嵱没?,未來有望在?chuàng)意設(shè)計(jì)、影視制作等領(lǐng)域廣泛應(yīng)用。

    申請創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

    相關(guān)標(biāo)簽
    智象未來

    相關(guān)文章

    熱門排行

    信息推薦