🎉 攢成長值,抽華爲Mate三折疊!廣場第 1️⃣ 2️⃣ 期夏季成長值抽獎大狂歡開啓!
總獎池超 $10,000+,華爲Mate三折疊手機、F1紅牛賽車模型、Gate限量週邊、熱門代幣等你來抽!
立即抽獎 👉 https://www.gate.com/activities/pointprize?now_period=12
如何快速賺成長值?
1️⃣ 進入【廣場】,點擊頭像旁標識進入【社區中心】
2️⃣ 完成發帖、評論、點讚、發言等日常任務,成長值拿不停
100%有獎,抽到賺到,大獎等你抱走,趕緊試試手氣!
截止於 8月9日 24:00 (UTC+8)
詳情: https://www.gate.com/announcements/article/46384
#成长值抽奖12期开启#
文本、圖像、音頻和視頻......隨意組合,微軟的跨模態模型CoDi 究竟有多強大
微軟Azure 研究團隊與北卡羅萊納大學研究人員發布了一篇論文《通過可組合擴散實現任意生成》,介紹了一種新的多模態生成模型——CoDi(Composable Diffusion)。
CoDi 能夠從輸入模態的任意組合生成輸出模態的任意組合,例如語言、圖像、視頻或音頻。與現有的生成式人工智能係統不同,CoDi 可以並行生成多種模態,並且其輸入不限於文本或圖像等模態子集。 CoDi 可以自由地調節任何輸入組合併生成任何模態組,即使它們不存在於訓練數據中。
CoDi 通過同時處理和生成文本、圖像、音頻和視頻等多模式內容,引入了前所未有的內容生成水平。使用擴散模型和可組合技術,CoDi 可以從單個或多個輸入生成高質量、多樣化的輸出,從而改變內容創建、可訪問性和個性化學習。
CoDi具有高度可定制性和靈活性,可實現強大的聯合模態生成質量,並且優於或與單模態合成的最先進的單模態相媲美。
近日,CoDi 有了新進展,已經正式在微軟Azure 平台可用,目前可以免費使用12 個月。
CoDi 究竟有多麼強大
CoDi的出現是微軟雄心勃勃的i-Code 項目的一部分,該項目是一項致力於推進多模態AI 能力的研究計劃。 CoDi 能夠無縫整合各種來源的信息並生成一致的輸出,有望徹底改變人機交互的多個領域。
CoDi可以帶來變革的領域之一是輔助技術,使殘疾人能夠更有效地與計算機交互。通過跨文本、圖像、視頻和音頻無縫生成內容,CoDi 可以為用戶提供更加身臨其境且易於訪問的計算體驗。
此外,CoDi有潛力通過提供全面的交互式學習環境來重塑定制學習工具。學生可以參與無縫集成各種來源信息的多模式內容,增強他們對主題的理解和參與。
CoDi也將徹底改變內容生成。該模型能夠跨多種模式生成高質量的輸出,可以簡化內容創建過程並減輕創作者的負擔。無論是生成引人入勝的社交媒體帖子、製作交互式多媒體演示,還是創建引人入勝的講故事體驗,CoDi 的功能都有可能重塑內容生成格局。
為了解決傳統單模態AI 模型的局限性,CoDi 為組合特定模態生成模型的繁瑣且緩慢的過程提供了解決方案。
這種新穎的模型採用了獨特的可組合生成策略,可以橋接擴散過程中的對齊,並促進交織模態的同步生成,例如時間對齊的視頻和音頻。
CoDi的模型訓練流程也頗具特色。它涉及將圖像、視頻、音頻和語言等輸入模式投影到公共語義空間中。這允許靈活處理多模態輸入,並且通過交叉注意模塊和環境編碼器,它能夠同時生成輸出模態的任意組合。
丨單個或多個輸入——>多個輸出
CoDi模型可以採用單個或多個提示(包括視頻、圖像、文本或音頻)來生成多個對齊的輸出,例如帶有伴音的視頻。
例如:
1.文本+圖像+音頻——>音頻+視頻
“滑板上的泰迪熊,4k,高分辨率”+紐約時代廣場的圖片+一段下雨的音頻——>經過CoDi 生成之後,得到一段“一隻泰迪熊在雨中在時代廣場玩滑板,伴隨著同步的雨聲和街道噪音。”
2 文本+音頻+圖像——>文本+圖像
丨多個輸入——>單個輸出
1. 文本+音頻——圖像
丨單輸入——單輸出
1 文本——>圖像