中文字幕亚洲欧美日韩在线不卡,亚洲欧美日产综合在线网性色,思思久久精品6一本打道,综合视频中文字幕

    <sub id="dxmnt"><ol id="dxmnt"></ol></sub>

      1. 英偉達中國區(qū)Omniverse Lead何展:技術裂變,讓元宇宙變得觸手可及

        更新時間:2022-12-25 18:15:37作者:智慧百科

        英偉達中國區(qū)Omniverse Lead何展:技術裂變,讓元宇宙變得觸手可及

        更多精彩內(nèi)容,請關注《2022網(wǎng)易未來大會》專題報道

        記者:普子胥

        12月19日-23日,2022網(wǎng)易未來大會盛大舉行。2022網(wǎng)易未來大會全新升級為“未來周”,囊括三天的思想之夜和兩天的峰會,包括思想之夜、創(chuàng)新力論壇、元宇宙論壇、內(nèi)容力論壇、智美之夜F·F盛典。

        12月22日下午元宇宙論壇上,英偉達中國區(qū)Omniverse Lead何展發(fā)表了《技術裂變讓元宇宙觸手可及》演講,就近一年來英偉達技術與實踐的突破,以及3D的標準和英偉達在AIGC相關技術儲備進行了分享。

        “這只老虎身上有350萬根毛發(fā),這樣的制作通過算法優(yōu)化之后,可以穩(wěn)定在左上角30fps幀數(shù)上,單塊GPU就可以完成?!焙握贡硎?,經(jīng)過一年的發(fā)展,英偉達實現(xiàn)了Audio2Face的技術更迭,于AIGC生成的內(nèi)容進化上取得了意想不到的進步:“去年我們在AIGC整個市場創(chuàng)造的價值大概80多億美金?!?/p>


        以下為英偉達中國區(qū)Omniverse Lead何展演講實錄:

        大家下午好,和去年一樣也是在年底,在網(wǎng)易未來大會上和大家分享內(nèi)容,非常的開心,心情也特別的不一樣,去年和今天也都不一樣。

        我們幾位演講嘉賓準備資料時都沒有通過氣,但內(nèi)容契合度非常高。我今天的內(nèi)容也是分幾塊和大家分享一下,我們過去一年里,如果看過去年網(wǎng)易元宇宙大會的分享,一年之后英偉達做了哪些事情,和大家匯報一下。第二部分,我會重點提3D的標準和AIGC,AIGC是大家熱聊的話題,我們在這方面儲備了一些技術也和大家分享一下。

        這是我們年初我剛剛發(fā)布的路徑追蹤算法視頻。這段視頻展示了一只老虎在熱帶雨林里行走的鏡頭,大概幾十秒,大家看到每一幀畫面全部都是數(shù)字化完成的。這里一共有31億個三角面,在這個過程中進行渲染。過程中,我們做了30億次光線追蹤、反射、折射。這只老虎身上有350萬根毛發(fā),這樣的制作通過算法優(yōu)化之后,可以穩(wěn)定在左上角30fps幀數(shù)上,單塊GPU就可以完成。背后是來自于我們對于算法優(yōu)化的迭代,這是我們過去一年做的事情。

        去年,我也和大家分享過我們AIGC的工具Audio2Face,也是在Omniverse平臺上。今天我?guī)硪粋€升級版,以前的Audio2Face顧名思義,我們和網(wǎng)易這方面合作也很多,今天分享一個Audio2Emotion,語音輸入,驅動面部表情?,F(xiàn)在可以看到AI進化到什么程度,大家看看這個視頻。這是數(shù)字人,仍然是輸入一段臺詞,已經(jīng)識別到這個臺詞是看不到東西的一張臉,同時眼睛的情緒,所有情緒都通過這個算法完成。還有一些很搞笑的對話,這一類數(shù)據(jù)在去年的時間里和大家分享的時候,我是沒有想象到,對于技術的探索在過去一些年里我們的AIGC生成的內(nèi)容進化是非??斓摹?/p>

        今天主要和大家分享兩塊我們的一些想法和思路,一個是對于3D標準的探索。大家都知道不管是創(chuàng)建數(shù)字世界也好,還是做Metaverse世界也好,我們離不開大家一起共建,這里需要一些標準。比如今天我提到采用開源的全球標準USD,另外是分享一下我們在AIGC的探索。

        首先看一下USD,通用場景描述。我們展示這樣一個例子,如果大家想要創(chuàng)建類似這張圖片的城市,大家都聽說過BIM或者CIM這樣的概念,做這樣的項目時我們的設計師會用很多工具,非常知名偉大產(chǎn)品都在這上面,但它又隸屬于不同公司,它的3D標準不一樣。

        我們看到一些問題,如果我們的標準沒有統(tǒng)一,相對于每個人之間語言是不同的,隔了一堵墻?,F(xiàn)在想要解決這個事情,就需要把每個設計環(huán)節(jié)打通,形成一個閉環(huán)??梢钥吹綇母拍畹脑O計到計算,到仿真,到最后經(jīng)驗積累要形成一個閉環(huán)。閉環(huán)形成前提就需要一個標準,所以USD和OMNIVERSE作為結合就可以解決這件事情,不管用什么樣不同的軟件,都可以通過這樣的標準交互同一個項目,通過OMNIVERSE強大的計算平臺,這是我們想實現(xiàn)的。

        最終達到的目的,我們通過USD技術連接不同地方、不同時區(qū)、不同職能部門的設計師,工程師,藝術家們,大家可以共建這個項目。這是我們今天分享的第一個,需要一個標準。同樣的標準不單單是描述標準,還有交互、傳遞,像3D的GLTF,更多投資在這方面的研發(fā)中,不久的將來我們會在工業(yè)界推出一些新的內(nèi)容,旨在打通孤島。

        這是我們和用戶合作的,創(chuàng)建了火星表面的項目,不同工具有非常知名的軟件,在不同的軟件界面下實時操作一些系統(tǒng),可以看到在概念設計的細節(jié),在添加材質(zhì)的過程中可以看到右側實時渲染效果,這就是USD帶來的顛覆性變革,希望未來大家會更多使用它。

        第二部分和大家同步的是在AIGC上一些探索,給大家展示一下我們在過去一年里全球發(fā)布的工具。

        這是我摘取的一些內(nèi)容,去年我們在AIGC整個市場創(chuàng)造的價值大概80多億美金,我們看到成長的倍速是非??斓模?028年達到630億美金。同樣我們在亞太區(qū)也一樣,年復合增長率在35%以上,這些數(shù)據(jù)已經(jīng)告訴大家實際上是未來非常大的市場。它能帶來什么:首先它可以創(chuàng)造新的產(chǎn)品和服務、改變新的營銷模式、最終還會幫助我們企業(yè)決策者提供參考的依據(jù),這個工作非常有意義。

        這個工具叫Get3D,這個過程完全是通過輸入照片,圖片,就可以生成這些3D的模型,這樣的算法叫Get3D,這是幾個月之前我們研究院發(fā)布的,相信給美術、藝術師、設計團隊提供很好的工具。二是Magic3D,它是用文本生成3D模型的。過去圈內(nèi)公司也都做了很多工作,Magic3D可以達到通過一段文字,實時生成,可以看一下它的內(nèi)容。這里也做了很多優(yōu)化,比如輸入一段文字怎么生成3D模型。雖然現(xiàn)在還不夠快,我們再過一兩年,它的進展速度是值得讓大家期待的。大家可以看到一個月前,我們發(fā)布的3D match模型都是有顛覆性和變革性的,通過一些文字生成的3D模型。

        Stable-Diffusion,我們已經(jīng)做入Omniverse里,大家看到右側的圖可以通過輸入一段文字,生成一些你想要的圖片,同時導入到Omniverse中,得到完全逼真可視化的作品。

        這里給大家展示一下藝術家通過這個功能能做到什么,或者能改變什么。這里就是界面,如果你想要設計室內(nèi)裝修效果圖,我們輸入一段文字,大家可以在里面通過深度學習方式檢索到對應文字的所有數(shù)字資產(chǎn)。我們在右側可以布置好所有一系列的,像花瓶,你怎么樣布置,我們展示實時的通過AI工具來布置空間的視頻。

        最后,展示一下這段視頻,也是我覺得很震撼:今年幾個月前有一條新聞,科學家在研究月球形成的過程,大家看這段視頻。這段視頻通過計算機圖形學的方式,展示了當時月球形成的過程。大家看這里數(shù)據(jù)量之大,你不可想象的。它的過程是這樣的,當年有一個很大的碰撞,到了地球。碰撞之后,碰撞的物體裂成了兩塊,一塊變成很大的一塊,因為地球引力吸進去了。另外一小塊被甩出來了,那一小塊就是月球,所以我們整個用這種方式來做了一下整個過程的展示,非常震撼的。

        我覺得一個宏觀角度是在天文學角度,很多未解之秘沒有探索,這個有4000塊GPU復現(xiàn)了這個過程。用這個例子告訴大家,我們很多技術演變顛覆還遠沒有到達我們想象的結果。

        契合我們的主題,技術裂變讓我們很多事情變得觸手可及,同樣需要在這個過程不斷修煉我們自己的產(chǎn)品也好,我們自己也好,包括疫情之下大家保持健康,我們怎么樣在接下來時間里發(fā)揮企業(yè)自己個人的勤奮和努力。非常榮幸,而且非常感恩我們生活在這個時代,大家可以在這個時間里充分的貢獻自己的力量。

        這是我今天的分享,謝謝大家!

        本文標簽: 英偉達  算法  omniverse