国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

我,開發者,在元宇宙里有一行自己的代碼!

新智元
+ 關注
2022-12-12 14:52
914次閱讀
我,開發者,在元宇宙里有一行自己的代碼!

  新智元報道  

編輯:好困
【新智元導讀】隨著元宇宙熱潮興起,擴展現實領域也蓬勃發展。但對研究者而言,想要上手研究擴展現實領域,還需要耗費不少時間、精力去解決繁瑣的環境配置、不同代碼庫的底層規范以及代碼庫之間串接的問題。
當前,無論學 術界還是工業界,擴展現實領域有非常豐富的算法研究方向,并有許多算法得到好評。
然而由于這一領域中,還沒有像計算機視覺領域一樣建立完整的開源算法生態,且當前的每個算法庫相對獨立,同時也缺乏統一的底層基座。

我,開發者,在元宇宙里有一行自己的代碼!

圖源:Arplanet

從0到1

為更好地解決上述問題,推動擴展現實領域算法更高效地研發、迭代和集成,上海人工智能實驗室聯合浙江大學、商湯科技共同于2022年9月1日在世界人工智能大會上,正式發布了OpenXRLab擴展現實開源平臺。

OpenXRLab平臺定位為一站式解決擴展現實領域算法需求的開源平臺,目標和愿景是實現 讓擴展現實觸手可及 。
目前平臺擁有三大優勢:
第一,通過1個基礎庫提供統一的底層,同時支持C++和Python調用;
第二,提供了較為全面的算法覆蓋,首次開源包含了3個應用平臺共6大算法工具箱;
第三,代碼庫進行了模塊化設計,易于單獨使用,也方便串接起來聯合使用。

我,開發者,在元宇宙里有一行自己的代碼!

平臺官網:https://openxrlab.org.cn/

1+3平臺架構

OpenXRlab開源平臺可以進一步拆分為以下四個子平臺,即1個基礎平臺和3個應用算法平臺。

其中,XR基礎平臺為上層提供統一的接口,高效的計算,和便于部署的工具鏈。
而上層的3個應用算法平臺專注不同的領域,又相互連接:
  • XR空間計算平臺使得我們對世界感知從平面更加走向空間;
  • XR多模態人機交互平臺可以成為我們和機器交互的工具;
  • XR渲染生成平臺使我們從感知和交互走向創作。

我,開發者,在元宇宙里有一行自己的代碼!
從整體上看,XR領域的底層有各式各樣的傳感器和不同的操作系統,上層有豐富的應用比如AR/VR、數字孿生、數字人等等,OpenXRLab致力于在底層的硬件和上層的操作系統間架起一座橋梁,供研究員方便迭代新的算法,供開發者快速搭建應用原型。
為此,團隊對外開源了1個基礎庫和6個代碼庫,其中空間計算3個(XRSLAM, XRSfM, SRLocalization),人機交互2個(XRMoCap, XRMoGen),渲染生成1個(XRNeRF)。
并且空間計算的3個代碼庫還可以串接起來,是首個可以實現基于端云協同的大尺度移動實時6DoF定位和AR效果的開源平臺。
下面,我們就來更具體地看一下每個代碼庫的定位和特點。

7個代碼庫

XRPrimer

我,開發者,在元宇宙里有一行自己的代碼!

項目地址:https://github.com/openxrlab/xrprimer

XRPrimer是為XR算法提供統一的數據結構和數據處理接口的庫。XRPrimer的取名是為了致敬計算機同學們耳熟能詳的經典基礎書籍《C++ Primer》。

作為基礎庫,它外層提供統一的數據結構和算法接口,同時支持C/C++和 Python 的調用,內部提供通用的算法和高效的計算,提供擴展,方便外部貢獻。

同時,底層的庫安裝是否方便決定了用戶的上手難易度,團隊也謹慎選擇了XRPrimer的第三方依賴,支持不同平臺源碼編譯,也搭建了配套基礎設置提供部分平臺預編譯庫,使得安裝更加簡單。

XRSLAM

我,開發者,在元宇宙里有一行自己的代碼!

項目地址:https://github.com/openxrlab/xrslam

XRSLAM是一個基于多傳感器融合的SLAM開源項目,是OpenXRLab空間計算平臺的核心技術模塊之一。

XRSLAM目前提供了一個基于優化的魯棒實時的輕量級視覺慣性里程計,同時支持桌面平臺和移動平臺。

和其他SOTA系統相比,XRSLAM在精度和效率方面都具備很強的競爭力,且非常容易上手使用。為AR領域的基礎設施,團隊提供了在iPhone端可實時交互的移動端應用。

基于XRSfM預先構建好的三維幾何地圖,XRSLAM可以結合XRLocalization實現云-端結合的實時AR定位導航效果。

未來XRSLAM還會持續迭代更新,將會加上全局地圖和后端優化形成一個完整的視覺慣性SLAM系統,并且考慮支持雙/多目相機和RGB-D相機等更多類型的傳感器。

XRSfM

我,開發者,在元宇宙里有一行自己的代碼!

項目地址:https://github.com/openxrlab/xrsfm

XRSfM是一個開源的Structure-from-Motion(運動恢復結構)的代碼倉庫,屬于OpenXRLab空間計算平臺。

XRSfM能夠從影像數據中恢復場景的稀疏點云結構和圖像的相機位姿,重建結果可以支持后續的場景定位和稠密重建。

XRSfM實現了基于共視的高效匹配方法[1]和基于關鍵幀的高效集束調整,相較于其他開源SOTA系統,其重建速度具有數量級優勢,并且提供了基于人工標志物的尺度估計功能,能夠恢復出場景的真實尺度。

XRLocalization

我,開發者,在元宇宙里有一行自己的代碼!

項目地址:https://github.com/openxrlab/xrlocalization

XRLocalization是一個基于高精地圖的視覺定位工具箱,屬于OpenXRLab空間計算平臺。

XRLocalization采用模塊化的設計,并提供了一套層次化視覺定位算法,使其能夠在大尺度場景下實現高效、精準且魯棒的定位。

該框架支持使用不同的特征檢測、特征匹配和圖像檢索方法,以及離線和在線兩種定位模式。

其中,局部特征目前支持SuperPoint[2]和D2Net[3], 圖像檢索目前支持NetVLAD[4],特征匹配目前支持最近鄰搜索和GAM[5, 6]算法。

該項目將提供更多的基礎模塊算法以及更多的視覺定位pipeline,為學術研究和工業應用提供靈活的代碼工具。

XRMoCap

我,開發者,在元宇宙里有一行自己的代碼!

項目地址:https://github.com/openxrlab/xrmocap

XRMoCap是一個多視角的動作捕捉工具箱,屬于OpenXRLab多模態人機交互平臺。

XRMoCap目前有3大特點:

第一,它同時支持了單人和多人的多目動作捕捉,可以支持大于2個視角的任意數量的標定后相機作為輸入,并且提供了一系列高效選擇相機和關鍵點的策略,其中單人工具箱由HuMMan[7]原作者添加。

第二,它同時支持輸出3D關鍵點和人體參數化模型,3D關鍵點和人體參數化模型是當前人體的2種主流表示形式,也提供了它們互相轉換和優化的算法。

第三,它將基于優化和基于學習的算法融入在統一的框架中,支持了MvPose[8], MvPose Tracking[9], MvP[10], 4D Association[11]等多個經典算法。用戶可以通過修改配置文件,快速構建和測試一個多視角動作捕捉的算法原型。

XRMoGen

我,開發者,在元宇宙里有一行自己的代碼!

項目地址:https://github.com/openxrlab/xrmogen

XRMoGen是一個多模態人體動作生成的工具箱,屬于OpenXRLab多模態人機交互平臺。目前,該框架以音樂生成舞蹈為切入點,構建人體動作生成代碼庫。

XRMoGen的亮點有3個:

第一個是代碼結構清晰,易讀性高,提供了較為詳細的使用文檔。

第二個是框架容易上手。由于動作生成代碼庫相對比較繁雜,XRMoGen試圖將不同算法的代碼風格統一到一個框架下,實現對算法的抽象,達到用戶易上手易擴展的目的。

第三個是復現了該領域的2個經典算法:DanceRevolution[12]和Bailando[13]。其中Bailando[13]由原作者添加,不僅效果與SOTA相當,代碼結構也更加清晰易拓展。

XRNeRF

我,開發者,在元宇宙里有一行自己的代碼!

項目地址:https://github.com/openxrlab/xrnerf

XRNeRF是基于PyTorch的通用型模塊化神經渲染框架,屬于OpenXRLab渲染生成平臺。

XRNeRF集成了4個面向場景和3個面向人體的NeRF前沿算法,其中場景算法包括NeRF[14], Mip-NeRF[15], KiloNeRF[16]和Instance-NGP[17],人體算法包括NeuralBody[18], AnimNeRF[19]和GNR[20],人體算法均為原作者支持開發。

針對當前開源NeRF代碼庫線性流程、模塊化程度低、二次開發難度大的問題,XRNeRF具有如下特點:模塊化程度高、標準的數據處理管線、模塊化的網絡構建方法。

僅需要修改配置文件,就可以完成對數據處理管線和網絡構建的修改,支持高便捷性地實現新算法搭建。

除了易于使用和拓展的模塊化設計,XRNeRF在所有復現算法上,平均指標與官方代碼庫對齊,可視化效果也與源代碼庫對齊。

從1到N

XR的各種硬件正在高速發展,新算法也層出不窮。對算法的研究者和開發者來說,保持高度熱度的同時,未來還有大量的工作需要完成。

OpenXRLab的開源只是邁出了一小步,這個領域的發展道阻且長。非常歡迎更多有熱情的社區小伙伴加入進來,一同成為這個方向的貢獻者!

團隊表示,歡迎任何形式的貢獻,可以在wishlist中添加想要復現的算法,可以在issue中報告問題,也可以PR提交修改,甚至還可以加入他們。

當XR真正走進千家萬戶時,團隊希望里面能有他們的一行代碼。

代碼庫地址:https://github.com/openxrlab

后續,團隊也將接連推出各個代碼庫更加詳細的設計介紹和使用教程。

參考文獻:

[1] Ye, Z., Zhang, G., & Bao, H. (2020, May). Efficient covisibility-based image matching for large-scale SfM. In 2020 IEEE International Conference on Robotics and Automation (ICRA) (pp. 8616-8622). IEEE.

[2] DeTone, D., Malisiewicz, T., & Rabinovich, A. (2018). Superpoint: Self-supervised interest point detection and description. In Proceedings of the IEEE conference on computer vision and pattern recognition workshops (pp. 224-236).

[3] Dusmanu, M., Rocco, I., Pajdla, T., Pollefeys, M., Sivic, J., Torii, A., & Sattler, T. (2019). D2-net: A trainable CNN for joint detection and description of local features. arXiv preprint arXiv:1905.03561.

[4] Arandjelovic, R., Gronat, P., Torii, A., Pajdla, T., & Sivic, J. (2016). NetVLAD: CNN architecture for weakly supervised place recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 5297-5307).

[5] Yu, H., Ye, W., Feng, Y., Bao, H., & Zhang, G. (2020, November). Learning bipartite graph matching for robust visual localization. In 2020 IEEE International Symposium on Mixed and Augmented Reality (ISMAR) (pp. 146-155). IEEE.

[6] Yu, H., Feng, Y., Ye, W., Jiang, M., Bao, H., & Zhang, G (2022). Improving feature-based visual localization by geometry-aided matching. ArXiv preprint arXiv:2211.08712.

[7] Cai, Z., Ren, D., Zeng, A., Lin, Z., Yu, T., Wang, W., ... & Liu, Z. (2022). HuMMan: multi-modal 4D human dataset for versatile sensing and modeling. In European Conference on Computer Vision. Springer, Cham.

[8] Dong, J., Jiang, W., Huang, Q., Bao, H., & Zhou, X. (2019). Fast and robust multi-person 3D pose estimation from multiple views. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 7792-7801).

[9] Dong, J., Fang, Q., Jiang, W., Yang, Y., Huang, Q., Bao, H., & Zhou, X. (2021). Fast and robust multi-person 3d pose estimation and tracking from multiple views. IEEE Transactions on Pattern Analysis and Machine Intelligence.

[10] Zhang, J., Cai, Y., Yan, S., & Feng, J. (2021). Direct multi-view multi-person 3d pose estimation. Advances in Neural Information Processing Systems, 34, 13153-13164.

[11] Zhang, Y., An, L., Yu, T., Li, X., Li, K., & Liu, Y. (2020). 4D association graph for realtime multi-person motion capture using multiple video cameras. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 1324-1333).

[12] Huang, R., Hu, H., Wu, W., Sawada, K., Zhang, M., & Jiang, D. (2020). Dance revolution: Long-term dance generation with music via curriculum learning. arXiv preprint arXiv:2006.06119.

[13] Siyao, L., Yu, W., Gu, T., Lin, C., Wang, Q., Qian, C., ... & Liu, Z. (2022). Bailando: 3D dance generation by actor-critic GPT with choreographic memory. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 11050-11059).

[14] Mildenhall, B., Srinivasan, P. P., Tancik, M., Barron, J. T., Ramamoorthi, R., & Ng, R. (2021). NeRF: Representing scenes as neural radiance fields for view synthesis. Communications of the ACM, 65(1), 99-106.

[15] Barron, J. T., Mildenhall, B., Tancik, M., Hedman, P., Martin-Brualla, R., & Srinivasan, P. P. (2021). Mip-NeRF: A multiscale representation for anti-aliasing neural radiance fields. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 5855-5864).

[16] Reiser, C., Peng, S., Liao, Y., & Geiger, A. (2021). Kilonerf: Speeding up neural radiance fields with thousands of tiny mlps. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 14335-14345).

[17] Müller, T., Evans, A., Schied, C., & Keller, A. (2022). Instant neural graphics primitives with a multiresolution hash encoding. arXiv preprint arXiv:2201.05989.

[18] Peng, S., Zhang, Y., Xu, Y., Wang, Q., Shuai, Q., Bao, H., & Zhou, X. (2021). Neural body: Implicit neural representations with structured latent codes for novel view synthesis of dynamic humans. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 9054-9063).

[19] Peng, S., Dong, J., Wang, Q., Zhang, S., Shuai, Q., Zhou, X., & Bao, H. (2021). Animatable neural radiance fields for modeling dynamic human bodies. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 14314-14323).

[20] Cheng, W., Xu, S., Piao, J., Qian, C., Wu, W., Lin, K. Y., & Li, H. (2022). Generalizable Neural Performer: Learning Robust Radiance Fields for Human Novel View Synthesis. arXiv preprint arXiv:2204.11798.

本文來自微信公眾號“新智元”(ID:AI_era),作者:新智元,36氪經授權發布。

資深作者新智元
0
相關文章
最新文章
查看更多
關注 36氪企服點評 公眾號
打開微信掃一掃
為您推送企服點評最新內容
消息通知
咨詢入駐
商務合作
国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

            国产最新精品免费| 国产精品99久久久久久宅男| 欧美日韩国产高清一区| 国产精品国产三级国产| 国产精品99久久久久久似苏梦涵| 欧美精品一区二区三区很污很色的 | 久久色中文字幕| 日韩成人免费看| 欧美高清www午色夜在线视频| 一区二区三区欧美视频| 91麻豆国产福利在线观看| 国产精品三级电影| 高清不卡一区二区在线| 久久久亚洲精品石原莉奈| 极品销魂美女一区二区三区| 日韩欧美国产综合在线一区二区三区| 天堂蜜桃91精品| 欧美精品在线观看播放| 免费在线一区观看| 欧美sm美女调教| 精品一区二区三区视频| 欧美激情自拍偷拍| 不卡视频一二三| 亚洲三级视频在线观看| av高清不卡在线| 亚洲天堂成人在线观看| 欧美亚洲国产一区二区三区va| 亚洲图片欧美色图| 欧美日韩免费观看一区二区三区 | 日本欧美一区二区三区| 久久久精品黄色| 色久优优欧美色久优优| 一区二区在线观看av| 在线亚洲免费视频| 亚洲一本大道在线| 精品国产一区二区三区久久久蜜月 | 免费国产亚洲视频| 国产精品久久久久久久蜜臀| 欧美在线播放高清精品| 韩国精品免费视频| 一区二区三区中文字幕| 欧美刺激脚交jootjob| 99国产精品久久久久久久久久久 | 国产一区二区三区四区在线观看| 久久蜜桃av一区二区天堂| 91亚洲国产成人精品一区二三| 日韩精品一二区| 国产精品美女久久久久av爽李琼| 欧美二区在线观看| 不卡欧美aaaaa| 蜜桃视频免费观看一区| 视频一区二区不卡| 久久综合九色综合97_久久久| 91黄视频在线观看| 国产精品一区二区你懂的| 亚洲风情在线资源站| 国产欧美日本一区二区三区| av在线播放一区二区三区| 日本在线不卡视频| 亚洲欧美日韩国产综合| 在线播放国产精品二区一二区四区 | 日韩精品中文字幕一区二区三区| 色婷婷综合久久久| 日韩中文字幕区一区有砖一区| 中文字幕av一区二区三区免费看| 91精品久久久久久久91蜜桃| 91在线视频播放地址| 国产一区二区三区免费在线观看| 五月天网站亚洲| 久久综合久久综合九色| 欧美日韩精品高清| 99九九99九九九视频精品| 加勒比av一区二区| 日韩中文字幕av电影| 亚洲免费观看高清完整版在线| 国产亚洲综合在线| 91国偷自产一区二区开放时间| 国产精品亚洲一区二区三区在线 | 黄页视频在线91| 日日嗨av一区二区三区四区| 亚洲欧美偷拍卡通变态| 欧美激情综合在线| 久久毛片高清国产| 91精品国产综合久久香蕉的特点| 91丨九色丨尤物| 国产黄人亚洲片| 天天亚洲美女在线视频| 亚洲免费资源在线播放| 中文字幕亚洲在| 日韩美女主播在线视频一区二区三区| 在线观看日韩精品| 一本色道久久综合亚洲91| 欧美大片在线观看一区二区| 欧美精品三级在线观看| 欧美日韩国产综合视频在线观看| 在线观看亚洲精品视频| 一本大道久久a久久精二百| 成人av在线观| eeuss鲁片一区二区三区在线看| 国产综合一区二区| 久久er99热精品一区二区| 亚洲精品国产成人久久av盗摄| 欧美国产日本视频| 欧美国产日产图区| 国产精品天天看| 日本一区二区三级电影在线观看| 久久综合狠狠综合久久激情| 日韩亚洲电影在线| 欧美午夜寂寞影院| 欧美日韩一区二区不卡| 欧美亚洲综合网| 欧美日韩亚洲综合一区| 欧美亚洲国产一区在线观看网站| 欧美中文字幕一区二区三区亚洲 | 成人精品免费网站| 韩国毛片一区二区三区| 国产在线视视频有精品| 国精产品一区一区三区mba视频| 狠狠色丁香久久婷婷综合丁香| 国内久久婷婷综合| 国产精品18久久久久久久久| 国产高清亚洲一区| 不卡av免费在线观看| 一本久久综合亚洲鲁鲁五月天| 色成年激情久久综合| 欧美午夜精品久久久久久孕妇| 欧美日韩国产精选| 欧美一级xxx| 精品国产免费人成电影在线观看四季 | 久久久久国产精品免费免费搜索| 国产欧美一区二区三区在线老狼| 中文在线一区二区| 国产精品久久久久久久久图文区| 亚洲欧美视频在线观看视频| 亚洲电影欧美电影有声小说| 中文字幕不卡在线观看| 亚洲欧美在线观看| 一区二区视频在线看| 亚洲午夜精品17c| 蜜臀国产一区二区三区在线播放| 蜜桃精品在线观看| 国产福利精品导航| 成人国产免费视频| 日本韩国一区二区三区视频| 欧美日韩视频在线第一区| 日韩精品一区二区三区在线 | 五月婷婷久久丁香| 日本欧美一区二区三区乱码 | 久久66热re国产| 777xxx欧美| 国内外精品视频| 国产成人av影院| 色综合天天狠狠| 日本最新不卡在线| 国产一区二区免费在线| 懂色av一区二区在线播放| aaa国产一区| 欧美日韩第一区日日骚| 欧美不卡一区二区三区| 国产精品美女久久久久aⅴ国产馆| 国产精品精品国产色婷婷| 亚洲一级二级在线| 国产精品青草综合久久久久99| 亚洲欧美日韩电影| 五月婷婷综合网| 国产成人小视频| 国产精品入口麻豆九色| 亚洲少妇30p| 三级亚洲高清视频| 国产成人精品网址| 欧美日韩一区二区三区高清| 日韩一级黄色片| 国产精品美女久久久久久久久| 亚洲午夜国产一区99re久久| 久久国产综合精品| 91视频国产观看| 日韩视频不卡中文| 中文字幕日韩av资源站| 欧美aaaaaa午夜精品| www.亚洲免费av| 日韩欧美一区二区三区在线| 中文字幕乱码亚洲精品一区| 调教+趴+乳夹+国产+精品| 福利一区二区在线观看| 欧美人妖巨大在线| 国产精品毛片久久久久久| 青草国产精品久久久久久| 99久久精品费精品国产一区二区| 亚洲美女少妇撒尿| 男女性色大片免费观看一区二区| 成人美女视频在线观看| 亚洲一区在线观看网站| 国产一区高清在线| 欧美日韩视频在线一区二区| 中文字幕欧美国产| 久久99久久久久久久久久久| 在线观看日韩电影| 亚洲国产高清在线观看视频| 日本不卡在线视频| 在线欧美日韩国产|