TW202026846A - 動作捕捉方法 - Google Patents

動作捕捉方法 Download PDF

Info

Publication number
TW202026846A
TW202026846A TW108100399A TW108100399A TW202026846A TW 202026846 A TW202026846 A TW 202026846A TW 108100399 A TW108100399 A TW 108100399A TW 108100399 A TW108100399 A TW 108100399A TW 202026846 A TW202026846 A TW 202026846A
Authority
TW
Taiwan
Prior art keywords
user
positioning
skeleton
virtual object
calibration
Prior art date
Application number
TW108100399A
Other languages
English (en)
Inventor
伯利 都
石千泓
Original Assignee
香港商成境科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 香港商成境科技有限公司 filed Critical 香港商成境科技有限公司
Priority to TW108100399A priority Critical patent/TW202026846A/zh
Priority to US16/731,382 priority patent/US20200218365A1/en
Publication of TW202026846A publication Critical patent/TW202026846A/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

一種動作捕捉方法中,處理模組根據設置於使用者的六個定位模組各自根據接收自兩個信號發射模組的二維光學掃信號所產生的六個相關於使用者的頭部、腰部、兩腳及兩手的定位信號,且利用位置估算模型或機器學習模型,推估出多個代表該使用者的其他關節或部位所在位置的估算三維座標,並且根據該等定位信號、該等估算三維座標、該使用者之骨架比例及虛擬物件的骨架比例,產生該虛擬物件呈現出相似於該使用者之動作的影像,並將該影像顯示於顯示模組。

Description

動作捕捉方法
本發明是有關於動作捕捉,特別是指一種動作捕捉方法。
現有動作捕捉(Motion Capture)技術通常利用影像擷取裝置來擷取安裝於人體身上相當多(例如多達40個)的反射點,藉此取得多個對應的關節座標以便組合出虛擬人物的骨架,並且進一步藉由紀錄此等關節座標以使虛體人物模擬出人體的動作。然而,當此現有動作補捉技術被用於例如視頻遊戲的娛樂應用以使虛擬人物模仿真人動作時,需要使用多個如紅外線光學(IR Optical)影像擷取設備的特定硬體來擷取安裝於人體的該等反射點之影像資料,以及用於影像處理的特殊軟體程式,此特殊軟體程式被用來分析及處理此等紅外線光學影像擷取設備所擷取的大量影像資料以獲得人體的關節座標,如此,不僅導致大量影像資料難以即時處理,而且所需軟、硬體設備的成本非常高。
因此,現有動作捕捉技術仍存在有很大的改良空間。
因此,本發明之目的,即在提供一種動作捕捉方法,其能克服現有技術的至少一缺點。
於是,本發明所提供的一種動作捕捉生方法用於使一具有頭及四肢的虛擬物件模仿人體動作,並包含以下步驟:(A)藉由配置於一使用者所處的一預定空間的兩個信號發射模組,其每一者持續朝向該預定空間發射出一二維光學掃描信號;(B)藉由分別配置於該使用者的頭部、腰部、左手、右手、左腳及右腳的第一至第六定位模組其中每一者,根據所感測到發射自該等信號發射模組的該等二維光學掃描信號獲得其本身所在位置的三維座標,並獲得其本身所處方位的角度,並藉由該第一至第六定位模組,以無線傳輸方式,向一處理模組分別發送出第一至第六定位信號,其中該第一至第六定位信號分別相關於該使用者的頭部、腰部、左手、右手、左腳及右腳,且該第一至第六定位信號其中每一者包含代表該使用者的頭部、腰部、左手、右手、左腳及右腳其中一相關者所在位置的三維座標,以及代表該使用者的頭部、腰部、左手、右手、左腳及右腳其中該相關者所處方位的角度;(C)藉由該處理模組,根據分別接收自該第一至第六定位模組的該第一至第六定位信號及該使用者之骨架大小且利用一符合於該使用者之骨架大小的位置估算模型或一機器學習模型,推估出多個分別代表該使用者的多個其他關節或部位的所在位置的估算三維座標;及(D)藉由該處理模組,根據該第一至第六定位信號、該等估算三維座標、該使用者之骨架比例及該虛擬物件的骨架比例,產生該虛擬物件呈現出相似於該使用者之動作的影像,並將該影像顯示於一顯示模組。
本發明之功效在於:僅藉由設置於使用者的六個定位模組,其根據兩個信號發射模組所發射的兩個二維光學掃描信號所獲得的第一至第六定位信號且利用預先建立的位置估算模型或機器學習模型即可相對快速地推估出其他關節或部位的所在位置的估算三維座標。由於不需使用現有技術所必要的影像擷取設備及特殊影像處理軟體程式,因此能有效地避免現有技術所遭遇相對耗時的大量影像資料的分析及處理。
在本發明被詳細描述之前,應當注意在以下的說明內容中,類似的元件是以相同的編號來表示。
圖1所示的一系統100是用來實施本發明一種動作捕捉方法之實施例,該動作捕捉方法是用於使一虛擬物件模仿人體動作。該系統100例如可包含兩個信號發射模組11,12、第一至第六定為模組21~26、一處理模組3及一顯示模組4,但不在此限。
每一信號發射模組11,12能操作來發射出例如在水平及垂直方向的二維(2D)光學掃描信號。此二維光學掃描信號可為一2D紅外線掃瞄信號或一2D雷射掃信號。在本實施例中,該等信號發射模組11,12可配置於一預定空間(例如,如圖2所示的大約為3~5立方公尺的一室內空間,但不以此例為限)。應注意的是,該等信號發射模組11,12是在該預定空間的一對角線方向彼此相對。
參閱圖3,該第一至第六定位模組21~26其中每一者例如包含一光學感測單元201、一用於感測角速度的慣性測量單元(IMU)202、一可支援短距無線通訊的通訊單元204,以及一電連接該光學感測單元201、該慣性單元該通訊單元202及該通訊單元204的定位單元203,但不以此為限。在本實施例中,該第一至第六定位模組21~26可被視為對於所在位置及所處方位的追蹤器,且例如可配置於一使用者的頭部、腰部、左手、右手、左腳及右腳(見圖2),其中該第三及第四定位模組23,24其中每一者可被併入一具有可供人手把持之殼體且用於遊戲控制的控制器裝置。
該處理模組3可支援短距無線通訊以便能與該第一至第六定位模組21~26以無線方式連接,且電連接該顯示模組4。值得注意的是,該處理模組3與該顯示模組4可為分開的兩個模組,例如,電腦主機及電視,亦可被整合於一具無線通訊功能的電腦設備,例如筆記型電腦、個人電腦等,但不在此限。
此外,值得注意的是,在使用前,該處理模組3事先以一軟體形式已建立了一位置估算模型、及一機器學習模型。在本實施例中,該估算模型例如至少根據三角學原理、及符合於人體工學的特定限制條件而建立,並且該機器學習模型例如是藉由對於多個不同骨架大小且裝設有例如50個感測件的人體在進行例如數百個小時的不同動作期間利用已知的感測設備感測該等感測件所在位置所獲得的定位資料庫饋入一基於人工智慧的類神經網路後經由該類神經網路自主學習訓練而建立,但不以此為限。
以下配合圖1至圖4示例地說明該系統100如何執行本發明動作捕捉方法,以使一虛擬物件模仿該使用者的動作。在本實施例中,該虛擬物件例如可為一卡通人偶,如圖5所示,但不以此例為限。在其他實施例中,該虛擬物件亦可為如具頭及四肢的動物、機器人等的虛擬人物。該動作捕捉方法包含以下步驟S41~S47。
首先,在步驟S41中,每一信號發射模組11,12持續朝向該預定空間發射出一二維光學掃描信號。
然後,在該使用者位於該預定間的一適當位置並且保持一預定校準姿勢的情況下,在步驟S42中,對於該第一至第六定位模組21~26其中每一者,該光感測單元201感測來自該等信號發射模組11,12的該等二維光學掃描信號,並將一感測結果輸出至該定位單元203,以致該定位單元203根據所接收的該感測結果產生對應的一校準定位信號,並經由該通訊單元204,將該校準定位信號發送至該處理模組3。在本實施例中,該預定校準姿勢例如為一T型姿勢,但不限於此,在其他實施例中,該預定校準姿勢亦可為一A型姿勢。此外,由該第一至第六定位模組21~26所產生的該等校準定位信號分別包含代表該使用者的頭部、腰部、左手、右手、左腳及右腳之位置的三維座標。
之後,在步驟S43中,該處理模組3根據來自該第一至第六定位模組21~26的該等校準定位信號,獲得該使用者的骨架大小及骨架比例。更明確地說,該處理模組3根據來自該第一、第三及第四定位模組21,23,24的該等校準定位信號先估算出代表該使用者的頸部所在位置的三維座標,接著可根據此三維座標、代表該使用者之左手及右手的所在位置的三維座標、及相關於頸肩肘手的第一預定比例關係估算出該使用者的兩下手臂與兩上手臂的長度、兩間之寬度,並可根據此三維座標、代表該使用者之腰部、左腳及右腳的所在位置的三維座標、及相關於腰膝腳的第二預定比例關係估算出該使用者的兩大腿及兩小腿的長度,進而獲得該使用者的骨架大小及骨架比例。
之後,在步驟S44中,該處理模組3根據該等校準定位信號、該使用者之骨架比例及該虛擬物件的骨架比例,使該顯示模組4顯示一含有彼此重疊的呈現出該預定校準姿勢的該虛擬物件、該使用者之骨架及該虛擬物件之骨架的校準影像(即,該顯示模組4以一重疊方式同時顯示出呈現出該預定校準姿勢的該虛擬物件、該使用者之骨架及該虛擬物件之骨架),如圖5所示。此外,該處理模組3亦可根據來自該第五及第六定位模組25,26的該等校準定位信號(即,代表該使用者的左腳及右腳的位置的三維座標)決定出相關於該校準影像中之地面的水平準位。
值得注意的是,上述步驟S42~步驟S44共同構成在該使用者在初次使用前的一校準程序。
在執行完該校準程序後,流程將對於該使用者任意的動作進行一動作捕捉程序。該動作捕捉程序包含步驟S45~步驟S47。
在步驟S45中,對於該第一至第六定位模組21~26其中每一者,該光感測單元201,相似於步驟S42,感測來自該等信號發射模組11,12的該等二維光學掃描信號,並將一感測結果輸出至該定位單元203,並且同時,該慣性測量單元202根據所測量到的角速度產生一指示該角速度之角速度信號,且將該角速度信號輸出至該定位單元203,以致該定位單元203根據所接收的該感測結果及該角速度信號,獲得(定位模組)本身所在位置的三維座標及(定位模組)本身所處方位的角度。於是,該第一至第六定位模組21~26各自經由該通訊單元204(以無線傳輸方式)向該處理模組3分別發送出第一至第六定位信號。更明確地說,該第一至第六定位信號分別相關於該使用者的頭部、腰部、左手、右手、左腳及右腳,且該第一至第六定位信號其中每一者包含代表該使用者的頭部、腰部、左手、右手、左腳及右腳其中一相關者所在位置的三維座標,以及代表該使用者的頭部、腰部、左手、右手、左腳及右腳其中該相關者所處方位的角度。
接著,在步驟S46中,該處理模組3可先根據步驟S42所獲得的該使用者之骨架校準該位置估算模型,以符合於該使用者之骨架,然後利用已校準的該位置估算模型來分析分別接收自該第一至第六定位模組21~26的該第一至第六定位信號,以推估出多個分別代表該使用者的多個其他關節或部位的所在位置的估算三維座標。或者,該處理模組3亦可在該位置估算模型無法成功推估時,將該等第一至第六信號及且該使用者之骨架大小輸入該機器學習模型,經由該機器學習模型進行相關運算,推估出多個分別代表該使用者的多個其他關節或部位的所在位置的估算三維座標。在本實施例中,該等其他關節或部位例如可包含頸部、左肩、右肩、左手肘、右手肘、左膝及右膝,但不以此例為限。在其他實施例中,該等其他關節或部位不僅包含上述等關節或部位,還可視實際需要進一步包含脊柱的多個部位。
最後,在步驟S47中,該處理模組3根據該第一至第六定位信號、該等估算三維座標、該使用者之骨架比例及該虛擬物件的骨架比例,產生該虛擬物件呈現出相似於該使用者之動作的影像,並將該影像顯示於該顯示模組4。
至此,對於該使用者的該動作的該動作捕捉程序執行完畢。應注意的是,若該系統100對於該使用者以預定處理頻率持續重複執行該動作捕捉程序時,該顯示模組4將可顯示出該虛擬物件模仿該使用者的連續動畫。
綜上所述,本發明動作捕捉方法僅藉由用於發射二維光學掃描信號的兩個信號發射模組11,12,以及設置於使用者且用於產生六個定位信號的六個定位模組21~26。於是,對比於上述現有動作捕捉技術,該處理模組6根據由該等定位模組21~26所產生的該等定位信號並且利用預先建立的位置估算模型或機器學習模型即可相對快速地推估出其他關節或部位的所在位置的估算三維座標。由於本發明動作捕捉方法不需使用上述現有動作捕捉技術所必要的影像擷取設備及特殊影像處理軟體程式,因此確實能有效地避免現有技術所遭遇相對耗時的大量影像資料的分析及處理。故確實能達成本發明的目的。
惟以上所述者,僅為本發明之實施例而已,當不能以此限定本發明實施之範圍,凡是依本發明申請專利範圍及專利說明書內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。
100:系統 11:信號發射模組 12:信號發射模組 21:第一定位模組 22:第二定位模組 23:第三定位模組 24:第四定位模組 25:第五定位模組 26:第六定位模組 201:光感測單元 202:慣性測量單元 203:定位單元 204:通訊單元 3:處理模組 4:顯示模組 S41-S47:步驟
本發明之其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中: 圖1是一方塊圖,示例性地繪示一種用於實施本發明動作捕捉方法之實施例的系統; 圖2是一示意圖,示例性地繪示出該系統的兩個信號發射器、及六個定位模組的配置情況; 圖3是一方塊圖,示例性地說明該系統的每一定位模組的組成; 圖4是一流程圖,示例性地說明該實施例所包含之步驟;及 圖5是一示意圖,示例性地繪示出該系統在執行完該實施例的一校準程序後所顯示的一校準影像。
100:系統
11:信號發射模組
12:信號發射模組
21:第一定位模組
22:第二定位模組
23:第三定位模組
24:第四定位模組
25:第五定位模組
26:第六定位模組
3:處理模組
4:顯示模組

Claims (4)

  1. 一種動作捕捉方法,用於使一具有頭及四肢的虛擬物件模仿人體動作,並包含以下步驟: (A)藉由配置於一使用者所處的一預定空間的兩個信號發射模組,其每一者持續朝向該預定空間發射出一二維光學掃描信號; (B)藉由分別配置於該使用者的頭部、腰部、左手、右手、左腳及右腳的第一至第六定位模組其中每一者,根據所感測到發射自該等信號發射模組的該等二維光學掃描信號獲得其本身所在位置的三維座標,並獲得其本身所處方位的角度,並藉由該第一至第六定位模組,以無線傳輸方式,向一處理模組分別發送出第一至第六定位信號,其中該第一至第六定位信號分別相關於該使用者的頭部、腰部、左手、右手、左腳及右腳,且該第一至第六定位信號其中每一者包含代表該使用者的頭部、腰部、左手、右手、左腳及右腳其中一相關者所在位置的三維座標,以及代表該使用者的頭部、腰部、左手、右手、左腳及右腳其中該相關者所處方位的角度; (C)藉由該處理模組,根據分別接收自該第一至第六定位模組的該第一至第六定位信號及該使用者之骨架大小且利用一符合於該使用者之骨架大小的位置估算模型或一機器學習網路,推估出多個分別代表該使用者的多個其他關節或部位的所在位置的估算三維座標;及 (D)藉由該處理模組,根據該第一至第六定位信號、該等估算三維座標、該使用者之骨架比例及該虛擬物件的骨架比例,產生該虛擬物件呈現出相似於該使用者之動作的影像,並將該影像顯示於一顯示模組。
  2. 如請求項1所述的虛擬物件動作捕捉方法,在步驟(A)與步驟(B)之間,在該使用者位於該預定空間的一位置且保持一預定校準姿勢時,還包含一校準程序,該校準程序包含以下步驟: (E)藉由該第一至第六定位模組其中每一者,根據所接收的該等二維光學掃描信號,獲得對應的一校準定位信號,並將該校準定位信號發送至該處理模組; (F)藉由該處理模組,根據來自該第一至第六定位模組的該等校準定位信號,獲得該使用者的骨架大小及骨架比例; (G)藉由該處理模組,根據該等校準定位信號、該使用者之骨架比例及該虛擬物件的骨架比例,使該顯示模組顯示一含有彼此重疊的呈現出該預定校準姿勢的該虛擬物件、該使用者之骨架及該虛擬物件之骨架的校準影像。
  3. 如請求項1所述的虛擬物件動作捕捉方法,其中,在步驟(C)中,該等多個其他關節或部位至少包含頸部、左肩、右肩、左手肘、右手肘、左膝及右膝。
  4. 如請求項3所述的虛擬物件動作捕捉方法,其中,在步驟(C)中: 該位置估算模型至少根據三角學原理、及符合於人體工學的特定限制條件而建立;及 該機器學習模型是藉由將多個不同骨架大小的人體進行多個小時的不同動作所獲得的定位資料庫饋入一基於人工智慧的類神經網路並經由自主學習訓練而建立。
TW108100399A 2019-01-04 2019-01-04 動作捕捉方法 TW202026846A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW108100399A TW202026846A (zh) 2019-01-04 2019-01-04 動作捕捉方法
US16/731,382 US20200218365A1 (en) 2019-01-04 2019-12-31 Method of Motion Capture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW108100399A TW202026846A (zh) 2019-01-04 2019-01-04 動作捕捉方法

Publications (1)

Publication Number Publication Date
TW202026846A true TW202026846A (zh) 2020-07-16

Family

ID=71403730

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108100399A TW202026846A (zh) 2019-01-04 2019-01-04 動作捕捉方法

Country Status (2)

Country Link
US (1) US20200218365A1 (zh)
TW (1) TW202026846A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI752629B (zh) * 2020-08-12 2022-01-11 英業達股份有限公司 訓練虛擬動物基於控制參數運動的方法
TWI792580B (zh) * 2020-11-11 2023-02-11 日商索尼互動娛樂股份有限公司 基於表面剛度隨機化之機器人訓練方法、訓練控制輸入系統之方法、輸入控制系統、電腦可讀媒體
US12017359B2 (en) 2020-11-11 2024-06-25 Sony Interactive Entertainment Inc. Method for robotic training based on randomization of surface damping

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2585078B (en) * 2019-06-28 2023-08-09 Sony Interactive Entertainment Inc Content generation system and method
CN114078279B (zh) * 2020-08-11 2024-07-30 北京达佳互联信息技术有限公司 动作捕捉方法、装置、电子设备及存储介质
CN113940642B (zh) * 2021-05-27 2023-08-29 数智引力(厦门)运动科技有限公司 动作捕捉方法、系统、终端设备及存储介质
CN114417738B (zh) * 2022-03-28 2022-06-24 清华大学 稀疏imu实时人体动作捕捉及关节受力预测方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI752629B (zh) * 2020-08-12 2022-01-11 英業達股份有限公司 訓練虛擬動物基於控制參數運動的方法
TWI792580B (zh) * 2020-11-11 2023-02-11 日商索尼互動娛樂股份有限公司 基於表面剛度隨機化之機器人訓練方法、訓練控制輸入系統之方法、輸入控制系統、電腦可讀媒體
US12017359B2 (en) 2020-11-11 2024-06-25 Sony Interactive Entertainment Inc. Method for robotic training based on randomization of surface damping

Also Published As

Publication number Publication date
US20200218365A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
TW202026846A (zh) 動作捕捉方法
US11468612B2 (en) Controlling display of a model based on captured images and determined information
US11262841B2 (en) Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
CN107330967B (zh) 基于惯性传感技术的骑师运动姿态捕捉及三维重建系统
AU2024200988A1 (en) Multi-joint Tracking Combining Embedded Sensors and an External
US20090046056A1 (en) Human motion tracking device
US11156830B2 (en) Co-located pose estimation in a shared artificial reality environment
JP2018106262A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
CN105252532A (zh) 动作捕捉机器人协同柔性姿态控制的方法
CN109243575B (zh) 一种基于移动交互和增强现实的虚拟针灸方法及系统
CN201431466Y (zh) 人体运动捕获三维再现系统
JP2022122876A (ja) 画像表示システム
CN105190703A (zh) 使用光度立体来进行3d环境建模
TWI735830B (zh) 追蹤系統及其相關追蹤方法
US11269400B2 (en) Positioning system
JP2018106661A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
US20180216959A1 (en) A Combined Motion Capture System
Yun et al. Animation fidelity in self-avatars: impact on user performance and sense of agency
TWI666571B (zh) 用於虛擬實境環境的動作捕捉系統
Costa et al. Augmented reality behind the wheel-human interactive assistance by mobile robots
Puthenveetil et al. Comparison of marker-based and marker-less systems for low-cost human motion capture
WO2021235316A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
TWM563585U (zh) 用於虛擬實境環境的動作捕捉系統
JP2021099666A (ja) 学習モデルの生成方法
RU2406150C2 (ru) Способ и система для визуализации виртуальных трехмерных объектов