TWI460683B - The way to track the immediate movement of the head - Google Patents

The way to track the immediate movement of the head Download PDF

Info

Publication number
TWI460683B
TWI460683B TW100122170A TW100122170A TWI460683B TW I460683 B TWI460683 B TW I460683B TW 100122170 A TW100122170 A TW 100122170A TW 100122170 A TW100122170 A TW 100122170A TW I460683 B TWI460683 B TW I460683B
Authority
TW
Taiwan
Prior art keywords
head
user
angle
pitch
feature point
Prior art date
Application number
TW100122170A
Other languages
English (en)
Other versions
TW201301204A (zh
Inventor
Sheng Yen Huang
Hung Jen Chien
Miing Ouhyoung
Che Hua Yeh
Yu Tu
Chih Lin Zeng
Original Assignee
Reallusion Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Reallusion Inc filed Critical Reallusion Inc
Priority to TW100122170A priority Critical patent/TWI460683B/zh
Publication of TW201301204A publication Critical patent/TW201301204A/zh
Application granted granted Critical
Publication of TWI460683B publication Critical patent/TWI460683B/zh

Links

Description

追蹤頭部即時運動之方法
本發明係有關於一種追蹤頭部即時運動之方法,其係使用一深度攝影機(Depth Camera)取得使用者頭部之動態影像資訊,並進行即時追蹤使用者頭部運動之方法。
習知技術中,有關追蹤頭部即時運動之方法約可分為兩種,第一種是將一追蹤設備固定於使用者之頭部,該追蹤設備可發出信號,發出之信號透過接收器接收後便可偵測出頭部即時之位置,藉此追蹤頭部即時之運動,典型的例子就是任天堂之遊戲器Wii,使用者可將任天堂之遊戲器Wii之追蹤器固定於使用者之頭部,該遊戲器Wii之追蹤器可發出信號,發出之信號透過遊戲器之一接收器接收後便可偵測出頭部即時運動之狀況,信號再經過處理後並可即時呈現於顯示器之上。
第二種方法,使用者不需要配載任何設備,而是使用一般彩色攝影機攝取使用者頭部即時之影像,亦即使用一般彩色攝影機以RGB畫素的資訊來獲取使用者頭部即時之影像,再經過頭部特徵辨識技術及臉部特徵辨識技術,分離出使用者頭部及背景之影像以達到追蹤使用者頭部即時運動之目的。此種方法要求很乾淨的背景,使用者背後不能有人走動或與膚色類似的顏色存在,且需要在光線充足的環境中拍攝。
該兩種方法都有其缺點,不在此贅述,本發明之方法克服了該等缺點:
1.不需配載設備。
2.使用立體深度相機攝取使用者頭部深度圖(Depth Map)來追蹤使用者頭部運動之位置,而非使用一般傳統之彩色攝影機攝取RGB色彩資訊,再透過辨識技術以獲取使用者頭部運動之資訊。
3.不受光線及背景有人走動與環境與膚色近似的困擾。
其他優點於以下發明內容中亦有陳述,不在此贅述。
本發明之主要目的,在於提供一種追蹤頭部即時運動之方法,其係使用一深度攝影機(Depth Camera)取得使用者頭部之動態影像資訊,並進行即時追蹤使用者頭部之運動,該方法係利用電腦影像處理之技術,分析由深度攝影機所攝得之使用者頭部影像深度圖(Depth Map),辨識出與使用者頭部運動相關之特徵點,使用者無需於身上配戴任何裝置或標誌即可完成頭部即時動態影像之追蹤,本發明所提供之方法可追蹤使用者頭部面向(Yaw)、傾斜(Roll or Tilt)及俯仰(Pitch)等運動動作,其特色及功效包括以下幾點:
(A)除電腦硬體外,本發明僅需一般家用遊戲主機所用之深度攝影機即可,成本低廉。
(B)使用者無須配戴其他任何之特殊儀器或標記,降低使用時之生理負擔。
(C)使用者無須經由刻意訓練學習,系統皆能追蹤到使用者的頭部動態表現,降低使用時之心理負擔。
(D)能高度容忍複雜背景的使用場合,讓使用者無須擔心旁觀者或環境之影響。
(E)軟體佔用資源低,且相容性高,易於整合至其他之數位資訊產品如:電腦、電視、以及戶外互動控制系統。
為達到本發明上述之目的,本發明提出一種追蹤頭部即時運動之方法,其核心之流程可包括以下之步驟:步驟一:輸入經由一立體深度攝影機所攝得之一使用者頭部之深度圖至一電腦;步驟二:於深度圖上辨識出改使用者臉部五官的特徵並追蹤該特徵之位置,連同深度圖中之深度資訊一起作為後續演算之輸入資訊;步驟三:計算取樣之樣本點,其係利用最小平方平面以計算各特徵點周圍之樣本點;步驟四:判斷該使用者頭部為面向(Yaw)與俯仰(Pitch);步驟五:判斷頭部之輪廓位置;步驟六:判斷頭部傾斜(Roll)之角度:步驟七:判斷頭部面向(Yaw)的轉動之角度是否過大,或頭部俯仰(Pitch)之角度是否過大;步驟八:若頭部面向(Yaw)的轉動之角度過大,便依據面向(Yaw)的角度動態調整取樣之區域;步驟九:若頭部俯仰(Pitch)之角度過大時,便以側臉平坦區域做為取樣之區域:步驟十:判斷是否偵測到該使用者之臉部特徵點;及步驟十一:輸出即時頭部運動動作之追蹤資訊。
為進一步對本發明有更清楚之說明,以下乃藉由圖式、發明原理及步驟詳細說明本發明實施之方法,冀能對 貴審查委員之審查工作有所助益。
如前所述,本發明主要之目的係提供一種頭部即時動態追蹤之方法,用以即時追蹤鏡頭前使用者之頭部運動之動作,其追蹤之運動可包括:使用者頭部面向(Yaw)、傾斜(Roll or Tilt)及俯仰(Pitch)等動作,再透過即時數位影像處理技術,分析立體深度攝影機(Depth Camera)所取得之資訊,使用者在無需配戴任何裝置或標誌於身上即可達到頭部即時動態追蹤之目的。
請參閱圖一,該圖一係為本發明之頭部即時動態追蹤方法之主要流程圖。由圖一可知,本發明之頭部即時動態追蹤方法之主要流程至少包括以下之步驟:步驟101:使用一立體深度攝影機取得使用者頭部之深度圖(Depth Map),並將該深度圖資料輸入至一電腦中;步驟102:使用即時數位影像處理之方式,處理該立體深度攝影機所攝得之深度圖以辨識出臉部特徵點位置,該臉部特徵點位置係以3D點雲(3D Point Cloud)之方式表示,再使用該臉部的3D點雲(3D Point Cloud)資料經由演算以得到該使用者頭部姿勢之參數,本步驟之詳細內容將於圖二及其相關部份中進一步說明。
步驟103:係利用步驟102所計算出之頭部姿勢之參數,持續追蹤使用者頭部之運動動作,並將所得之頭部動作之資訊呈現於顯示器。
接著,請參考圖二,圖二係為本發明之頭部即時動態追蹤方法主要步驟之詳細說明之示意圖,亦即圖一中步驟102進一步之詳細說明之示意圖。由圖二可知,本發明之頭部即時動態追蹤方法之詳細流程至少包括以下之步驟:步驟201:輸入經由一立體深度攝影機所攝得之一使用者頭部之深度圖(Depth Map)至一電腦,該步驟中所使用之影像取樣頻率約為每秒十五張圖片至每秒三十張圖片,且無須經過壓縮處理,該深度影像圖將以24位元之RGB格式輸入至該電腦,且該深度圖則將以16位元之單一通道無號短整數(Single Channel Unsigned Short)輸入至該電腦,該數值之數值區域為[0,10000],單位為毫米,並約有3.4%的閃爍程度;步驟202:於深度圖上辨識出該使用者臉部五官的特徵並持續追蹤該特徵之位置,連同深度圖中之深度資訊一併做為後續演算之輸入資訊,該步驟係為輸入深度影像資訊的前置處理步驟;步驟203:計算取樣之樣本點,其係利用最小平方平面以計算各特徵點周圍之樣本點,於本實施例而言,假設在步驟202中取得三個特徵點,且取樣樣本點為100,則深度圖中之三個特徵點之座標可表示為:{(Xi,Yi)|i=1~3},分別在以三個特徵點為中心之三個方框(window)內隨機取100個樣本,則將有三百筆資料{(Xi,Yi,zi)|i=1~300},其中,大寫(X,Y)表示平面影像的2D座標,小寫(x,y,z)表示空間中的3D座標,此資料係為平面影像上座標(X,Y)與空間深度(z)的組合,其既不是2D之資料亦非3D之資料,因此必須透過進一步計算將之轉換成為3D空間之資料,其計算之方式可如透視模型之圖三A所示,其係利用相似三角形的特性算出完整的3D座標(x,y,z),其可以以下之方程式(a)表示:
------------方程式(a)
接著,利用此3D座標點所形成的點雲(point cloud)計算最小平方平面,示意圖如圖三B所示。假設圖三B中所呈現平面之平面方程式為Ax+By+C=z,則點雲(point cloud)與該平面的關係可以方程式(b)所示:
 ----------方程式(b)
該方程式(b)所表示者係為一線性系統方程式的個數多於未知數/變數(Over Determine)之線性系統,透過解A T Ax =A T b 之關係式,可得到該線性系統之最小平方差之解(A,B,C),其中(A,B,-1)即為此平面之法向量。A T Ax =A T b 展開後可以以下方程式(c)所示:
步驟204:判斷該使用者頭部為面向(Yaw)與俯仰(Pitch),步驟203中之線性系統之所有輸入點之座標,係來自於該使用者臉部之取樣,故計算出之平面即可代表該使用者之臉部平面,其法向量亦能代表正臉所面對的方向,此法向量與座標系統之關係可如圖三c之示意圖所示,其關係可用以下之方程式(d)表示:
於圖三c中,法向量代表使用者面對深度攝影機之方向,負Z軸代表正前方,即正對立體深度攝影機(Depth Camera)之方向,因此,使用者左右擺頭的旋轉角度Yaw將會等於與負Z軸的夾角β,而使用者上下擺頭的旋轉角度pitch則會等於α。
步驟205:判斷頭部輪廓之位置,本實施例中,其係利用深度影像圖定位使用者出鼻尖之位置,如圖三D正中間之深色區塊3010,並藉此鼻尖位置取得整體頭部之大小與位置資訊,如圖三D之橢圓形輪廓3020。
步驟206:判斷頭部傾斜(Roll)之角度,其係利用最小平方橢圓(如圖三E所示)以求得橢圓的長軸與Y軸的夾角即為頭部傾斜(Roll)的角度。
步驟207:判斷頭部轉動之角度是否過大,即判斷頭部面向(Yaw)及頭部傾斜(Roll)的動作角度是否超過原特徵點可視範圍,或頭部俯仰(Pitch)之角度是否超過原特徵點可視範圍。
步驟208:若頭部轉動之角度過大,亦即當頭部面向(Yaw)及頭部傾斜(Roll)的動作角度超過原特徵點可視範圍時,則頭部轉向會導致特徵點被遮蔽,故本發明之方法若發現特徵點之資訊不可靠無法使用時,本發明之方法則不會再使用特徵點的資訊,而是會依據面向(Yaw)的角度動態以調整取樣的區域,此時,取樣的區域大致上會落在側臉較為平坦的區域,如此可在此區域內取樣一些點並取出其深度資訊(如圖三F中之深色點3030),透過該取樣點3030可計算出一最小平方平面,該平方平面的法向量X及Y分量與正前向量(即負Z軸)的夾角即為頭部參數中的頭部面向(Yaw)及頭部傾斜(Roll)。
步驟209:若頭部俯仰(Pitch)之角度過大時,即當頭部俯仰(Pitch)的動作角度超過原特徵點可視範圍時,如頭部轉向會導致特徵點被遮蔽,故本發明之方法若發現特徵點資訊不可靠無法使用時,本發明之方法則不會再使用特徵點的資訊,而是以側臉平坦區域做為取樣之樣本,此時俯仰(Pitch)的角度由先前找到最小平方橢圓,取Y軸夾角角度來當俯仰(Pitch)之角度如,圖三G所示。
步驟210:持續判斷是否偵測到該使用者之臉部特徵點;步驟211:輸出即時頭部運動動作之追蹤資訊,該資訊包括頭部面向(Yaw)、頭部傾斜(Roll or Tilt)、頭部俯仰(Pitch)之資訊,該等資訊可以影像角色(Avatar)方式即時呈現於一顯示器,此時該角色(Avatar)將會即時與該使用者同步呈現相同的頭部動作,達到即時頭部動作追蹤之目的,其輸出之結果可如圖三H所示。
惟,以上所述者,僅為本發明之實施例,當不能以之限制本發明範圍。即大凡依本發明申請專利範圍所做之均等變化及修飾,仍將不失本發明之要義所在,亦不脫離本發明之精神和範圍,故都應視為本發明的進一步實施狀況。
101、102、103...流程步驟
201、202、203、204、205、206、207、208、209、2010、2011...流程步驟
3010...使用者鼻尖位置
3020...使用者頭部輪廓
3030...使用者臉側區域
圖一係為本發明之頭部即時動態追蹤方法之主要流程之示意圖。
圖二係為本發明之頭部即時動態追蹤方法主要步驟之詳細說明之示意圖。
圖三A係為本發明之頭部即時動態追蹤方法中2D座標與3D座標透視模型之示意圖。
圖三B係為本發明之頭部即時動態追蹤方法中3D座標形成點雲(point cloud)用以計算最小平面之示意圖。
圖三C係為本發明之頭部即時動態追蹤方法中法向量與座標系關係之示意圖。
圖三D係為本發明之頭部即時動態追蹤方法中使用深度影像定位出鼻尖位置之示意圖。
圖三E係為本發明之頭部即時動態追蹤方法中使用最小平方橢圓以求得頭部傾斜角度之示意圖。
圖三F係為本發明之頭部即時動態追蹤方法中大角度面向(Yaw)及傾斜(Roll)轉動時取樣及取出深度資訊之示意圖。
圖三G係為本發明之頭部即時動態追蹤方法中大角度俯仰(Pitch)時取樣及取出深度資訊之示意圖。
圖三H係為本發明之頭部即時動態追蹤方法中輸出影像角色(Avatar)於一顯示器之示意圖。
201、202、203、204、205、206、207、208、209、2010、2011...流程步驟

Claims (6)

  1. 一種頭部即時動態追蹤方法,該方法至少包括以下之步驟:步驟(a):使用一立體深度攝影機取得一使用者頭部之深度圖(Depth Map),並將該深度圖資料輸入至一電腦中;步驟(b):使用即時數位影像處理之方法,處理該立體深度攝影機所攝得之深度圖以辨識出該使用者臉部特徵點位置,該臉部特徵點位置係以3D點雲(3D Point Cloud)之方式表示,再使用該臉部的3D點雲(3D Point Cloud)資料經由計算以得到該使用者頭部姿勢之參數;及步驟(c):使用步驟(b)所計算出之頭部姿勢之參數,持續追蹤該使用者頭部之運動動作;其中,該步驟(b)中,該即時數位影像處理方法處理該深度圖以辨識出臉部特徵點位置及計算該使用者頭部姿勢之參數之方法更包括以下之步驟:步驟(b1):輸入經由一立體深度攝影機所攝得之一使用者頭部之深度圖至一電腦;步驟(b2):於該深度圖上辨識出該使用者臉部五官的特徵並辨識追蹤該特徵之位置,並連同深度圖中之深度資訊一併做為後續計算之輸入資訊;步驟(b3):計算取樣之樣本點,其係利用最小平方平面方法以計算各特徵點周圍之樣本點;步驟(b4):判斷該使用者頭部為面向(Yaw)與俯仰(Pitch),於步驟(b3)中,來自於該使用者臉部之取樣可形成一線性系統之所有輸入點之座標,計算出該線性系統之平面即為該使用者之臉部平面,其法向量即為代表正臉所面對的方向; 步驟(b5):判斷頭部輪廓之位置,其係利用深度影像圖定位該使用者頭部之一器官特徵點之位置,並藉此器官特徵點位置取得整體頭部之大小與輪廓位置資訊;步驟(b6):判斷頭部傾斜(Roll)之角度,其係利用最小平方橢圓以求得橢圓的長軸與Y軸的夾角,該夾角即為頭部傾斜(Roll)之角度;步驟(b7):判斷頭部轉動之角度是否過大,即判斷頭部面向(Yaw)及頭部傾斜(Roll)的動作角度是否超過原特徵點可視範圍,或頭部俯仰(Pitch)之角度超過原特徵點可視範圍;步驟(b8):若頭部轉動之角度過大,亦即當頭部面向(Yaw)及頭部傾斜(Roll)的動作角度超過原特徵點可視範圍時,便依據面向(Yaw)的角度動態以調整取樣的區域,該取樣的區域可約位於側臉一較為平坦之區域,於該區域內取樣複數個樣本點並取出其深度資訊,透過該取樣點可計算出一最小平方平面,該平方平面的法向量X及Y分量與正前向量(即負Z軸)的夾角即為頭部參數中的頭部面向(Yaw)及頭部傾斜(Roll);步驟(b9):若頭部俯仰(Pitch)之角度過大時,亦即當頭部俯仰(Pitch)的動作角度超過原特徵點可視範圍時,依據一側臉平坦區域做為取樣之樣本,此時俯仰(Pitch)的角度由該最小平方橢圓,以Y軸夾角角度做為俯仰(Pitch)之角度;步驟(b10):持續判斷是否偵測到該使用者之臉部特徵點;步驟(b11):輸出即時頭部運動動作之追蹤資訊,該資訊包括頭部面向(Yaw)、頭部傾斜(Roll or Tilt)、頭部俯仰(Pitch)之資訊,並將該等資訊以一影像角色(Avatar)之方式即時呈現於一顯示器,此時該角色(Avatar)將會即時底與該使用者同步呈 現相同的頭部動作;其中,該步驟(b3)中,利用最小平方平面以計算各特徵點周圍之樣本點之方法更包括以下之步驟;步驟(b31):假設在步驟(b2)中取得N個特徵點,且取樣樣本點為M個,則深度圖中之N個特徵點之座標可表示為:{(Xi,Yi)|i=1~N},分別在以N個特徵點為中心之N個方框(window)內隨機取M個樣本,則將有N*M百筆資料{(Xi,Yi,zi)|i=1~N*M},其中,大寫(X,Y)表示平面影像的2D座標,小寫(x,y,z)表示空間中的3D座標,此資料係為平面影像上座標(X,Y)與空間深度(z)的組合,並使用相似三角形的特性計算出完整的3D座標(x,y,z),其可以以下之方程式表示: 步驟(b32):使用該3D座標點所形成的點雲(point cloud)計算一最小平方平面,假設形成該平面之平面方程式為Ax+By+C=z,則點雲(point cloud)與該平面的關係可以以下之方程式所示: 步驟(b33):步驟(b32)之方程式所表示者係為一線性系統方程式的個數多於未知數/變數(Over Determine)之線性系統,透 過計算A T Ax =A T b 關係式,可得到該線性系統之最小平方差之解為(A,B,C),其中(A,B,-1)即為此平面的法向量,A T Ax =A T b 展開後可以以下之方程式表示:
  2. 一種頭部即時動態追蹤方法,該方法至少包括以下之步驟:步驟(a):使用一立體深度攝影機取得一使用者頭部之深度圖(Depth Map),並將該深度圖資料輸入至一電腦中;步驟(b):使用即時數位影像處理之方法,處理該立體深度攝影機所攝得之深度圖以辨識出該使用者臉部特徵點位置,該臉部特徵點位置係以3D點雲(3D Point Cloud)之方式表示,再使用該臉部的3D點雲(3D Point Cloud)資料經由計算以得到該使用者頭部姿勢之參數;及步驟(c):使用步驟(b)所計算出之頭部姿勢之參數,持續追蹤該使用者頭部之運動動作;其中,該步驟(b)中,該即時數位影像處理方法處理該深度圖以辨識出臉部特徵點位置及計算該使用者頭部姿勢之參數之方法更包括以下之步驟:步驟(b1):輸入經由一立體深度攝影機所攝得之一使用者頭部之深度圖至一電腦;步驟(b2):於該深度圖上辨識出該使用者臉部五官的特徵並辨識追蹤該特徵之位置,並連同深度圖中之深度資訊一併做為 後續計算之輸入資訊;步驟(b3):計算取樣之樣本點,其係利用最小平方平面方法以計算各特徵點周圍之樣本點;步驟(b4):判斷該使用者頭部為面向(Yaw)與俯仰(Pitch),於步驟(b3)中,來自於該使用者臉部之取樣可形成一線性系統之所有輸入點之座標,計算出該線性系統之平面即為該使用者之臉部平面,其法向量即為代表正臉所面對的方向;步驟(b5):判斷頭部輪廓之位置,其係利用深度影像圖定位該使用者頭部之一器官特徵點之位置,並藉此器官特徵點位置取得整體頭部之大小與輪廓位置資訊;步驟(b6):判斷頭部傾斜(Roll)之角度,其係利用最小平方橢圓以求得橢圓的長軸與Y軸的夾角,該夾角即為頭部傾斜(Roll)之角度;步驟(b7):判斷頭部轉動之角度是否過大,即判斷頭部面向(Yaw)及頭部傾斜(Roll)的動作角度是否超過原特徵點可視範圍,或頭部俯仰(Pitch)之角度超過原特徵點可視範圍;步驟(b8):若頭部轉動之角度過大,亦即當頭部面向(Yaw)及頭部傾斜(Roll)的動作角度超過原特徵點可視範圍時,便依據面向(Yaw)的角度動態以調整取樣的區域,該取樣的區域可約位於側臉一較為平坦之區域,於該區域內取樣複數個樣本點並取出其深度資訊,透過該取樣點可計算出一最小平方平面,該平方平面的法向量X及Y分量與正前向量(即負Z軸)的夾角即為頭部參數中的頭部面向(Yaw)及頭部傾斜(Roll);步驟(b9):若頭部俯仰(Pitch)之角度過大時,亦即當頭部俯仰(Pitch)的動作角度超過原特徵點可視範圍時,依據一側臉平 坦區域做為取樣之樣本,此時俯仰(Pitch)的角度由該最小平方橢圓,以Y軸夾角角度做為俯仰(Pitch)之角度;步驟(b10):持續判斷是否偵測到該使用者之臉部特徵點;步驟(b11):輸出即時頭部運動動作之追蹤資訊,該資訊包括頭部面向(Yaw)、頭部傾斜(Roll or Tilt)、頭部俯仰(Pitch)之資訊,並將該等資訊以一影像角色(Avatar)之方式即時呈現於一顯示器,此時該角色(Avatar)將會即時底與該使用者同步呈現相同的頭部動作;其中,該步驟(b4)中,該法向量與座標系統之關係可以以下之方程式表示: 其中,法向量(A ,B ,-1)代表使用者面對之方向,負Z軸代表正前方,即正對立體深度攝影機(Depth Camera)之方向,使用者左右擺頭的旋轉角度將會等於(A ,0,-1)與負Z軸的夾角β,而使用者上下擺頭的旋轉角度則會等於α。
  3. 如申請專利範圍第1項所述之一種頭部即時動態追蹤方法,其中,該使用者臉部特徵點可為該使用者之鼻尖。
  4. 如申請專利範圍第1項所述之一種頭部即時動態追蹤方法,其中,步驟(c)中持續追蹤該使用者頭部運動動作之結果可呈現於一顯示器。
  5. 如申請專利範圍第2項所述之一種頭部即時動態追蹤方法,其中,該使用者臉部特徵點可為該使用者之鼻尖。
  6. 如申請專利範圍第2項所述之一種頭部即時動態追蹤方 法,其中,步驟(c)中持續追蹤該使用者頭部運動動作之結果可呈現於一顯示器。
TW100122170A 2011-06-24 2011-06-24 The way to track the immediate movement of the head TWI460683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW100122170A TWI460683B (zh) 2011-06-24 2011-06-24 The way to track the immediate movement of the head

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW100122170A TWI460683B (zh) 2011-06-24 2011-06-24 The way to track the immediate movement of the head

Publications (2)

Publication Number Publication Date
TW201301204A TW201301204A (zh) 2013-01-01
TWI460683B true TWI460683B (zh) 2014-11-11

Family

ID=48137549

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100122170A TWI460683B (zh) 2011-06-24 2011-06-24 The way to track the immediate movement of the head

Country Status (1)

Country Link
TW (1) TWI460683B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI802881B (zh) * 2020-05-12 2023-05-21 普安科技股份有限公司 訪客興趣程度分析的系統和方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1790421A (zh) * 2001-11-27 2006-06-21 三星电子株式会社 基于深度图像表示三维物体的装置和方法
US20070031064A1 (en) * 2004-06-10 2007-02-08 Wenyi Zhao Method and apparatus for aligning video to three-dimensional point clouds
TW200842758A (en) * 2007-02-16 2008-11-01 Qualcomm Inc Efficient 2-D and 3-D graphics processing
TW201040849A (en) * 2009-05-15 2010-11-16 Foxconn Comm Technology Corp Method and photo device for taking a photograph by locking the regard direction of the pupils of a person
TW201120684A (en) * 2009-10-07 2011-06-16 Microsoft Corp Human tracking system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1790421A (zh) * 2001-11-27 2006-06-21 三星电子株式会社 基于深度图像表示三维物体的装置和方法
US20070031064A1 (en) * 2004-06-10 2007-02-08 Wenyi Zhao Method and apparatus for aligning video to three-dimensional point clouds
TW200842758A (en) * 2007-02-16 2008-11-01 Qualcomm Inc Efficient 2-D and 3-D graphics processing
TW201040849A (en) * 2009-05-15 2010-11-16 Foxconn Comm Technology Corp Method and photo device for taking a photograph by locking the regard direction of the pupils of a person
TW201120684A (en) * 2009-10-07 2011-06-16 Microsoft Corp Human tracking system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI802881B (zh) * 2020-05-12 2023-05-21 普安科技股份有限公司 訪客興趣程度分析的系統和方法

Also Published As

Publication number Publication date
TW201301204A (zh) 2013-01-01

Similar Documents

Publication Publication Date Title
US11749025B2 (en) Eye pose identification using eye features
US10269177B2 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
CN104380338B (zh) 信息处理器以及信息处理方法
CN106705837B (zh) 一种基于手势的物体测量方法及装置
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
TW201322178A (zh) 擴增實境的方法及系統
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
US11151804B2 (en) Information processing device, information processing method, and program
WO2018146922A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
TWI460683B (zh) The way to track the immediate movement of the head
WO2018170678A1 (zh) 一种头戴式显示装置及其手势动作识别方法
JP2015184986A (ja) 複合現実感共有装置
CN111754543A (zh) 图像处理方法、装置及系统
Jia et al. Tracking pointing gesture in 3d space for wearable visual interfaces
JP6762544B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN117710445A (zh) 一种应用于ar设备的目标定位方法、装置及电子设备

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees