TWI464692B - 操作物辨識方法、操作物深度資訊建立方法及電子裝置 - Google Patents

操作物辨識方法、操作物深度資訊建立方法及電子裝置 Download PDF

Info

Publication number
TWI464692B
TWI464692B TW101123879A TW101123879A TWI464692B TW I464692 B TWI464692 B TW I464692B TW 101123879 A TW101123879 A TW 101123879A TW 101123879 A TW101123879 A TW 101123879A TW I464692 B TWI464692 B TW I464692B
Authority
TW
Taiwan
Prior art keywords
range
order
depth
operator
face
Prior art date
Application number
TW101123879A
Other languages
English (en)
Other versions
TW201403490A (zh
Inventor
Chia Te Chou
Shou Te Wei
Chih Hsuan Lee
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Priority to TW101123879A priority Critical patent/TWI464692B/zh
Priority to CN201210256506.XA priority patent/CN103530597B/zh
Priority to US13/792,101 priority patent/US8948493B2/en
Publication of TW201403490A publication Critical patent/TW201403490A/zh
Application granted granted Critical
Publication of TWI464692B publication Critical patent/TWI464692B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

操作物辨識方法、操作物深度資訊建立方法及電子裝置
本發明是有關於一種辨識方法,特別是指一種操作物辨識方法、操作物深度資訊建立方法及電子裝置。
目前電子裝置的輸入裝置中,較普遍的有滑鼠、鍵盤,以及也作為輸出介面的觸控式螢幕。為了使人機互動可以更加不受限制,於是有了依據聲音、影像等辨識結果作為輸入指令的技術。而以影像辨識肢體動作或手勢來進行操作的方法也被不斷地改良、加速演算,這方面技術從需要穿戴可供辨識的衣服或手套,演變成直接從影像中就能找出人體或手部的位置,進而辨識肢體動作或手勢。
現有一種技術是根據深度圖產生立體像素,如此就能找出人體並將人體後方的背景移除,再進一步辨識人的肢體骨架,並依據一連串肢體影像辨識肢體動作而作為輸入指令。
現有一種產生深度圖的方法,是使用一部傳統的攝影機搭配一部深度攝影機拍攝。
所述深度攝影機是使用Time of flight(光線飛行時間,ToF)的原理,藉由計算打出的紅外光打中物體反射後的時間,計算物體與攝影機的距離。
另有一種深度攝影機,例如微軟公司的遊戲控制器所使用,是利用光編碼(Light Coding)技術。光編碼技術理論是利用連續光(近紅外線)對測量空間進行編碼,經感應器 讀取編碼的光線,交由晶片運算進行解碼後,產生成一張具有深度的圖像。光編碼技術的關鍵是雷射光散斑,當雷射光照射到粗糙物體、或是穿透毛玻璃後,會形成隨機的反射斑點,稱之為散斑。散斑具有高度隨機性,也會隨著距離而變換圖案,空間中任何兩處的散斑都會是不同的圖案,等於是將整個空間加上了標記,所以任何物體進入該空間、以及移動時,都可確切紀錄物體的位置。光編碼技術發出雷射光對測量空間進行編碼,就是指產生散斑。
然而目前深度攝影機尚未能普及,而且取得的深度圖不夠精細,僅適合用於辨識肢體,如果想要運用前述的深度圖以辨識手勢,距離稍遠,就無法辨識出各隻手指,因此也難為手部辨識提供一個好的解決方案。
因此,本發明之目的,即在提供一種維持精確度且大幅降低運算量的操作物辨識方法。
於是,本發明操作物辨識方法,利用一電子裝置執行,該方法包含:
(A)讀取二分別來自兩相間隔的攝影機在同一時間擷取的原始影像,該二原始影像之拍攝範圍至少部分重疊,且各該原始影像的重疊部分的內容包括一伸出的操作物。
(B)將該二原始影像分別降低其解析度,產生二降階影像。
(C)根據該二降階影像計算其中多個具有相似特徵之畫素的位移量,得出一低階深度圖,其中位移量越大表示深度越淺。
(D)根據該低階深度圖決定出一操作物範圍。
(E)根據該操作物範圍自其一原始影像中找出對應的一局部高階影像,藉此從該原始影像辨識出該操作物。
較佳地,步驟(B)後還包含:(B1)根據其一降階影像與一預設的載有臉部特徵的臉部模板進行比對,辨識出一臉部範圍;且步驟(D)是根據該辨識出的臉部範圍計算出與該臉部範圍鄰近的該操作物範圍。
較佳地,步驟(D)中若辨識出多個臉部範圍,是尋找該深度最淺的臉部範圍附近,深度與該臉部範圍相近且較淺的範圍視為該操作物範圍。
較佳地,該操作物為一手部,該操作物範圍為一手部範圍。
本發明之另一目的,在於提供一種維持精確度且大幅降低運算量的操作物深度資訊建立方法。
於是,本發明操作物深度資訊建立方法,利用一具有一處理器的電子裝置執行,該方法包含:
(a)讀取二分別來自兩相間隔的攝影機在同一時間擷取的原始影像,該二原始影像之拍攝範圍至少部分重疊,且各該原始影像的重疊部分的內容包括一伸出的操作物。
(b)將該二原始影像分別降低其解析度,產生二降階影 像。
(c)根據該二降階影像計算其中多個具有相似特徵之畫素的位移量,得出一低階深度圖,其中位移量越大表示深度越淺。
(d)根據該低階深度圖決定出一操作物範圍。
(e)根據該操作物範圍自該二原始影像中找出對應的二局部高階影像。
(f)根據該二局部高階影像計算其中多個具有相似特徵之畫素的位移量,得出一局部高階深度圖,其中位移量越大表示深度越淺,藉此從該等原始影像建立出操作物深度資訊。
較佳地,步驟(b)後還包含:
(b1)根據其一降階影像與一預設的載有臉部特徵的臉部模板進行比對,辨識出一臉部範圍。
步驟(d)是根據該辨識出的臉部範圍計算出與該臉部範圍鄰近的該操作物範圍。
較佳地,步驟(d)中若辨識出多個臉部範圍,是尋找該深度最淺的臉部範圍附近,深度與該臉部範圍相近且較淺的範圍視為該操作物範圍。
較佳地,該操作物為一手部,該操作物範圍為一手部範圍。
本發明之再一目的,是在提供一種執行前述方法的電子裝置,包含一輸入單元、一儲存單元及一處理器。
該輸入單元與兩相間隔的攝影機連接。
該儲存單元儲存一與操作物辨識方法、操作物深度資訊建立方法相關之程式碼。
該處理器與該輸入單元及該儲存單元連接,讀取該與操作物辨識方法、操作物深度資訊建立方法相關之程式碼並執行以下步驟:
(i)經由該輸入單元讀取二分別來自該二攝影機在同一時間擷取的原始影像,該二原始影像之拍攝範圍至少部分重疊,且各該原始影像的重疊部分的內容包括一伸出的操作物。
(ii)將該二原始影像分別降低其解析度,產生二降階影像。
(iii)根據該二降階影像計算其中多個具有相似特徵之畫素的位移量,得出一低階深度圖,其中位移量越大表示深度越淺。
(iv)根據該低階深度圖決定出一操作物範圍。
(v)根據該操作物範圍自其一原始影像中找出對應的一局部高階影像,並儲存於該儲存單元,藉此從該原始影像辨識出該操作物。
較佳地,步驟(v)還根據該操作物範圍自另一原始影像中找出對應的另一局部高階影像,並儲存於該儲存單元;該處理器還執行步驟(vi),根據該二局部高階影像計算其中多個具有相似特徵之畫素的位移量,得出一局部高階深度圖,並儲存於該儲存單元,其中位移量越大表示深度越淺,藉此從該等原始影像建立出操作物深度資訊。
較佳地,步驟(ii)後還包含:
(ii-1)根據其一降階影像與一預設的載有臉部特徵的臉部模板進行比對,辨識出一臉部範圍。
步驟(iv)還根據該辨識出的臉部範圍計算出與該臉部範圍鄰近的該操作物範圍。
較佳地,步驟(iv)中若辨識出多個臉部範圍,是尋找該深度最淺的臉部範圍附近,深度與該臉部範圍相近且較淺的範圍視為該操作物範圍。
較佳地,該操作物為一手部,該操作物範圍為一手部範圍。
本發明之功效在於:透過先將該二原始影像降低其解析度再找出操作物範圍及對應的其一局部高階影像,與直接使用該二原始影像找出操作物相比能節省大量時間,該局部高階影像可供後續辨識該操作物姿態時使用,整體而言節省時間又不失精確。
有關本發明之前述及其他技術內容、特點與功效,在以下配合參考圖式之實施例的詳細說明中,將可清楚地呈現。
參閱圖1與圖2,本發明操作物辨識方法、操作物深度資訊建立方法及電子裝置之實施例,可供結合應用於一利用一操作物姿態控制的遊戲機,但本發明不以此為限。 該操作物可以是使用者的一手部,該操作物姿態可以是該手部的一手勢,也可以是其他欲用來被辨識其輪廓之物件的姿態。該操作物辨識方法、操作物深度資訊建立方法利用一電子裝置1執行,該電子裝置1具有相連接的一處理器11、一輸入單元12及一儲存單元13。該輸入單元12是一組與一陣列式攝影單元連接的傳輸埠。本實施例中,陣列式攝影單元包括二左右間隔設置的攝影機2。儲存單元13是一儲存一與操作物辨識方法、操作物深度資訊建立方法相關之程式碼以及計算結果的記憶體或暫存器。
處理器11讀取該與操作物辨識方法、操作物深度資訊建立方法相關之程式碼並執行以下步驟:
步驟S1 -經由該輸入單元12讀取二分別來自該二攝影機2在同一時間擷取的原始影像,該二原始影像之拍攝範圍至少部分重疊,且各該原始影像的重疊部分的內容包括一伸出的操作物。
本實施例中該伸出的操作物是使用者所伸出的手部,且是預設影像中的使用者是將操作物(例如手部)自然地朝前伸出,而非放在背後或頭上等等位置。
步驟S2 -將該二原始影像分別降低其解析度,產生二降階影像(如圖3)。其中降低解析度的方法很多,例如將各該原始影像中每兩個相鄰畫素取出一個,即可合成1/2 1/2倍畫素的降階影像,或是根據所需的倍率分配降階後畫素的位置,而對原始影像重新取樣。
步驟S3 -根據其一降階影像與一預設的載有臉部特徵 的臉部模板進行比對,辨識出一臉部範圍31(如圖4)。在本實例中是使用該左方攝影機的降階影像,但不以此為限,也可以用該右方攝影機的降階影像。
步驟S4 -根據該二降階影像計算其中多個具有相似特徵之畫素的位移量,得出一低階深度圖(如圖5),其中位移量越大表示深度越淺。
比較相似特徵的方法是,將其一降階影像(例如左邊的降階影像)切割成多個區塊(本實施例是使用大小相等的區塊),並將左圖的各該區塊與另一降階影像(例如右邊的降階影像)比較。比較時,對該另一降階影像的每一畫素定義出以該畫素為左上角且尺寸與該區塊相同的區域,並找出各該區域中影像差異最小的一對應的區域,則各該區塊及各該區塊所對應的各該區域即為所謂的「相似特徵」。
而關於影像差異大小的比較,舉例來說,欲比較一第一區塊與一第一區域的影像差異大小,是將該第一區塊的各畫素的畫素值分別與該第一區域中一相對位置相同(例如,都是第一列、第一行)的畫素的畫素值相減所得的各畫素的差值相加,得到一差值總和,該差值總和大小越小,表示影像差異越小。因此如果是灰階影像,可得一灰階值的差值總和,如果是彩色影像,則是先對每一彩色頻道(color channel)(如紅、綠、藍三個彩色頻道)計算該單一彩色頻道的差值總和,再全部相加,得到全部彩色頻道的差值總和,即可比較大小,決定出影像差異大小。
本步驟中,因為是使用該二降階影像來進行初步的深度圖計算,而非使用該二原始影像計算,如此可大幅減少深度圖的計算時間。
步驟S5 -根據該低階深度圖決定出一操作物範圍32(如圖6)。決定的方法是根據步驟S3中該辨識出的臉部範圍31在該低階深度圖中計算出該臉部範圍31(如圖6左邊的方框所標示)附近,深度與該臉部範圍31相近且較淺的範圍視為該操作物範圍32(如圖6右邊的方框所標示)。若步驟S3中辨識出多個臉部範圍,本步驟則是尋找該深度最淺的臉部範圍再據以進行操作物範圍的計算。在本實施例中,該操作物範圍即是一手部範圍。
步驟S6 -根據該操作物範圍32自該二原始影像中找出對應的二局部高階影像,並儲存於儲存單元13。在本步驟中,已可藉著從其一原始影像所找出的其一局部高階影像,辨識出該操作物。辨識出該操作物後,即可依據輪廓進一步進行操作物姿態辨識,也可在後續步驟中得到操作物深度資訊之後,整體進行較精細的操作物姿態辨識。
步驟S7 -根據該二局部高階影像計算其中多個具有相似特徵之畫素的位移量,得出一局部高階深度圖,並儲存於儲存單元13,其中位移量越大表示深度越淺,藉此從該等原始影像建立出操作物深度資訊。在本步驟中,因為是根據局部高階影像來進行局部的深度圖計算,可在大幅減少深度圖的計算時間的同時,兼顧了操作物深度資訊的解析度。
本步驟對該二局部高階影像中再計算該局部高階深度圖的理由是,若要供進一步做操作物姿態辨識時,在該低階深度圖中,由於解析度不足,無法用來辨識操作物中相鄰近的細微結構(例如手指),而在該局部高階深度圖中則可以辨識較微小的間距。當深度圖中能辨識出微小的間距,便能辨識深度圖中的操作物姿態等特徵,進而根據操作物姿態執行不同動作。
綜上所述,透過先將該二原始影像降低其解析度再找出操作物範圍32及對應的該二局部高階影像,與直接使用該二原始影像找出操作物相比能節省大量時間,接著產生局部高階深度圖而建立出高階的操作物深度資訊,以供後續辨識該操作物姿態時使用,整體而言節省時間又不失精確,故確實能達成本發明之目的。
惟以上所述者,僅為本發明之實施例而已,當不能以此限定本發明實施之範圍,即大凡依本發明申請專利範圍及發明說明內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。
1‧‧‧電子裝置
11‧‧‧處理器
12‧‧‧輸入單元
13‧‧‧儲存單元
2‧‧‧攝影機
31‧‧‧臉部範圍
32‧‧‧操作物範圍
S1至S7‧‧‧步驟
圖1是一方塊圖,說明本發明操作物辨識方法、操作物深度資訊建立方法及電子裝置的實施例;圖2是一流程圖,說明該實施例;圖3是二降階影像;圖4是其一降階影像,說明一臉部範圍的辨識;圖5是一低階深度圖;及 圖6是該低階深度圖,說明一操作物範圍的辨識。
S1至S7‧‧‧步驟

Claims (13)

  1. 一種操作物辨識方法,利用一電子裝置執行,該方法包含:(A)讀取二分別來自兩相間隔的攝影機在同一時間擷取的原始影像,該二原始影像之拍攝範圍至少部分重疊,且各該原始影像的重疊部分的內容包括一伸出的操作物;(B)將該二原始影像分別降低其解析度,產生二降階影像;(C)根據該二降階影像計算其中多個具有相似特徵之畫素的位移量,得出一低階深度圖,其中位移量越大表示深度越淺;(D)根據該低階深度圖決定出一操作物範圍;及(E)根據該操作物範圍自其一原始影像中找出對應的一局部高階影像,藉此從該原始影像辨識出該操作物。
  2. 根據申請專利範圍第1項所述操作物辨識方法,其中,步驟(B)後還包含:(B1)根據其一降階影像與一預設的載有臉部特徵的臉部模板進行比對,辨識出一臉部範圍;且步驟(D)是根據該辨識出的臉部範圍計算出與該臉部範圍鄰近的該操作物範圍。
  3. 根據申請專利範圍第2項所述操作物辨識方法,其中,步驟(D)中若辨識出多個臉部範圍,是尋找該深度最淺的臉部範圍附近,深度與該臉部範圍相近且較淺的範圍視為該操作物範圍。
  4. 根據申請專利範圍第1項所述操作物辨識方法,其中,該操作物為一手部,該操作物範圍為一手部範圍。
  5. 一種操作物深度資訊建立方法,利用一電子裝置執行,該方法包含:(a)讀取二分別來自兩相間隔的攝影機在同一時間擷取的原始影像,該二原始影像之拍攝範圍至少部分重疊,且各該原始影像的重疊部分的內容包括一伸出的操作物;(b)將該二原始影像分別降低其解析度,產生二降階影像;(c)根據該二降階影像計算其中多個具有相似特徵之畫素的位移量,得出一低階深度圖,其中位移量越大表示深度越淺;(d)根據該低階深度圖決定出一操作物範圍;(e)根據該操作物範圍自該二原始影像中找出對應的二局部高階影像;及(f)根據該二局部高階影像計算其中多個具有相似特徵之畫素的位移量,得出一局部高階深度圖,其中位移量越大表示深度越淺,藉此從該等原始影像建立出操作物深度資訊。
  6. 根據申請專利範圍第5項所述操作物深度資訊建立方法,其中,步驟(b)後還包含:(b1)根據其一降階影像與一預設的載有臉部特徵的臉部模板進行比對,辨識出一臉部範圍;且步驟(d)是根據該辨識出的臉部範圍計算出與該臉部範 圍鄰近的該操作物範圍。
  7. 根據申請專利範圍第6項所述操作物深度資訊建立方法,其中,步驟(d)中若辨識出多個臉部範圍,是尋找該深度最淺的臉部範圍附近,深度與該臉部範圍相近且較淺的範圍視為該操作物範圍。
  8. 根據申請專利範圍第5項所述操作物深度資訊建立方法,其中,該操作物為一手部,該操作物範圍為一手部範圍。
  9. 一種電子裝置,包含:一輸入單元,與兩相間隔的攝影機連接;一儲存單元,儲存一與操作物辨識方法、操作物深度資訊建立方法相關之程式碼;及一處理器,與該輸入單元及該儲存單元連接,讀取該與操作物辨識方法、操作物深度資訊建立方法相關之程式碼並執行以下步驟:(i)經由該輸入單元讀取二分別來自該二攝影機在同一時間擷取的原始影像,該二原始影像之拍攝範圍至少部分重疊,且各該原始影像的重疊部分的內容包括一伸出的操作物;(ii)將該二原始影像分別降低其解析度,產生二降階影像;(iii)根據該二降階影像計算其中多個具有相似特徵之畫素的位移量,得出一低階深度圖,其中位移量越大表示深度越淺;(iv)根據該低階深度圖決定出一操作物範圍;及 (v)根據該操作物範圍自其一原始影像中找出對應的一局部高階影像,並儲存於該儲存單元,藉此從該原始影像辨識出該操作物。
  10. 根據申請專利範圍第9項所述電子裝置,其中,步驟(v)還根據該操作物範圍自另一原始影像中找出對應的另一局部高階影像,並儲存於該儲存單元;該處理器還執行步驟(vi),根據該二局部高階影像計算其中多個具有相似特徵之畫素的位移量,得出一局部高階深度圖,並儲存於該儲存單元,其中位移量越大表示深度越淺,藉此從該等原始影像建立出操作物深度資訊。
  11. 根據申請專利範圍第9項所述電子裝置,其中,步驟(ii)後還包含:(ii-1)根據其一降階影像與一預設的載有臉部特徵的臉部模板進行比對,辨識出一臉部範圍;且步驟(iv)是根據該辨識出的臉部範圍計算出與該臉部範圍鄰近的該操作物範圍。
  12. 根據申請專利範圍第11項所述電子裝置,其中,步驟(iv)中若辨識出多個臉部範圍,是尋找該深度最淺的臉部範圍附近,深度與該臉部範圍相近且較淺的範圍視為該操作物範圍。
  13. 根據申請專利範圍第9項所述電子裝置,其中,該操作物為一手部,該操作物範圍為一手部範圍。
TW101123879A 2012-07-03 2012-07-03 操作物辨識方法、操作物深度資訊建立方法及電子裝置 TWI464692B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW101123879A TWI464692B (zh) 2012-07-03 2012-07-03 操作物辨識方法、操作物深度資訊建立方法及電子裝置
CN201210256506.XA CN103530597B (zh) 2012-07-03 2012-07-23 操作对象辨识和操作对象深度信息建立方法及电子装置
US13/792,101 US8948493B2 (en) 2012-07-03 2013-03-10 Method and electronic device for object recognition, and method for acquiring depth information of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101123879A TWI464692B (zh) 2012-07-03 2012-07-03 操作物辨識方法、操作物深度資訊建立方法及電子裝置

Publications (2)

Publication Number Publication Date
TW201403490A TW201403490A (zh) 2014-01-16
TWI464692B true TWI464692B (zh) 2014-12-11

Family

ID=49878139

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101123879A TWI464692B (zh) 2012-07-03 2012-07-03 操作物辨識方法、操作物深度資訊建立方法及電子裝置

Country Status (2)

Country Link
US (1) US8948493B2 (zh)
TW (1) TWI464692B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI736883B (zh) * 2018-04-28 2021-08-21 大陸商Oppo廣東移動通信有限公司 影像處理方法和電子設備

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI591584B (zh) * 2012-12-26 2017-07-11 財團法人工業技術研究院 三維感測方法與三維感測裝置
US10368662B2 (en) 2013-05-05 2019-08-06 Trax Technology Solutions Pte Ltd. System and method of monitoring retail units
US10387996B2 (en) 2014-02-02 2019-08-20 Trax Technology Solutions Pte Ltd. System and method for panoramic image processing
TWI489195B (zh) * 2014-02-10 2015-06-21 Etron Technology Inc 增加影像擷取系統偵測範圍的方法及其相關的影像擷取系統
US10402777B2 (en) * 2014-06-18 2019-09-03 Trax Technology Solutions Pte Ltd. Method and a system for object recognition
WO2015193877A1 (en) * 2014-06-18 2015-12-23 Trax Technology Solutions Pte. Ltd. A method and a system for object recognition
US10432842B2 (en) * 2015-04-06 2019-10-01 The Texas A&M University System Fusion of inertial and depth sensors for movement measurements and recognition
US10719971B2 (en) * 2018-05-25 2020-07-21 Microsoft Technology Licensing, Llc Low resolution depth pre-pass
CN114125417B (zh) * 2020-08-25 2024-06-14 北京小米移动软件有限公司 图像传感器、摄像装置、图像采集方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system
US20080122835A1 (en) * 2006-11-28 2008-05-29 Falco Jr Peter F Temporary Low Resolution Rendering of 3D Objects
US20110096832A1 (en) * 2009-10-23 2011-04-28 Qualcomm Incorporated Depth map generation techniques for conversion of 2d video data to 3d video data
US20110211073A1 (en) * 2010-02-26 2011-09-01 Research In Motion Limited Object detection and selection using gesture recognition

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1202214A3 (en) * 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
US7142209B2 (en) * 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US8279168B2 (en) * 2005-12-09 2012-10-02 Edge 3 Technologies Llc Three-dimensional virtual-touch human-machine interface system and method therefor
WO2008041178A2 (en) * 2006-10-04 2008-04-10 Koninklijke Philips Electronics N.V. Image enhancement
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
WO2011071467A1 (en) * 2009-12-09 2011-06-16 Thomson Licensing Method for distinguishing a 3d image from a 2d image and for identifying the presence of a 3d image format by feature correspondence determination
US8582866B2 (en) * 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
JP5100874B1 (ja) * 2011-08-31 2012-12-19 株式会社東芝 映像処理装置および映像処理方法
JP2013219421A (ja) * 2012-04-04 2013-10-24 Seiko Epson Corp 画像処理装置および画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system
US20080122835A1 (en) * 2006-11-28 2008-05-29 Falco Jr Peter F Temporary Low Resolution Rendering of 3D Objects
US20110096832A1 (en) * 2009-10-23 2011-04-28 Qualcomm Incorporated Depth map generation techniques for conversion of 2d video data to 3d video data
US20110211073A1 (en) * 2010-02-26 2011-09-01 Research In Motion Limited Object detection and selection using gesture recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI736883B (zh) * 2018-04-28 2021-08-21 大陸商Oppo廣東移動通信有限公司 影像處理方法和電子設備

Also Published As

Publication number Publication date
TW201403490A (zh) 2014-01-16
CN103530597A (zh) 2014-01-22
US8948493B2 (en) 2015-02-03
US20140009382A1 (en) 2014-01-09

Similar Documents

Publication Publication Date Title
TWI464692B (zh) 操作物辨識方法、操作物深度資訊建立方法及電子裝置
US10638117B2 (en) Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
JP5773944B2 (ja) 情報処理装置および情報処理方法
EP2521097B1 (en) System and Method of Input Processing for Augmented Reality
US8941687B2 (en) System and method of user interaction for augmented reality
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
US9507437B2 (en) Algorithms, software and an interaction system that support the operation of an on the fly mouse
US9053571B2 (en) Generating computer models of 3D objects
US8485668B2 (en) 3D interaction for mobile device
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10380796B2 (en) Methods and systems for 3D contour recognition and 3D mesh generation
US20170011496A1 (en) Image processing device and image processing method
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
JP2010205095A (ja) 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP5134409B2 (ja) プレゼンテーションシステム
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP2016525235A (ja) 文字入力のための方法及びデバイス
JP2014182662A (ja) 操作装置及び操作方法
US20200167005A1 (en) Recognition device and recognition method
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
US20190080511A1 (en) Three-dimensional model creating device
KR102554032B1 (ko) 신경망을 이용한 실내 공간 측정 방법 및 장치
KR102573934B1 (ko) 실내 공간 측정 방법 및 장치
TW201301877A (zh) 以影像感測器為基礎之具有多輸入模式之多維度遙控器
TWI522871B (zh) 光學觸控系統之物件影像之處理方法