TWI509466B - 物件辨識方法與裝置 - Google Patents

物件辨識方法與裝置 Download PDF

Info

Publication number
TWI509466B
TWI509466B TW103144596A TW103144596A TWI509466B TW I509466 B TWI509466 B TW I509466B TW 103144596 A TW103144596 A TW 103144596A TW 103144596 A TW103144596 A TW 103144596A TW I509466 B TWI509466 B TW I509466B
Authority
TW
Taiwan
Prior art keywords
image
preset
module
size
correction
Prior art date
Application number
TW103144596A
Other languages
English (en)
Other versions
TW201544995A (zh
Inventor
Chih Hsiang Yu
Mao Shys Fan Yang
wen wei Peng
Tzuan Ren Jeng
Hsien Chang Lin
Original Assignee
Ind Tech Res Inst
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ind Tech Res Inst filed Critical Ind Tech Res Inst
Priority to CN201410808883.9A priority Critical patent/CN105095849B/zh
Application granted granted Critical
Publication of TWI509466B publication Critical patent/TWI509466B/zh
Publication of TW201544995A publication Critical patent/TW201544995A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

物件辨識方法與裝置
本揭露為一種物件辨識方法與裝置,是關於一種利用斜面距離轉換的物件辨識方法與裝置。
如何支援物件辨識已成為智慧型眼鏡操作系統界面的基本技術特徵之一。然而,可攜式裝置,例如智慧型眼鏡,支援手勢辨識面臨一些問題。如何準確在三維辨識自由度(平移、縮放、旋轉)辨識個別資料,可能衍伸增加大量資料量處理,辨識耗時等難題,當手勢識應用別在影像擷取或錄影時,可容易地擷取並呈現使用者的手之多個影像。因為每一個使用者都有自己的手勢,使用者可能不會滿意僅用一個共通手勢之設定。
依據本揭露之一個或多個實施例中,提出一種物件辨識方法與裝置。在一實施例中,物件辨識方法可包括以下步驟,物件辨識裝置取得即時影像,即時影像包括第一物件。接著,對即時影像的第一物件執行斜面距離轉換(Chamfer Distance Transform,Chamfer DT),以產生斜面影像,斜面影像包括第一修正物件。接著,物件辨識裝置取得多個預設模組影像,每一個 預設模組影像包括第二物件。接著,對每一個預設模組影像的第二影像執行該斜面距離轉換,以產生多個斜面模組影像,每一個斜面模組影像包括第二修正物件。接著,物件辨識裝置判斷第一修正物件與所述多個第二修正物件其中之一之間的差異是否小於第一預設誤差閥值。當第一修正物件與所述多個第二修正物件其中之一之間的差異被判斷小於第一預設誤差閥值時,物件辨識裝置依據與被判斷出來的第二修正物件相關的預設模組影像,查找對應的控制命令,所述控制命令用以指示物件辨識裝置的操作。
依據本揭露一個或多個實施例中,提出一種物件辨識裝置。所述物件辨識裝置可包括第一影像擷取裝置、儲存裝置以及處理裝置。所述第一影像擷取裝置用於記錄即時影像,即時影像包括第一物件。所述儲存裝置用於儲存多個預設模組影像,每一個預設模組影像包括一第二物件。所述處理裝置連接到第一影像擷取裝置和儲存裝置,用於從第一影像擷取裝置接收即時影像,從儲存裝置接收所述多個預設模組影像。所述處理裝置對即時影像的第一物件執行斜面距離轉換,以產生斜面影像,斜面影像包括第一修正物件。所述處理裝置對每一個預設模組影像的第二影像執行斜面距離轉換,以產生多個斜面模組影像,斜面模組影像包括第二修正物件。所述處理裝置判斷第一修正物件與所述多個第二修正物件其中之一之間的差異是否小於一第一預設誤差閥值。當第一修正物件與所述多個第二修正物件其中之一之間的差異被判斷小於第一預設誤差閥值時,所述處理裝置依據與被判 斷出來的第二修正物件相關的預設模組影像,查找對應的控制命令,控制命令用以指示物件辨識裝置的操作。
依據本揭露一個或多個實施例中,提出一物件辨識裝置中的一種物件辨識方法。在一實施例中,所述物件辨識方法可包括以下步驟。物件辨識裝置自第一影像擷取裝置取得原始區塊影像。接著,對原始區塊影像執行影像前處理程序,以產生即時影像,即時影像包括第一物件。接著,對即時影像中的第一物件執行斜面距離轉換,以產生斜面影像,斜面影像包括第一修正物件。接著,取得多個預設模組影像,每一個預設模組影像包括第二物件。接著,對每一個預設模組影像的第二影像執行斜面距離轉換,以產生斜面模組影像,斜面模組影像包括第二修正物件模組影像。接著,判斷第一修正物件與所述多個第二修正物件其中之一之間的差異是否小於第一預設誤差閥值。當第一修正物件與所述多個第二修正物件其中之一之間的差異被判斷小於第一預設誤差閥值時,依據與被判斷出來的第二修正物件相關的該預設模組影像,查找對應的一控制命令,該控制命令用以指示物件辨識裝置的操作。
依據本揭露一個或多個實施例中,提出一物件辨識裝置中的一種物件辨識方法。在一實施例中,所述物件辨識方法可包括以下步驟。物件辨識裝置自第一影像擷取裝置取得即時影像,即時影像包括第一物件。接著,取得多個預設模組影像,每一個預設模組影像包括第二物件。接著,對即時影像中的第一物 件執行斜面距離轉換,以產生斜面影像,斜面影像包括第一修正物件。接著,對每一個預設模組影像的第二影像執行斜面距離轉換,以產生斜面模組影像,斜面模組影像包括第二修正物件。接著,判斷第一修正物件與每一個第二修正物件之間的差異是否小於預設誤差閥值。當第一修正物件與所述多個第二修正物件其中之一之間的差異被判斷小於預設誤差閥值時,依據與被判斷出來的第二修正物件相關的預設模組影像,查找對應的控制命令。當第一影像擷取裝置取得第一物件於一連串的多個後續即時影像中的移動,符合預設追踪模型時,發送控制命令,控制命令用以控制該物件辨識裝置。
為使本揭露能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下,但非用以限制本揭露之實施例範圍。
10‧‧‧物件辨識裝置
100、400‧‧‧影像擷取裝置
200‧‧‧處理裝置
300‧‧‧儲存裝置
310‧‧‧資料庫
320‧‧‧臨時資料儲存單元
第1圖,為本揭露一物件辨識裝置實施例的一方塊示意圖。
第2A圖,為本揭露一第一區塊影像實施例的示意圖。
第2B圖,為本揭露一第二區塊影像實施例的示意圖。
第2C圖,為本揭露一即時影像實施例的示意圖。
第3A圖,為本揭露一彩色區塊影像實施例的示意圖。
第3B圖,為本揭露一第3A圖的彩色區塊影像的一即時影像實施例示意圖。
第3C圖,為本揭露一彩色區塊影像另一實施例的示意圖。
第3D圖,為本揭露一第3C圖的彩色區塊影像的一即時影像實施例示意圖。
第4圖,為本揭露一深度區塊影像實施例的示意圖。
第5圖,為本揭露一物件辨識方法的實施例的流程圖。
第6圖,為本揭露一物件辨識方法另一實施例的流程圖。
第7A圖,為本揭露一原始區塊影像實施例的示意圖。
第7B圖,為本揭露一第7圖的原始區塊影像的一斜面影像實施例示意圖。
第7C圖,為本揭露一預設模組影像實施例的示意圖。
第7D圖,為本揭露一第7C圖的預設模組影像的一斜面影像實施例示意圖。
第8圖,為一物件辨識方法另一實施例的流程圖。
第9A圖,為本揭露一較大的手部區塊影像即時影像實施例的示意圖。
第9B圖,為本揭露一第9A圖的即時影像一預設模組影像實施例示意圖。
第9C圖,為本揭露一較小的手部區塊影像即時影像實施例的示意圖。
第9D圖,為本揭露一第9C圖的即時影像一預設模組影像實施例示意圖。
第10A圖,為本揭露一斜面影像進行縮放模組比對實施例的示意圖。
第10B圖,為本揭露一斜面影像進行平移模組比對實施例的示意圖。
第10C圖,為本揭露一斜面影像進行旋轉模組比對實施例的示意圖。
第11圖,為本揭露一動態物件訓練方法的一實施例的流程圖。
第12A圖,為本揭露一即時影像實施例的示意圖。
第12B圖,為本揭露一先前辨識影像實施例的示意圖。
第12C圖,為本揭露一預設模組影像實施例示意圖。
第12D圖,為本揭露一新的臨時參考影像實施例示意圖。
第13圖,為本揭露一物件辨識裝置另一實施例的方塊示意圖。
第14A圖,為一本揭露二個影像擷取裝置同時擷取一物件影像的實施例示意圖。
第14B圖,為一本揭露第14A圖的二個影像擷取裝置實施例示意圖。
以下在實施方式中詳細敘述本揭露之詳細特徵以及優點,其內容足以使任何熟習相關技藝者了解本揭露之技術內容並據以實施,且根據本說明書所揭露之內容、申請專利範圍及圖式,任何熟習相關技藝者可輕易地理解本揭露相關之目的及優點。以下之實施例係進一步詳細說明本揭露之觀點,但非以任何觀點限制本揭露之範疇。
本揭露之各種實施例中,係提出一種物件辨識方法 與裝置。在一實施例中,本揭露可以應用到一電子裝置(例如一智慧型眼鏡)可應用於物件辨識(例如手勢辨識)。因此,電子裝置可偵測到靜態或移動的物件(例如使用者的手),並可藉由一二維斜面距離轉換(Chamfer Distance Transform)(以下簡稱為2D Chamfer DT)偵測辨識影像形狀及/或多個手勢,以取得辨識結果。所述辨識結果可以被應用到任何可能的控制應用(啟動對應的應用),例如解開鎖定的螢幕、縮放螢幕上顯示的圖像、選擇螢幕上的圖像或物件或進行影像擷取。以下將描述本揭露物件辨識方法與裝置的一個或多個實施例。且為了能較清楚地描述,將以所述手勢辨識作為以下的實施例之說明。
請參閱「第1圖」,為本揭露一物件辨識裝置實施例的一方塊示意圖。物件辨識裝置10可包括:影像擷取裝100、處理裝置200以及儲存裝置300。處理裝置200可被耦接於影像擷取裝置100以及儲存裝置300之間。
影像擷取裝置100可在使用者所在之周圍環境中以連續或不連續的方式擷取使用者的手部影像(也就是第一物件)在多個原始區塊影像中。在一實施例中,影像擷取裝置100可以是但不限於,IR攝影機(IR(infrared)Camera))(或稱為紅外光攝影機)、彩色攝影機或深度攝影機。在一實施例中,IR攝影機可使用紅外光源相配合,以快門擷取周圍環境影像以輸出第一區塊影像(如第2A圖所示),亦可不使用紅外光源相配合擷取周圍環境影像以輸出第二區塊影像(如第2A圖所示)。所述第一區塊影像 的背景可以是但不限於,例如,與第二區塊影像相同的背景。在其他實施例中,彩色攝影機可以擷取的周圍環境影像以輸出彩色區塊影像(如第3A圖或第3C圖所示)。在其他實施例中,深度攝影機可以擷取周圍環境影像,以產生2D深度原始區塊影像圖。
在影像前處理過程中,所述處理裝置200會預處理接收自影像擷取裝置100中的每一個原始區塊影像,以產生用已被辨識的即時影像(即下文所謂的即時影像),並從儲存裝置300讀出一個或多個的預設模組影像,接著執行即時影像和所述一個或多個讀出的預設模組影像的物件辨識,以獲得辨識結果。處理裝置200可根據所述辨識結果執行相關於預設模組影像的控制命令,以進行後續操作模組影像。
儲存裝置300可包括資料庫310,用於儲存多個預設模組影像。這些預設模組影像分別對應於各自的控制命令,以控制物件辨識裝置10來解開被鎖定的螢幕、進行影像擷取並在螢幕上顯示縮放的圖片、影像或物件或進行其他適當的操作。在這個或一些實施例中,儲存裝置300可進一步包括臨時資料儲存單元320,用於儲存一個或多個臨時參考影像。
在影像前處理過程中,處理裝置200可以移除原始影像區塊中的背景。為了清楚地說明影像前處理過程,將以所述IR攝影機,彩色攝影機和深度攝影機的各種不同的實施例舉例如下。
在IR攝影機的情況下,處理裝置200比較第一影像 區塊(如第2A圖所示)與第二區塊影像(如第2B圖所示),以移除去所述第一區塊影像中的背景,並維持影像內容最大的區域(或稱為手部區域或第一物件),其中每一個畫素的亮度大於亮度臨界值的部分用以產生即時影像(如第2C圖所示),可呈現所述使用者的手。也就是說,即時影像是第一區塊影像被過濾/篩選(filter)後的內容,當然所述過濾/篩選(filter)不應將第一物件給過濾掉。第一區塊影像的第一物件,可以是但不限於是,使用者的手部。
在彩色攝影機的實施例中,所述處理裝置200非線性地轉換色彩區塊影像(color frame)的影像色域(color space),以使膚色與亮度無關,並且選擇膚色模型(或稱為預設色彩模型)。處理裝置200採用轉換結果和膚色模型以過濾大部分背景膚色(如第3A圖或第3C圖所示),以產生即時影像(如第3B圖或第3D圖所示)呈現使用者的手部。具體而言,處理裝置200,可以選定轉換過的原始區塊影像的最大區域,其可與預設顏色模型比對符合,然後將轉換過的原始區塊影像的最大區域,設定為第一物件。處理裝置200將轉換過的原始區塊影像設定為即時影像,當然第一物件在色彩區塊影像被過濾的過程中還是應被留下的。此外,在一或多個實施例中,處理裝置200還可以透過動態自我學習(dynamic self-training)的機制來學習目前使用者膚色,分析統計色彩區塊影像的影像色域(如第3B圖所示),過濾大部分背景膚色,依高斯機率分布(Gaussian distribution)限縮目前使用者 膚色範圍,使得所述即時影像(如第3D圖所示)可以僅呈現使用者的手部。
在深度攝影機的實施例中,所述處理裝置200可依據二維深度圖對原始區塊影像進行區塊影像分割,從而分為多個候選區塊影像,並過濾選定其中一個候選區塊影像作為第一物件。所述候選區塊影像的面積(即二維(2D)的大小)大於或等於一個誤差閥值區域,並且最接近深度攝影機。處理裝置200將過濾後的原始區塊影像設定為即時影像,當然第一物件在原始區塊影像被過濾的過程中還是應被留下的。請參閱「第4圖」,為本揭露一深度區塊影像實施例的示意圖。如圖所示,右手R被辨識為所述近端對象(即第一物件),可透過深度資訊判斷右手R影像的輪廓。
在其他實施例中,影像擷取裝置100可進一步在對原始區塊影像上執行影像的預處理,以直接輸出即時影像。據此,處理裝置200可以從影像擷取裝置100取得即時影像並執行斜面距離轉換,而不需進行影像的預處理。
在處理裝置200的一個或多個實施例中,可以進一步對預設模組影像及/或斜面影像進行平移(移動)、縮放及/或旋轉進行,使得處理裝置200可以容易地進行物件辨識,所述平移(移動)、縮放及/或旋轉的方法,將於後敘述明。
在物件辨識處理方法的一個或多個實施例中,處理裝置200可判斷所接收的即時影像是否比對符合其中一個預設模 組影像。處理裝置200可以執行斜面距離轉換於一個即時影像之第一物件(如第7A圖所示),以產生斜面影像(Chamfer image)(如第7B圖所示)。同時亦可對每一個預設模組影像的第二影像執行斜面距離轉換(如第7C圖所示),以產生多個斜面模組影像(Chamfer template)(如第7D圖所示)。例如,斜面距離轉換係執行於第一物件與第二物件的區塊影像邊緣輪廓或區塊影像骨架。所述斜面影像可包括參考第一物件所產生的第一修正物件,每一斜面模組影像可包括參考第二物件產生的第二修正物件。處理裝置200將斜面影像中的第一修正物件與每一個斜面模組影像中的第二修正物件進行比較,當斜面影像中的第一修正物件和任一斜面模組影像的第二修正物件比對不符合(辨識不成功或無辨識結果)時,處理裝置200不會輸出控制命令。當斜面影像中的第一修正物件和某一斜面模組影像中的第二修正物件所比對符合時,處理裝置200可比對成功的斜面模組影像對應到甚麼控制命令。從而,電子裝置可依據控制命令進行相關之操作。
在一實施例中,當斜面影像的第一修正物件和斜面模組影像的第二修正物件之間的差異小於第一預設誤差閥值時,斜面影像將被視為比對符合斜面模組影像,亦即,即時影像與預設模組影像比對符合。反之,斜面影像將被視為比對不符合斜面模組影像,亦即,即時影像與預設模組影像比對不符合。第一預設誤差閥值可例如為但不限於、峰值信噪比(PSNR,Peak signal-to-noise ratio)或均方根誤差值(MSE,Mean squared error)。
在一或多個實施例中,處理裝置200可以進一步透過動態模組影像學習機制(dynamic template training procedure)(或稱為手勢模組訓練程序)。在動態模組影像學習機制中,判斷即時影像與任何一個預設模組影像比對是否符合之前,處理裝置200可以進一步判斷即時影像是否與一先前辨識影像比對符合(或稱為現有的臨時參考影像),所述先前辨識影像,可例如為但不限於,先前的即時影像比對符合(比對成功)的預設模組影像。當即時影像比對符合先前辨識影像與預設模組影像時,即時影像可被設定為新的臨時參考影像至下一辨識任務。新的臨時參考影像可以取代現有臨時參考影像。
在一實施例中,判斷即時影像與先前辨識影像比對是否符合的方式,相似於判斷即時影像與預設模組影像比對是否符合的方式。處理裝置200可以對先前辨識影像中之第三物件執行斜面距離轉換,以產生斜面參考影像(Chamfer reference image),例如,斜面距離轉換係執行於第三物件與臨時參考影像的區塊影像邊緣輪廓或區塊影像骨架。所述斜面參考影像可包括參考第三物件而產生的第三修正物件。處理裝置200,可判斷當斜面影像中的第一修正物件和斜面參考影像的第三修正物件之間的差異是否小於第二預設誤差閥值。如果是,斜面影像將被視為比對符合的斜面參考模組影像,亦即,即時影像與先前辨識影像比對符合。如果不是這樣,斜面影像將被視為比對不符合斜面參 考模組影像,亦即,即時影像與先前辨識影像比對不符合。所述第二預設誤差閥值可例如為但不限於,峰值信噪比(PSNR,Peak signal-to-noise ratio)或均方根誤差值(MSE,Mean squared error)。
此外,先前辨識影像可以透過上述轉換(移動)、縮放及/或旋轉的程序,從而使即時影像和先前辨識影像之間有機會實現快速比對。
處理裝置200可以不僅辨識靜態物件,也可以辨識移動的物件。當依序辨識一連串的即時影像,並感測這些即時影像的第一物件的移動,判斷是否比對符合預設追踪模型時,處理裝置200可產生對應於預設追踪模型的控制命令。例如,處理裝置200首先針對多個即時影像中的第一個即時影像中的第一物件,選擇一個對應的控制命令。當第一物件在多個即時影像中呈現的移動比對符合預設追踪模型時,則處理裝置可輸出被選擇的控制命令,所述控致命令當然也對應於預設追踪模型。
如前述多個實施例,本揭露第1圖所述物件辨識裝置10的運作,可以概述在一或多個實施例中(容後詳述)。
請參閱「第5圖」,其為本揭露一物件辨識方法的實施例的流程圖。該處理裝置200物件辨識方法,可包括:步驟S120:接收從影像擷取裝置100中取得的原始區塊影像;步驟S140:執行前述的影像前處理程序以移除原始區塊影像中的背景以產生即時影像;步驟S160:執行物件辨識程序,判斷即時影像與一個儲 存在儲存裝置300的預設模組影像是否比對符合,以獲得辨識結果;以及步驟S180:依據辨識結果,輸出控制命令。原始區塊影像的獲取和影像前處理程序,亦可參照上述以第1圖之實施例應用,以下不再贅述。其他各種實施例應用,亦可以參照上述以第6圖至第8圖之實施例應用說明。
請參閱「第6圖」,其為本揭露一物件辨識方法另一實施例的流程圖。處理裝置200物件辨識方法,可包括:步驟S220:偵測使用者的手部區塊影像邊緣輪廓呈現在相關的原始區塊影像中,(如第7A圖所示),並執行上述的斜面距離轉於即時影像的第一物件,以產生斜面影像,(如第7B圖所示);步驟S240:偵測使用者的手部區塊影像邊緣輪廓呈現在相關的預設模組影像中,(如第7C圖所示),並執行上述的斜面距離轉在每一個預設模組影像的第二物件,以產生斜面模組影像,(如第7D圖所示);步驟S260:執行物件辨識程序,判斷斜面影像與一斜面模組影像是否比對符合,也就是判斷斜面影像與斜面模組影像的之差異是否小於第一預設誤差閥值,例如一個PSNR值或一個MSE值;步驟S262:判斷結果圍否,則即時影像將被定義為無效的影像,處理裝置200則不發送任何控制命令;以及步驟S264:若判斷結果為是,則即時影像將被定義為有效的影像,處理裝置200將發送對應於比對符合預設模組影像的控制命令。
請參閱「第8圖」,其為一物件辨識方法另一實施例的流程圖。在斜面影像與斜面模組影像被產生之前(如步驟S220 及步驟S240所示),可進一步調整預設模組影像,包括:步驟S211:偵測在「第9A圖」或「第9C圖」中在即時影像的第一物件(即,手部區塊影像區域)的第一中心P;步驟S212:依據第一中心P偵測在即時影像的第一物件手部區塊影像第一最大內切圓(MIC,Maximum inscribed circle);步驟S213:偵測在「第9B圖」或「第9D圖」中預設模組影像的第二物件(即,手部區塊影像區域)的第二中心Q;以及步驟S214:依據第二中心Q偵測預設模組影像的第二物件手部區塊影像第二最大內切圓MIC。第一最大內切圓越大,則預設模組影像也應越大,以這種方式,可以得知在即時影像的第一物件和預設模組影像的第二物件的位置、面積、形狀和尺寸。
當斜面影像與斜面模組影像被產生(步驟S220與步驟S240)後,處理裝置200更可以進行步驟S251:疊合斜面影像和斜面模組影像,根據斜面模組影像、尺寸縮放斜面模組影像大小,(如第10A圖所示);步驟S252:疊合斜面影像和斜面模組影像,根據斜面模組影像位置平移(轉換)斜面模組影像,(如第10B圖所示);以及步驟S253:疊合斜面影像和斜面模組影像,根據斜面模組影像第一中心P,第二中心Q,以及第一和第二最大內切圓旋轉斜面模組影像,(如第10C圖所示)。
在步驟S251的一個實施例中,處理裝置200可藉由一個縮放係數放大或縮小斜面模組影像,所述縮放係數可由計算第一修正物件於斜面影像中的第一面積與第二修正物件於斜面模 組影像的第二面積之比例而得;或可藉由計算第一最大內切圓的第三面積與第二最大內切圓的第四面積之比例而得;或可藉由計算第一最大內切圓的直徑(或半徑)與第二最大內切圓的直徑(或半徑)之比例而得;偵測手部最大內切圓中心及半徑,作為手部位置及尺寸,根據手部位置疊合模組影像、根據手部尺寸縮放模組大小,減少比對複雜度並快速辨識物件。
在步驟S252的一實施例中,處理裝置200可由比較第一中心P的位置與第二中心Q的位置,平移(轉換)第二修正物件於斜面模組影像的位置。
在步驟S253的一實施例中,處理裝置200可由比較第一第修正物件的位置與第二修正物件的位置,旋轉第一中心P於斜面模組影像中的位置。
此外,在執行斜面距離轉(如步驟S220和S240所示)之前;處理裝置200可藉由所述第一中心P、第二中心Q、第一和第二最大內切圓(例如疊合即時影像與預設模組影像)直接縮放大小、平移及/或旋轉預設模組影像。縮放大小、平移及/或旋轉預設模組影像,可參考縮放大小、平移及/或旋轉斜面模組影像的各種實施例應用,因此,以下將不再贅述。
在本揭露實施例中,步驟S220,S240,S260,S262和S264,可參閱「第6圖」,因此,以下將不再贅述。在一或多個實施例中,即時影像與預設模組影像被調整之後,處理裝置200,可比較疊合即時影像與預設模組影像的位置或斜面影像與斜 面模組影像的位置,以取得辨識結果。
請參閱「第11圖」,為本揭露一動態模組影像學習機制的一實施例的流程圖。在即時影像被產生(步驟S140所示)之後或之前(如第12A圖所示),處理裝置200自臨時資料儲存單元320,讀出先前辨識影像(或稱為臨時參考影像),(如第12B圖所示),並判斷所述即時影像是否與一先前辨識影像比對符合(如步驟S310所示)。處理設備200可對臨時參考影像中的第三物件執行該斜面距離轉換,以產生斜面參考影像,所述斜面參考影像包括第三修正物件。處理裝置200判斷第一修正物件與第三修正物件之間的差異是否小於第二預設誤差閥值,如PSNR值或MSE值。先前辨識影像可以是但不限於,偵測比對符合的先前即時影像與其相關的預設模組影像。
當即時影像與先前辨識影像比對不符合,即時影像將被定義為無效的影像(如步驟S320所示);當即時影像與先前辨識影像比對符合時,處理裝置200,可進一步判斷當即時影像與預設模組影像比對是否符合(如第12C圖所示),(如步驟S330所示)。當即時影像與預設模組影像比對不符合,即時影像將被定義為無效的影像(如步驟S320所示);否則,即時影像將被定義為有效的影像,即時影像可被設定為新的臨時參考影像,(如第12D圖所示)至下一辨識任務(如步驟S340所示),新臨時參考影像被儲存在臨時資料儲存單元320,以取代目前的臨時參考影像。
在本實施例中,判斷當即時影像與預設模組影像比對是否符合,可參考前述一個或多個物件辨識方法實施例的各種實施例應用,因此,以下將不再贅述。
透過動態物件訓練方法過程中,臨時資料儲存單元320中的資料可被更新。因此,物件辨識裝置10的所有者,可建立其專屬的參考物件,然後儲存在所述臨時資料儲存單元320,可以直接被用來執行物件辨識程序,以獲得辨識結果。這可能會降低影像比對的次數,減少比對複雜度並快速辨識物件。
如前所述,本揭露可以應用到一電子裝置,可應用於辨識使用者的手部形狀,甚至追踪使用者手部的移動,電子裝置將根據辨識結果產生的控制命令進行操作。在下述的一個或多個實施例中,將以一智慧型眼鏡作為電子裝置的一實施例說明。
請參閱「第1圖」,所述智慧型眼鏡可例如包括第1圖中的物件辨識裝置10。處理裝置200辨識使用者的手部形狀,藉由影像擷取裝置100輸出一糸列原始區塊影像,偵測使用者手部的移動。影像擷取裝置100可包括一觀測範圍(FOV,Field of view),觀測範圍包括一個預設感測區域,預設感測區域小於或等於觀測範圍。影像擷取裝置100,可例如是但不限於,彩色攝影機或深度攝影機。
當多個即時影像,從多個原始區塊影序列與預設模組影像比對符合而產生時,對應於預設模組影像的控制命令會被選擇。當這些多個即時影像的第一物件移動而脫離預設感測區域 時,處理裝置200將視為第一物件的移動與預設追蹤模組影像比對符合。因此,處理裝置200會輸出一對應於預設模組影像的控制命令來控制影像擷取裝置100,以執行影像擷取控制命令。在其他多個實施例中,預設追蹤模組影像,可以是但不限於,是一個圓或該第一物件移動的曲線。
請參閱「第13圖」,為本揭露一物件辨識裝置另一實施例的方塊示意圖。所述智慧型眼鏡,可包括,「第13圖」的一物件辨識裝置,在「第13圖」的物件辨識裝置,與「第1圖」的物件辨識裝置10相似,可進一步包括影像擷取裝置400。影像擷取裝置400被電性連接至處理裝置200。例如,影像擷取裝置100是一個IR攝影機、彩色攝影機或一個深度攝影機,而影像擷取裝置400是一個彩色攝影機或深度攝影機。
影像擷取裝置400協同影像擷取裝置100擷取影像,由於影像擷取裝置100和400可被緊密地設置,擷取影像擷取裝置400類似於影像擷取裝置100,(如第14A圖所示)。一影像擷取裝置100的第一觀測範圍FOV1,可例如是但不限於,是大於一影像擷取裝置400的第二觀測範圍FOV2(如第14B圖所示)。從而使得影像擷取裝置100的第一觀測範圍FOV1,可大於影像擷取裝置400的第二觀測範圍FOV2。影像擷取裝置400,可依據一控制命令被驅動擷取使用者希望擷取的影像。
例如,一辨識情況(手部物件)產生控制命令,是基於如「第14A圖」所示,使用者的手部形狀和該使用者的手離 開影像擷取裝置400的第二觀測範圍FOV2時,當感測第一物件存在於由影像擷取裝置100所輸出的多個原始區塊影像時,處理裝置200,可執行如前所述物件辨識方法,來辨識使用者的手部形狀,甚至使用者的手部移動。一旦辨識結果顯示,使用者的手部形狀,和使用者的手部移動情況比對符合該辨識情況時,處理裝置200,將會傳送一對應的控制命令來控制影像擷取裝置400,以執行使用者所需的一個或多個影像擷取。
在其他多個實施例中,不同的辨識情況可以根據不同的應用需要來設置。
在一個實施例中,使用者的手部形狀相同和不同的手部移動方向,可顯示在影像擷取裝置400,開始記錄攝影或拍攝影像。例如,當使用者的五個手指合起來和使用者的手從影像擷取裝置400的第二觀測範圍FOV2由左至右移動,對應於所述辨識情況的控制命令,可顯示在影像擷取裝置400開始記錄攝影。例如,當使用者的五個手指合起來和使用者的手從影像擷取裝置400的第二觀測範圍FOV2從上往下移動,對應於所述辨識情況的控制命令,可顯示在影像擷取裝置400開始拍照。
在另一實施例中,使用者不同的手部形狀相同和任何移動的手部方向,可顯示在影像擷取裝置400開始記錄攝影或拍攝影像。例如,當使用者的五個手指合起來和使用者的手從影像擷取裝置400的第二觀測範圍FOV2從上往下移動,對應於所述辨識情況的控制命令,可顯示在影像擷取裝置400開始拍照。 例如,當使用者的五個手指合起來和使用者的手從影像擷取裝置400的第二觀測範圍FOV2從上往下移動,對應於所述辨識情況的控制命令,可顯示在影像擷取裝置400開始記錄攝影。
因此,本揭露可採用斜面距離轉影像與模組影像,快速比對,減少辨識資料量,本揭露亦可透過動態模組學習機制學習方法,使得辨識的程度可能變得更穩定,並且使用者可建立其個人的參考物件,提供個人化操作介面。如果本揭露被應用在具攝影、照相功能的智慧型眼鏡,使用者的手勢操作,可避免拍照或錄影時手部介入拍錄影像之手勢辨識FOV觀測範圍。
本揭露前述之實施例,其並非用以限定本揭露。在不脫離本揭露之精神和範圍內,所為之更動與潤飾,均屬本揭露之專利保護範圍。
10‧‧‧物件辨識裝置
100‧‧‧影像擷取裝置
200‧‧‧處理裝置
300‧‧‧儲存裝置
310‧‧‧資料庫
320‧‧‧臨時資料儲存單元

Claims (35)

  1. 一種物件辨識方法,應用於一物件辨識裝置,所述方法包括:取得一即時影像,該即時影像包括一第一物件;對該即時影像的該第一物件執行一斜面距離轉換,以產生一斜面影像,該斜面影像包括一第一修正物件;取得多個預設模組影像,每一該預設模組影像包括一第二物件;對每一該預設模組影像的該第二影像執行該斜面距離轉換,以產生多個斜面模組影像,每一該斜面模組影像包括一第二修正物件;判斷該第一修正物件與該些第二修正物件其中之一之間的差異是否小於一第一預設誤差閥值;以及當該第一修正物件與該些第二修正物件其中之一之間的差異被判斷小於該第一預設誤差閥值時,依據與被判斷出來的該第二修正物件相關的該預設模組影像,查找對應的一控制命令,該控制命令用以指示該物件辨識裝置的操作。
  2. 如請求項1所述之物件辨識方法,更包括:比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些預設模組影像;以及當該第一物件的大小或位置不同於該些第二物件其中之一的大小或位置時,調整大小或位置不同的該第二物件對應的該預設模組影像。
  3. 如請求項2所述之物件辨識方法,其中於比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些預設模組影像的步驟中,包括:偵測該第一物件的一第一中心;依據該第一物件的該第一中心,偵測一第一最大內切圓;偵測每一該第二物件的一第二中心;依據每一該第二物件的該第二中心,偵測多個第二最大內切圓;判斷該第一最大內切圓的大小或位置是否與該些第二最大內切圓其中之一的大小或位置相同;以及當該第一最大內切圓的大小或位置與該些第二最大內切圓其中之一的大小或位置不同時,調整大小或位置不同的該第二最大內切圓的該預設模組影像。
  4. 如請求項3所述之物件辨識方法,其中於調整對應該第二最大內切圓的該預設模組影像的步驟,包括縮放大小、平移及/或旋轉該預設模組影像中的該第二物件。
  5. 如請求項1所述之物件辨識方法,更包括:比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些斜面模組影像;以及 當該第一物件的大小或位置不同於該些第二物件其中之一的大小或位置時,調整大小或位置不同的該第二物件對應的該斜面模組影像。
  6. 如請求項5所述之物件辨識方法,其中於比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些斜面模組影像的步驟中,包括:偵測該第一修正物件的一第三中心;依據該第一修正物件的該第三中心,偵測一第三最大內切圓;偵測每一該第二修正物件的一第四中心;依據每一該第二修正物件的該第四中心,偵測多個第四最大內切圓;判斷該第三最大內切圓的大小或位置是否與每一該第四最大內切圓的大小或位置相同;以及當該第三最大內切圓的大小或位置與該些第四最大內切圓其中之一的大小或位置不同時,調整大小或位置不同的該第四最大內切圓的該斜面模組影像。
  7. 如請求項1所述之物件辨識方法,其中該斜面距離轉換係執行於該第一物件與該第二物件的區塊影像邊緣輪廓或區塊影像骨架。
  8. 如請求項1所述之物件辨識方法,其中當該第一物件於一連串的多個後續即時影像中的移動符合一預設追踪模型時,發送該控制命令。
  9. 一種物件辨識裝置,包括:一第一影像擷取裝置,用於記錄一即時影像,該即時影像包括一第一物件;一儲存裝置,用於儲存多個預設模組影像,每一該預設模組影像包括一第二物件;以及一處理裝置,連接到該第一影像擷取裝置和該儲存裝置,用於從該第一影像擷取裝置接收該即時影像,從該儲存裝置接收該些預設模組影像,並執行以下步驟:對該即時影像的該第一物件執行一斜面距離轉換,以產生一斜面影像,該斜面影像包括一第一修正物件;對每一該預設模組影像的該第二影像執行該斜面距離轉換,以產生多個斜面模組影像,該斜面模組影像包括一第二修正物件;判斷該第一修正物件與該些第二修正物件其中之一之間的差異是否小於一第一預設誤差閥值;以及當該第一修正物件與該些第二修正物件其中之一之間的差異被判斷小於該第一預設誤差閥值時,依據與被判斷出來的該第二修正物件相關的該預設模組影像,查找對應的一控制命令,該控制命令用以指示該物件辨識裝置的操作。
  10. 如請求項9所述之物件辨識裝置,其中該處理裝置,更用以比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些預設模組影像,以及當該第一物件的大小或位置不同於該些第二物件其中之一的大小或位置時,調整大小或位置不同的該第二物件對應的該預設模組影像。
  11. 如請求項10所述之物件辨識裝置,其中該處理裝置,更用以偵測該第一物件的一第一中心,依據該第一物件的該第一中心,偵測一第一最大內切圓,偵測每一該第二物件的一第二中心,依據每一該第二物件的該第二中心,偵測多個第二最大內切圓,判斷該第一最大內切圓的大小或位置是否與該些第二最大內切圓其中之一的大小或位置相同,當該第一最大內切圓的大小或位置與該些第二最大內切圓其中之一的大小或位置不同時,調整大小或位置不同的該第二最大內切圓的該預設模組影像。
  12. 如請求項10所述之物件辨識裝置,其中於調整對應該第二最大內切圓的該預設模組影像時,該處理裝置縮放大小、平移及/或旋轉該預設模組影像中的該第二物件。
  13. 如請求項9所述之物件辨識裝置,其中該處理裝置更用以比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些斜面模組影像,以及當該第一物件的大小或位置不同於該些第二物件其中之一的大小或位置時,調整大小或位置不同的該第二物件對應的該斜面模組影像。
  14. 如請求項13所述之物件辨識裝置,其中該處理裝置更用以偵測該第一修正物件的一第三中心,依據該第一修正物件的該第三中心,偵測一第三最大內切圓,偵測每一該第二修正物件的一第四中心,依據每一該第二修正物件的該第四中心,偵測多個第四最大內切圓,判斷該第三最大內切圓的大小或位置是否與每一該第四最大內切圓的大小或位置相同,當該第三最大內切圓的大小或位置與該些第四最大內切圓其中之一的大小或位置不同時,調整大小或位置不同的該第四最大內切圓的該斜面模組影像。
  15. 如請求項9所述之物件辨識裝置,其中該斜面距離轉換係執行於該第一物件與該第二物件的區塊影像邊緣輪廓或區塊影像骨架。
  16. 如請求項9所述之物件辨識裝置,其中當該第一物件於一連串的多個後續即時影像中的移動符合一預設追踪模型時,該處理裝置發送該控制命令。
  17. 如請求項16所述之物件辨識裝置,其中該第一影像擷取裝置具有一觀測範圍,該觀測範圍一預設感測區域,該預設感測區域小於或等於該觀測範圍,以及當該第一物件於一連串的該些後續即時影像中的移動超出該預設感測區域時,該處理裝置發送的該控制命令係控制該第一影像擷取裝置擷取影像。
  18. 如請求項16所述之物件辨識裝置,其中該第一影像擷取裝置具有一第一觀測範圍,該物件辨識裝置更包括一第二影像擷取 裝置,該第二影像擷取裝置具有一第二觀測範圍,該第一觀測範圍大於或等於該第二觀測範圍,當該第一物件於一連串的該些後續即時影像中的移動係超出該第二觀測範圍而仍在該第一觀測範圍內時,該處理裝置發送的該控制命令係控制該第二影像擷取裝置擷取影像。
  19. 一種物件辨識方法,應用到一物件辨識裝置,所述物件辨識方法包括:自一第一影像擷取裝置取得一原始區塊影像;對該原始區塊影像執行一影像前處理程序,以產生一即時影像,該即時影像包括一第一物件;對該即時影像中的該第一物件執行一斜面距離轉換,以產生一斜面影像,該斜面影像包括一第一修正物件;取得多個預設模組影像,每一該預設模組影像包括一第二物件;對每一該預設模組影像的該第二影像執行該斜面距離轉換,以產生一斜面模組影像,該斜面模組影像包括一第二修正物件模組影像;判斷該第一修正物件與該些第二修正物件其中之一之間的差異是否小於一第一預設誤差閥值;以及當該第一修正物件與該些第二修正物件其中之一之間的差異被判斷小於該第一預設誤差閥值時,依據與被判斷出來的該第二修正物件相關的該預設模組影像,查找對應的一控 制命令,該控制命令用以指示該物件辨識裝置的操作模組影像。
  20. 如請求項19所述之物件辨識方法,更包括:比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些預設模組影像模組影像;以及當該第一物件的大小或位置不同於該些第二物件其中之一的大小或位置時,調整大小或位置不同的該第二物件對應的該預設模組影像模組影像。
  21. 如請求項20所述之物件辨識方法,其中於比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些預設模組影像的步驟中模組影像,包括:偵測該第一物件的一第一中心;依據該第一物件的該第一中心,偵測一第一最大內切圓;偵測每一該第二物件的一第二中心;依據每一該第二物件的該第二中心,偵測每一該第二物件中的一第二最大內切圓;判斷該第一最大內切圓的大小或位置是否與該些第二最大內切圓其中之一的大小或位置相同;以及當該第一最大內切圓的大小或位置與該些第二最大內切圓其中之一的大小或位置不同時,調整大小或位置不同的該第二最大內切圓的該預設模組影像模組影像。
  22. 如請求項19所述之物件辨識方法,更包括:比較該第一物件與該些第二物件的大小或位置,以決定是否要調整該些斜面模組影像;以及當該第一物件的大小或位置不同於該些第二物件其中之一的大小或位置時,調整大小或位置不同的該第二物件對應的該斜面模組影像。
  23. 如請求項22所述之物件辨識方法,更包括:偵測該第一修正物件的一第三中心;依據該第三中心,偵測該第一修正物件中的一第三最大內切圓;偵測每一該第二修正物件的一第四中心;依據每一該第四中心,偵測每一該第二修正物件中的一第四最大內切圓;判斷該第三最大內切圓的大小或位置是否與每一該第四最大內切圓的大小或位置相同;以及當該第三最大內切圓的大小或位置與該些第四最大內切圓其中之一的大小或位置不同時,調整大小或位置不同的該第四最大內切圓的該斜面模組影像。
  24. 如請求項19所述之物件辨識方法,其中該斜面距離轉換係執行於該第一物件與該第二物件的區塊影像邊緣輪廓或區塊影像骨架。
  25. 如請求項19所述之物件辨識方法,更包括: 取得一臨時參考影像,該臨時參考影像包括一第三物件;對該臨時參考影像中的該第三物件執行該斜面距離轉換,以產生一斜面參考影像,該斜面參考影像包括一第三修正物件;判斷該第一修正物件與該第三修正物件之間的差異是否小於一第二預設誤差閥值;當該第一修正物件和該第三修正物件之間的差異小於該第二預設誤差閥值,執行判斷該第一修正物件與該些第二修正物件其中之一之間的差異是否小於該第一預設誤差閥值的步驟;以及當該第一修正物件與該些第二修正物件其中之一之間的差異被判斷小於該第一預設誤差閥值時,以該即時影像取代該臨時參考影像。
  26. 如請求項25所述之物件辨識方法,其中該斜面距離轉換係執行於該第三物件與該臨時參考影像的區塊影像邊緣輪廓或區塊影像骨架。
  27. 如請求項19所述之物件辨識方法,其中當該第一物件於一連串的多個後續即時影像中的移動符合一預設追踪模型時,發送該控制命令,且所述一連串的該些後續即時影像係產生自一連串的多個後續原始區塊影像。
  28. 如請求項27所述之物件辨識方法,其中該第一影像擷取裝置具有一觀測範圍,該觀測範圍包括一個預設感測區域,該預設感測區域小於或等於該觀測範圍:當該第一物件於一連串的該些後續即時影像中的移動超出該預設感測區域時,該控制命令係被發送以控制該第一影像擷取裝置擷取影像。
  29. 如請求項27所述之物件辨識方法,其中該物件辨識裝置更包括一第二影像擷取裝置,該第一影像擷取裝置具有一第一觀測範圍,該第二影像擷取裝置具有一第二觀測範圍,該第一觀測範圍大於或等於該第二觀測範圍,當該第一物件於一連串的該些後續即時影像中的移動係超出該第二觀測範圍而仍在該第一觀測範圍內時,被發送的該控制命令係控制該第二影像擷取裝置擷取影像。
  30. 如請求項19所述之物件辨識方法,其中該第一物件是一使用者的手部。
  31. 一種物件辨識方法,應用到物件辨識裝置,包括:自一第一影像擷取裝置取得一即時影像,該即時影像包括一第一物件;取得多個預設模組影像,每一該預設模組影像包括一第二物件;對該即時影像中的該第一物件執行一斜面距離轉換,以產生一斜面影像,該斜面影像包括一第一修正物件; 對每一該預設模組影像的該第二影像執行該斜面距離轉換,以產生一斜面模組影像,該斜面模組影像包括一第二修正物件;判斷該第一修正物件與每一該第二修正物件之間的差異是否小於一預設誤差閥值;以及當該第一修正物件與該些第二修正物件其中之一之間的差異被判斷小於該預設誤差閥值時,依據與被判斷出來的該第二修正物件相關的該預設模組影像,查找對應的一控制命令;以及當該第一影像擷取裝置取得該第一物件於一連串的多個後續即時影像中的移動,符合一預設追踪模型時,發送該控制命令,該控制命令用以控制該物件辨識裝置模組影像。
  32. 如請求項31所述之物件辨識方法,其中該第一影像擷取裝置具有一觀測範圍,該觀測範圍包括一預設感測區域,該預設感測區域小於或等於該觀測範圍,以及當該第一物件於一連串的該些後續即時影像中的移動超出該預設感測區域時,該控制命令係被發送以控制該第一影像擷取裝置擷取影像。
  33. 如請求項31所述之物件辨識方法,其中該物件辨識裝置更包括一第二影像擷取裝置,該第一影像擷取裝置具有一第一觀測範圍以提供該即時影像,該第二影像擷取裝置具有一第二觀測範圍,該第一觀測範圍大於或等於該第二觀測範圍,當該第一物件於一連串的該些後續即時影像中的移動係超出該第二觀 測範圍而仍在該第一觀測範圍內時,被發送的該控制命令係控制該第二影像擷取裝置擷取影像。
  34. 如請求項31所述之物件辨識方法,其中該第一物件是一使用者的手部。
  35. 如請求項31所述之物件辨識方法,其中該物件辨識裝置是一智慧型眼鏡。
TW103144596A 2014-05-23 2014-12-19 物件辨識方法與裝置 TWI509466B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410808883.9A CN105095849B (zh) 2014-05-23 2014-12-23 对象识别方法与装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462002498P 2014-05-23 2014-05-23
US14/569,198 US9400924B2 (en) 2014-05-23 2014-12-12 Object recognition method and object recognition apparatus using the same

Publications (2)

Publication Number Publication Date
TWI509466B true TWI509466B (zh) 2015-11-21
TW201544995A TW201544995A (zh) 2015-12-01

Family

ID=54556279

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103144596A TWI509466B (zh) 2014-05-23 2014-12-19 物件辨識方法與裝置

Country Status (2)

Country Link
US (1) US9400924B2 (zh)
TW (1) TWI509466B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2532075A (en) * 2014-11-10 2016-05-11 Lego As System and method for toy recognition and detection based on convolutional neural networks
US20170177087A1 (en) * 2015-12-18 2017-06-22 Intel Corporation Hand skeleton comparison and selection for hand and gesture recognition with a computing interface
KR102450803B1 (ko) * 2016-02-11 2022-10-05 한국전자통신연구원 양방향 수화 번역 장치 및 장치가 수행하는 양방향 수화 번역 방법
KR102623989B1 (ko) * 2016-08-01 2024-01-11 삼성전자주식회사 영상 처리 방법 및 이를 지원하는 전자 장치
JP6236600B1 (ja) * 2017-06-02 2017-11-29 株式会社Gpro 飛行パラメータ測定装置及び飛行パラメータ測定方法
JP6968342B2 (ja) * 2017-12-25 2021-11-17 オムロン株式会社 物体認識処理装置、物体認識処理方法及びプログラム
CN109948461B (zh) * 2019-02-27 2020-11-17 浙江理工大学 一种基于质心定位和距离变换的手语图像分割方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200725380A (en) * 2005-12-16 2007-07-01 Ind Tech Res Inst Motion recognition system and method for controlling electronic devices
TW201228357A (en) * 2010-11-12 2012-07-01 Sisvel Technology Srl Method for processing a three-dimensional video content and relative apparatus
CN101332362B (zh) * 2008-08-05 2012-09-19 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
US8570383B2 (en) * 2008-10-23 2013-10-29 Fraunhofer-Gesellschaft zur Foerderung der Angewandten Forschun e.V. Apparatus, method and computer program for recognizing a gesture in a picture, and apparatus, method and computer program for controlling a device
CN103649967A (zh) * 2011-06-23 2014-03-19 阿尔卡特朗讯 动态手势识别方法和编辑系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
TWI395145B (zh) 2009-02-02 2013-05-01 Ind Tech Res Inst 手勢辨識系統及其方法
US8600166B2 (en) 2009-11-06 2013-12-03 Sony Corporation Real time hand tracking, pose classification and interface control
US8306314B2 (en) 2009-12-28 2012-11-06 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of objects
US8625897B2 (en) * 2010-05-28 2014-01-07 Microsoft Corporation Foreground and background image segmentation
WO2012081012A1 (en) 2010-12-16 2012-06-21 Pointgrab Ltd. Computer vision based hand identification
TWI394087B (zh) 2010-12-31 2013-04-21 Ind Tech Res Inst 追蹤目標物的方法及裝置
KR20130105725A (ko) 2011-01-06 2013-09-25 포인트그랩 엘티디. 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전
US9235241B2 (en) 2012-07-29 2016-01-12 Qualcomm Incorporated Anatomical gestures detection system using radio signals
KR101947034B1 (ko) 2012-08-21 2019-04-25 삼성전자 주식회사 휴대 기기의 입력 장치 및 방법
CN103559489B (zh) 2013-11-19 2017-11-07 沈阳工业大学 一种非接触成像方式下手掌特征提取方法
US9704268B2 (en) * 2014-01-09 2017-07-11 Avago Technologies General Ip (Singapore) Pte. Ltd. Determining information from images using sensor data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200725380A (en) * 2005-12-16 2007-07-01 Ind Tech Res Inst Motion recognition system and method for controlling electronic devices
CN101332362B (zh) * 2008-08-05 2012-09-19 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
US8570383B2 (en) * 2008-10-23 2013-10-29 Fraunhofer-Gesellschaft zur Foerderung der Angewandten Forschun e.V. Apparatus, method and computer program for recognizing a gesture in a picture, and apparatus, method and computer program for controlling a device
TW201228357A (en) * 2010-11-12 2012-07-01 Sisvel Technology Srl Method for processing a three-dimensional video content and relative apparatus
CN103649967A (zh) * 2011-06-23 2014-03-19 阿尔卡特朗讯 动态手势识别方法和编辑系统

Also Published As

Publication number Publication date
US20150339520A1 (en) 2015-11-26
US9400924B2 (en) 2016-07-26
TW201544995A (zh) 2015-12-01

Similar Documents

Publication Publication Date Title
TWI509466B (zh) 物件辨識方法與裝置
US10929646B2 (en) Method and apparatus for image processing, and computer-readable storage medium
KR102117050B1 (ko) 이미지 내 휴먼 분리를 위한 전자 장치 및 방법
JP5538617B2 (ja) 複数カメラのキャリブレーション用の方法および構成
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
US20120170804A1 (en) Method and apparatus for tracking target object
US20140022351A1 (en) Photographing apparatus, photographing control method, and eyeball recognition apparatus
TWI709110B (zh) 攝像頭校準方法和裝置、電子設備
JP2005228042A (ja) 顔識別装置、顔識別方法及び顔識別プログラム
CN107301665A (zh) 具有可变焦光学摄像头的深度摄像头及其控制方法
CN109657576B (zh) 图像采集控制方法、装置、存储介质及系统
KR20090087670A (ko) 촬영 정보 자동 추출 시스템 및 방법
EP3093822B1 (en) Displaying a target object imaged in a moving picture
CN106462738B (zh) 用于构建个人的面部的模型的方法、用于使用这样的模型分析姿态的方法和设备
CN109559353A (zh) 摄像模组标定方法、装置、电子设备及计算机可读存储介质
WO2022237048A1 (zh) 位姿获取方法、装置、电子设备、存储介质及程序
JP2009047497A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP2009047498A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
KR20150107580A (ko) 화상 처리 장치 및 화상 처리 방법
KR20120020711A (ko) 물체 인식 시스템 및 그 물체 인식 방법
CN105095849B (zh) 对象识别方法与装置
US9049382B2 (en) Image processing apparatus and image processing method
JP6161874B2 (ja) 撮像装置、長さ計測方法及びプログラム
US10013736B1 (en) Image perspective transformation system
Loohuis Synthesising Security Camera Images for Face Recognition