JP6221505B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6221505B2
JP6221505B2 JP2013172495A JP2013172495A JP6221505B2 JP 6221505 B2 JP6221505 B2 JP 6221505B2 JP 2013172495 A JP2013172495 A JP 2013172495A JP 2013172495 A JP2013172495 A JP 2013172495A JP 6221505 B2 JP6221505 B2 JP 6221505B2
Authority
JP
Japan
Prior art keywords
feature amount
time
image processing
finger
luminance gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013172495A
Other languages
English (en)
Other versions
JP2015041279A (ja
Inventor
厚憲 茂木
厚憲 茂木
厚一郎 新沼
厚一郎 新沼
松田 高弘
高弘 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013172495A priority Critical patent/JP6221505B2/ja
Priority to US14/285,826 priority patent/US20150055836A1/en
Priority to EP14170756.2A priority patent/EP2840527A1/en
Publication of JP2015041279A publication Critical patent/JP2015041279A/ja
Application granted granted Critical
Publication of JP6221505B2 publication Critical patent/JP6221505B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば、ユーザの手指の検知に用いる画像処理装置、画像処理方法および画像処理プログラムに関する。
従来から、プロジェクタを用いて文書画像を投影する方法が用いられている。近年においては、手指の動きなどのジェスチャーを用い、投影された投影画像に対してインタラクション操作を行うことで、ユーザの作業支援を実現させる為の技術が開発されている。例えば、投影画像に含まれる任意の単語を手指で示した場合、当該単語に関連付けられた注釈などを提示する拡張現実感(Augmented Reality:AR)技術が開発されている。
上述のインタフェースでは、任意の場所に固定されたカメラ、または自由に移動が可能なカメラを用いて、ユーザの手指の位置を正確に特定することが必要となる。手指の位置を特定する方法として、例えば、撮像画像から、例えば肌色の色成分(色特徴量)を抽出することで、手領域輪郭を抽出し、当該手領域輪郭から手指の位置を特定する技術が開示されている。
C. Prema et al., "Survey on Skin Tone Detection using Color Spaces," International Journal of Applied Information Systems, 2(2):18-26, May 2012, Published by Foundation of Computer Science, New York, USA.
上述の色特徴量を用いるユーザの手指の位置を検出する方法は、演算負荷(処理コスト)が比較的小さく、高速な処理が可能である特徴を有する。しかしながら、色特徴量を用いるユーザの手指の位置を検出する方法においては、誤検出が発生する場合がある。本発明は、検出精度を向上させた画像処理装置を提供することを目的とする。
本発明が開示する画像処理装置は、ユーザの第1部位を含む画像を取得する取得部と、画像から色特徴量または輝度勾配特徴量を抽出する抽出部と、色特徴量または輝度勾配特徴量に基づいて第1部位を検出する検出部とを備える。更に、当該画像処理装置は、異なる時刻に取得される複数の画像の第1部位の比較から算出される、第1部位の移動の速さに関する第1情報に基づいて、検出部が色特徴量と輝度勾配特徴量の何れかを用いて第1部位を検出するかを選択する選択部を備える。
なお、本発明の目的及び利点は、例えば、請求項におけるエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示される画像処理装置では、背景色に依存せずにユーザの手指の位置を正確に特定することが可能となる。
一つの実施形態による画像処理装置の機能ブロック図である。 第1特徴量モデルのポジティブ画像の概念図である。 第1特徴量モデルのデータ構造の一例を示すテーブルである。 検出部が色特徴量を用いて検出した第1部位のデータ構造の一例を示すテーブルである。 (a)は、背景の肌色領域と第1部位の重畳による、第1部位の移動量の第1概念図である。(b)は、背景の肌色領域と第1部位の重畳による、第1部位の移動量の第2概念図である。 選択部による特徴量選択処理の第1フローチャートである。 検出部が検出する手指の本数と選択部が選択する特徴量を含むデータ構造の一例を示すテーブルである。 選択部による手指ベクトル移動量の算出に用いるデータ構造の一例を示すテーブルである。 検出部が検出する手指の本数と選択部が手指ベクトルの変化量に基づいて選択する特徴量を含むデータ構造の一例を示すテーブルである。 選択部による特徴量選択処理の第2フローチャートである。 画像処理装置による画像処理のフローチャートである。 一つの実施形態による画像処理装置として機能するコンピュータのハードウェア構成図である。
まず、従来技術における問題の所在を説明する。この問題は本発明者らが従来技術を仔細に検討した結果として新たに見出したものであり、従来は知られていなかったものである。誤検出は、投影画像が投影される壁面または紙面の背景が肌色の場合に発生していることが判明した。これは、当該背景の肌色領域を手指として誤検出し、正確な手指の位置の特定が困難となっているためである。従って、背景色に依存せずにユーザの手指の位置を特定することができれば、問題点は発生しないこととなる。ユーザの手指の位置を検出する画像処理において、本発明者らの鋭意検証によって以下の事項が新たに検証された。例えば、HOG(Histogram of Oriented Gradients)特徴量、またはLBP(Local Binary Pattern)特徴量等の輝度勾配特徴量を用いる場合は、輝度勾配特徴量の特性上、背景の肌色領域と手指を正確に識別することが可能である。しかしながら、輝度勾配特徴量は、色特徴量と比較した場合、演算負荷が大きい為、即時性が要求される投影画像に対するインタラクション操作に遅延が発生し、画像処理装置の操作性が低下する問題が発生し得る。換言すると輝度勾配特徴量は、高い堅牢性を有するが、演算負荷が大きい特徴を有する。この為、輝度勾配特徴量のみを用いてユーザの手指の位置を検出することは実用上の観点から難しい。一方、色特徴量は処理負荷が小さい特徴を有する。換言すると、色特徴量は、堅牢性は高くはないが、演算負荷が小さい特徴を有する。
本発明者らは、色特徴量の低い演算負荷と輝度勾配特徴量の高い堅牢性に着目し、色特徴量と輝度勾配特徴量を各種状況に応じて動的に選択することで、背景色に依存せずにユーザの手指の位置を高い堅牢性かつ低い演算負荷で検出することが可能となることを新たに見出した。
上述の本発明者らの鋭意検証によって、新たに見出された技術的特徴を考慮しつつ、以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は、開示の技術を限定するものではない。
(実施例1)
図1は、一つの実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、抽出部3、記憶部4、検出部5、選択部6を有する。なお、画像処理装置1は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。
取得部2は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部2は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。取得部2は、外部装置が撮像する画像を受け取る。なお、取得部2が受け取る画像の解像度や取得頻度は、画像処理装置1に要求される処理速度や処理精度等に応じて任意の値に規定すれば良い。例えば、取得部2は、VGA(640×480)の解像度の画像を、30FPS(1秒間に30フレーム)の取得頻度で取得すれば良い。なお、画像を撮像する外部装置は、例えば撮像素子である。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。撮像素子は、例えば、ユーザの第1部位として、ユーザの手指を含む画像を撮像する。なお、撮像素子を、必要に応じて画像処理装置1に含めることも可能である。取得部2は、取得した画像を抽出部3に出力する。
抽出部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、抽出部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。抽出部3は、取得部2から画像を受け取り、当該画像の色特徴量または、輝度勾配特徴量を抽出する。抽出部3は、例えば、RGB色空間における画素値を色特徴量として抽出することが出来る。また、抽出部3は、例えば、HOG(Histogram of Oriented Gradients)特徴量、またはLBP(Local Binary Pattern)特徴量を、輝度勾配特徴量として抽出することが出来る。なお、輝度勾配特徴量は、例えば、一定の矩形領域内で計算可能な特徴量であれば良い。実施例1においては、説明の便宜上、主にHOG特徴量を輝度勾配特徴量として説明する。また、抽出部3は、例えば、「N. Dalal et al., “Histograms of Oriented Gradients for Human Detection,” 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005.」に開示される方法を用いて、輝度勾配特徴量の一例となるHOG特徴量を抽出することが出来る。抽出部3は、抽出した色特徴量または輝度勾配特徴量を検出部5に出力する。なお、後述する選択部6から色特徴量または輝度勾配特徴量の何れか一方のみの特徴量を抽出することを指示される場合は、色特徴量または輝度勾配特徴量の何れか一方のみの特徴量を抽出すれば良い。
記憶部4は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスクなどの記憶装置である。なお、記憶部4は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。なお、記憶部4は、必ずしも画像処理装置1に含まれる必要はない。例えば当該各種データは、画像処理装置1に含まれる各機能部の図示しないキャッシュやメモリ等に記憶しても良い。また、画像処理装置1に設けられる図示しない通信部を用いて通信回線を介することによって、記憶部4を画像処理装置1以外の外部装置に設けることも可能である。
記憶部4には、例えば、第1部位の特徴量を予め抽出した第1特徴量モデル(識別器と称しても良い)が事前学習により予め記憶される。また、記憶部4には、画像処理装置1の各機能が取得または保持する各種データが必要に応じて記憶されても良い。なお、第1特徴量モデルは、上述のHOG特徴量またはLBP特徴量に基づいて生成することが出来る。実施例1においては、第1特徴量モデルを、HOG特徴量に基づいて生成するものとして説明する。なお、事前学習は、例えば、対象物(第1部位の一例となる手指)が撮像された画像(ポジティブ画像)と、対象物が撮像されていない画像(ネガティブ画像)を用いて実施され、AdaboostやSVM(Support Vector Machine)等の様々な公知の識別器の学習手法を用いることが可能である。例えば、識別器の学習手法として、上述の「N. Dalal et al., “Histograms of Oriented Gradients for Human Detection,” 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005.」に開示されているSVMを用いた識別器の学習手法を用いることが出来る。なお、輝度勾配特徴量は、上述の通り一定の矩形領域内で計算可能な特徴量である。この為、ポジティブ画像においては、第1部位(例えば、ユーザの手指)が左右対称に配置されるように矩形領域を規定し、その矩形領域内で輝度勾配特徴量を計算すれば良い。また、矩形領域内での手指先位置も合わせて登録しても良い。また、識別器の事前学習においては、必要に応じて全てのポジティブ矩形領域内における手指先位置の平均値を算出しても良い。
図2は、第1特徴量モデルのポジティブ画像の概念図である。なお、第1特徴量モデルは、上述の通り識別器と称しても良い。図2のポジティブ画像においては、例えば、画像の左上端が座標原点として設定され、画像の右方向をx軸の正方向、画像の下方向をy軸の正方向として規定されている。また、図2のポジティブ画像においては、任意の数のブロック数に区切られており、ユーザの第1部位となる手指が真直状態、かつ、矩形領域内で左右対称に配置された状態で撮像されている。なお、図2に示すポジティブ画像として、例えば、複数のユーザの第1部位や、照明条件や背景を変化させた複数のポジティブ画像を用いても良い。また、当該複数のポジティブ画像に対する事前学習の過程において、手指先の位置を規定の座標位置に一律的に定める様に設定しても良い。この場合、複数のポジティブ画像から抽出される何れの第1特徴量モデルを使用しても、実際に検出されるユーザの指先と、ポジティブ画像の指先位置を正確に適合することが可能となり、ユーザの手指先の位置を正確に特定出来る。更に、図2に示すポジティブ画像においては、必要に応じて手指付根位置が適宜設定されても良い。なお、手指付根位置は、例えば、画像下端付近に撮像される手指の中心位置に設定されれば良い。
図3は、第1特徴量モデルのデータ構造の一例を示すテーブルである。図3のテーブル30には、手指付根位置、手指先位置、手指先方向、HOG特徴量の項目が格納される。更に、HOG特徴量の項目には、図2に示すブロックNoと、各ブロック内を、9分割した分割領域の勾配の強度の項目が格納されている。第1特徴量モデルにおけるブロック数や輝度勾配間隔は任意のパタメータであり、必要に応じて適宜変化させることが可能である。例えば、第1特徴量モデルは、縦6セル、横6ブロックの領域に分割し、各ブロック内の輝度勾配を0、30、60、90、120、150度の6段階のヒストグラムに分類することが出来る。なお、輝度勾配の強度は、例えば、1〜64の値に正規化されれば良い。手指付根位置と手指先位置の項目には、例えば、図2で説明したx座標とy座標が格納される。手指先方向は、例えば、手指付根位置と手指先位置のx座標の差分に基づいて規定されれば良い。
図1の検出部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、検出部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。検出部5は、抽出部3が抽出する色特徴量または輝度勾配特徴量を抽出部3から受け取る。検出部5は、色特徴量または輝度勾配特徴量に基づいて第1部位を検出する。なお、検出部5は、後述する選択部6の選択に基づいて色特徴量または輝度勾配特徴量を用いて第1部位を検出する。また、検出部5は、輝度勾配特徴量に基づいて第1部位を検出する場合、必要に応じて記憶部4に記憶されている第1特徴量モデルを参照しても良い。検出部5の検出方法の詳細は後述するが、画像処理装置1の画像処理開始時は、演算負荷を考慮して、検出部5は色特徴量を優先的に用いて第1部位を検出しても良い。検出部5は、検出した手指の本数と検出に使用した特徴量を選択部6に出力する。
(検出部5の色特徴量による第1部位の検出方法)
検出部5が色特徴量を用いて第1部位を検出する方法について説明する。検出部5は抽出部3から受け取った色特徴量を用いて肌色領域の抽出を行い、当該肌色領域に基づいて手領域(手指と手の甲を合わせた領域)を様々な公知の手法を用いて検出する。検出部5は、例えば、特許第3863809号に開示される方法を用いて手領域を検出することが出来る。検出部5は、手領域を検出した後、当該手領域における手指の本数を認識し、手領域の輪郭から、手指と手指先位置の検出を行うことが出来る。また、検出部5は、必要に応じて以下に示す方法を用いて、手領域の重心位置を取得しても良い。検出部5は、重心位置の算出方法として、例えば、フレームtの画像における肌色領域として抽出された領域Ps内のピクセルPiの座標を(xi、t、yi、t)、ピクセル数をNsと定義した場合、重心位置Gt(xt、yt)を次式により算出することが出来る。
(数1)
Figure 0006221505
図4は、検出部5が色特徴量を用いて検出した第1部位のデータ構造の一例を示すテーブルである。なお、図4のテーブル40における座標系は、取得部2が取得する画像の左上端を原点とし、画像の右方向をx軸の正方向、画像の下方向をy軸の正方向として規定されている。テーブル40は、例えば、検出部5が有する図示しないキャッシュまたはメモリに格納されれば良い。テーブル40に示す例では、ユーザが片手で手を広げた場合における、各手指の先端部の座標と重心位置(単位はpixel)が格納されている。なお、テーブル40では、検出されている手の本数は1本であるが、検出部5は必要に応じて2本以上の手を検出することも可能である。また、検出部5は、色特徴量による検出の堅牢性を向上させるために、必要に応じて下記に示す輝度勾配特徴量による検出を組み合わせて、第1部位を検出しても良い。
(検出部5の輝度勾配特徴量による第1部位の検出方法)
検出部5が輝度勾配特徴量を用いて第1部位を検出する方法について説明する。図1の検出部5は、抽出部3から受け取った輝度勾配特徴量の一例となるHOG特徴量と、記憶部4に記憶されている第1特徴量モデルのHOG特徴量と比較して、類似度が所定の第1閾値(例えば70%)以上の画像に含まれる物体を第1部位として検出することが出来る。
また、検出部5は、スコアを用いた第1部位となる手指の検出を行ってもよい。先ず、検出部5は、色特徴量から特定される手指先位置から、手指方向の算出を行う。ここで、手指方向は、例えば、指先位置周辺における輪郭に直交する方向とすれば良い。次に、検出部5は、手指先位置と手指先方向から所定の矩形領域を設定する。検出部5は、事前学習による第1特徴量モデルの平均的な手指先位置を、検出部5が色特徴量を用いて設定した手指先位置と一致させ、矩形領域の方向は先に計算した手指先方向と一致させる。その後、検出部5は、例えば、HOG特徴量を用いて矩形領域内に対する輝度勾配特徴量を算出する。次に、第1特徴量モデルに基づいて、検出部5は当該矩形領域で抽出される輝度勾配特徴量を用いて手指先らしさの推定を行う。例えば、SVMの場合、出力スコアは−1〜1までのスコアとなり、手指でない時は負の値、手指の時は正の値を示す。検出部5は当該スコアを閾値判定し、所定の閾値未満の場合は推定結果を棄却し、閾値以上の場合は推定結果を採択することが出来る。検出部5は、当該推定結果に基づき、手指の検出と手指先の位置を算出することが出来る。
また、検出部5は、取得部2が取得する画像の二次元座標内の回転運動に対応させる為に、一定間隔(角度)で回転させた複数の回転画像を用い、全ての回転画像に対して検出処理を実施しても良い。更に検出部5は、必要に応じて上述の色特徴量から抽出される肌色領域に基づいて用いて、輝度勾配特徴量の探索範囲を限定してもよい。即ち、抽出部3が抽出する輝度勾配特徴量から規定される矩形領域内に、色特徴量に基づいて抽出された肌色領域が一画素でも含まれている場合、検出部5は、第1特徴量モデルのHOG特徴量と比較判定を実施し、肌色領域が含まれていない場合は検出処理を実施しない。当該処理によって、検出部5の演算負荷を大幅に削減することが可能となる。検出部5は、第1部位(手指)として検出された矩形領域内における、平均化された指先位置を指先として特定しても良い。更に、複数の矩形領域が検出された場合は、検出部5は、第1特徴量モデル(識別器と称しても良い)の類似度が最大の矩形領域を選択しても良い。
図1の選択部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、選択部6は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。選択部6は、検出部5が検出した手指の本数、手指の移動量、または、検出に使用した特徴量を検出部5から受け取り、第1部位となる手指の移動の速さに関する第1情報を算出する。当該第1情報は、色特徴量による手指検出結果の信頼度を示す情報となる。換言すると、背景に肌色領域が存在する場合、色特徴量による手指検出結果の信頼性は低いものとなる。この為、選択部6は、検出部5が色特徴量か輝度勾配特徴量の何れかを用いて手指を検出するのかを、第1情報に基づいて選択する。また、選択部6は必要に応じて、抽出部3に対して色特徴量または輝度勾配特徴量の何れか一方のみの特徴量を抽出することを指示しても良い。
次に、第1情報の技術的意義と選択部6の選択処理の詳細について説明する。先ず、第1情報の技術的意義について説明する。本発明者らは、鋭意検証の結果、低い演算負荷の特徴を有する色特徴量を用い手指の検出ならびに手指先の位置の検出が正確に実行されない場合に共通して観測される現象を新たに見出した。当該現象は、手指領域と背景の肌色領域が重畳することで、手指の本数が短時間内で増減するか、手指先の位置が短時間内で大きく変動する特徴を有する。換言すると、手指領域と背景の肌色領域が重畳することで、第1部位となる手指が任意の時間内(第1時刻と第2時刻の差分となる第3時刻内と称しても良い)の移動量が、所定の閾値(第1閾値と称しても良い)以上となる場合が発生する。
図5(a)は、背景の肌色領域と第1部位の重畳による、第1部位の移動量の第1概念図である。図5(b)は、背景の肌色領域と第1部位の重畳による、第1部位の移動量の第2概念図である。なお、図5(a)は、例えば、色特徴量を用いる場合において、手指領域と背景の肌色領域が重畳することで、手指の本数が短時間内で増減する概念図である。図5(b)は、例えば、色特徴量を用いる場合において、手指領域と背景の肌色領域が重畳することで、手指先の位置が短時間内で大きく変動する概念図である。また、図5(a)と図5(b)においては、検出部5の検出処理速度が、30FPS(1秒間に30フレーム処理)の場合の手指の移動量の様子を示している。更に、図5(a)と図5(b)においては、手の甲の付根付近(手首付近)から描画されている実線の数が検出される手指の本数、実線の大きさと方向が、手指ベクトルを示している。なお、手指ベクトルは、例えば、任意の2点(例えば、手指先位置と手の重心位置)を用いて手指の長手方向に規定されれば良い。
図5(a)においては、手指の本数が3フレームの間(0.06秒)という短時間で1本から2本に増えた後に再度1本に減っている。これは、背景の肌色領域と第1部位の重畳が、時刻t0+0.03の時刻で発生した後に、時刻t0+0.06の時刻で非重畳状態に戻った為である。当該変化は、0.06秒という非常に短時間で発生しており、ユーザの通常の動作速度とは異なる特徴を有する。図5(b)においては、手指先の位置が2フレームの間(0.03秒)で大幅に変動(26ピクセル程度変動)している。これは、背景の肌色領域と第1部位の重畳が時刻t0+0.03の時刻で発生した時に、背景の肌色領域が、手指の一部と誤検出されることにより、手指先の位置が大幅に変化する為である。当該変化も図5(а)と同様に、0.03秒という非常に短時間で発生しており、ユーザの通常の動作速度とは異なる特徴を有する。
上述の図5(а)と図5(b)から理解出来る通り、色特徴量は、手指領域と背景の肌色領域が重畳することで、手指の本数が、ユーザの通常の動作時間に比較して短時間で増減するか、手指先の位置が短時間内で大きく変動する特徴を有する。即ち、第1情報は、異なる時間に取得される画像の第1部位の比較から算出される第1部位の移動の速さに関する情報であり、選択部6は、第1情報に基づいて、検出部5が色特徴量と輝度勾配特徴量の何れかを用いて第1部位となるユーザの手指を検出するかを選択することで、背景色に依存せずにユーザの手指の位置を高い堅牢性かつ低い演算負荷で検出することが可能となる。換言すると、選択部6は、第1部位以外となる画像の背景領域の色特徴量が、第1部位の色特徴量と類似し、かつ、背景領域と第1部位が重畳していると判定した場合は、輝度勾配特徴量を選択する。
次に、選択部6の選択処理の詳細について説明する。なお、説明の便宜上、以降の説明においては、検出部5が色特徴量を使用して第1部位を検出する状態を色特徴量モード、輝度勾配特徴量を使用して第1部位を検出する状態を輝度勾配特徴量モードと称する。図6は、選択部6による特徴量選択処理の第1フローチャートである。なお、図6は、選択部6が色特徴量モードを選択している場合に、色特徴量モードから輝度勾配特徴量モードに移行するか否を判定する処理である。なお、選択部6は、画像処理装置1が画像処理を開始する時は、例えば、色特徴量モードを選択すれば良い。
図6において、選択部6が色特徴量モードを選択している場合は、以下の処理を実行する。先ず、選択部6は、過去一定時間以内に、色特徴量に基づく手指検出において、手指の本数の増減があるかを判定する(ステップS601)。なお、手指本数の増減の判定処理の詳細については後述する。ステップS601において、手指の本数に増減が有る場合(ステップS601−Yes)、選択部6は、輝度勾配特徴量モードを選択する(ステップS602)。ステップS601において、手指の本数に増減が無い場合(ステップS601−No)、選択部6は、異なる時刻(例えば、前時間(第2時刻と称しても良い)と現時間(第1時刻と称しても良い))に基づいて、手指ベクトルの移動量(変化量と称しても良い)を算出する(ステップS603)。なお、手指ベクトルの移動量の算出処理の詳細については後述する。ステップS603において、手指毎に計算する手指ベクトルの移動量が、いずれか一つでも所定の閾値以上の場合(ステップS603−Yes)、選択部6は輝度勾配特徴量モードを選択する(ステップS602)。ステップS603において、手指ベクトルの移動量が所定の閾値未満の場合(ステップS603−No)、選択部6は色特徴量モードを継続的に選択する(ステップS604)。
(手指本数の増減の判定処理)
ここで、手指本数の増減の判定処理の詳細について説明する。先ず、手指本数の増減については、ユーザが意図的に手指の本数を増加させた場合(例えば手を握った状態から一本の手指を出す様な場合)と、背景の肌色領域と手指が重畳することによって手指の本数が誤検出で増加する場合を区別する必要がある。この為、選択部6は、手指の本数が、ある時刻に変化した時に、一定の短時刻tm前に発生した指の本数の増減を調べる。例えば、時刻t[sec]に手指の本数が2本から1本に変化した場合、時刻t−tm[sec]までに手指の本数が1本から2本に変化したか否かを調べる。変化した場合、手指の本数の増減有りとみなす。なお、時刻tmは、人間が動かせる指の速度を考慮した値に設定することが出来る。例えば、30FPSの場合、0.06秒の間に人間が手指の本数を増やして減らす(または減らして増やす)ことは不可能(現実的では無い)であると仮定し、tm=0.06(2フレーム間)と設定することが出来る。なお、tmを第3時刻と称しても良い。また、上述の第1閾値は、例えば、手指の本数の変化量と設定することが出来る。
図7は、検出部5が検出する手指の本数と選択部6が選択する特徴量を含むデータ構造の一例を示すテーブルである。図7のテーブル70において、手指本数真値は、客観的に観測される手指の真の本数であり、手指本数推定値は、検出部5が検出する手指の本数である。テーブル70において、フレームNo.がt−6の時刻からt−4の時刻で、色特徴量モードで検出する手指の本数が1本→2本→1本と変化している為、選択部5は、t−4の時刻から輝度勾配特徴量モードを選択する。なお、検出部5が検出する手の本数は2本以上であっても良く、その場合、選択部6は、手毎に色特徴量モード、輝度勾配特徴量モードの選択を実施すれば良い。なお、テーブル70は、例えば、検出部5が有する図示しないキャッシュまたはメモリに格納されれば良い。
(手指ベクトルの移動量の算出処理)
ここで、手指ベクトルの移動量の算出処理の詳細について説明する。手指ベクトルの移動量については、例えば、手の甲の重心から各手指へのベクトルを算出し、前時刻と現時刻でのベクトルに基づいて移動量を算出することが出来る。なお、手指ベクトルは大きさの他に方向の成分を有する為、ユーザの手指の移動方向が想定されない方向(例えば、手指が下方向から上方向に向かって移動している際に、ある時刻間のみ左右に移動する等)に移動したことを検出することが出来る。また、当該移動量の算出において、色特徴量に基づき特定された手指先位置の変動を用いると、手指を高速に動かした場合に、輝度勾配特徴量モードに移行する必要がない状況でも輝度勾配特徴量モードに移行することも想定される。一方、手指ベクトルの変化量を用いて判定を行うことで、輝度勾配特徴量モードに移行する必要がない状況において輝度勾配特徴量モードに移行することを抑制することが可能となる。
図8は、選択部6による手指ベクトル移動量の算出に用いるデータ構造の一例を示すテーブルである。テーブル80は、例えば、検出部5が有する図示しないキャッシュまたはメモリに格納されれば良い。図8のテーブル80において、任意の手指ID(n)に対して、ある時刻t(第1時刻と称しても良い)と、その1つ前のフレームの時刻t−1(第2時刻と称しても良い)での手指ベクトルVn,t, Vn,t−1を選択部6が算出する。なお、複数の手指が存在する場合は、例えば、時刻tの手指先の座標に一番近い座標の時刻t−1の手指を、同じ手指と見做せば良い。なお、手指ベクトル変化量var(Vn,t, Vn,t−1)は、次式に基づいて算出することが出来る。
(数2)
Figure 0006221505
上述の(数2)において、右辺前半の項は、手指ベクトルの大きさの前フレームからの差分を意味しており、0に近いほど手指ベクトルの大きさが変化しないことを意味する。また、上述の(数2)において、右辺後半の項は、ベクトル同士のなす角(単位[rad])を正規化した値を意味しており、0に近いほどなす角が小さくなる。換言すると、手指ベクトル変化量varが0に近いほど、検出部5の検出結果の信頼度が高いことを意味する。換言すると、当該手指ベクトルの変化量がある閾値θを下回る場合は、検出部5の検出結果の信頼度は高いと見做すことが出来る。なお、閾値θの設定方法は様々な任意の方式を適用できるが、例えば、事前に背景に肌色が含まれない領域で複数のユーザに手指を動かしてもらい、そこで得られた手指ベクトル変化量varの値の最大値を用いるなどの方法を適用することが出来る。例えば、画像処理装置1における画像処理の速度が30FPSの場合、手指ベクトルの大きさの前フレームからの差分は0.25、手指ベクトル同士のなす角は15度(π/6[rad])を最大値として定めるとすると、閾値θは0.04となる。また、この閾値は輝度勾配特徴量モードへの入り易さを意味する為、使用用途に応じて適宜変更することが出来る。
図9は、検出部5が検出する手指の本数と選択部6が手指ベクトルの変化量に基づいて選択する特徴量を含むデータ構造の一例を示すテーブルである。図9のテーブル90は、例えば、検出部5が有する図示しないキャッシュまたはメモリに格納されれば良い。テーブル90において、手指本数真値は、客観的に観測される手指の真の本数であり、手指本数推定値は、検出部5が検出する手指の本数である。テーブル90において、手指本数真値ならびに手指本数推定値は常に2本のままだが、手指ベクトル変化量がt−4からt−3にかけて手指ID(n)=2で大幅に上昇している。そこで、選択部6は、時刻t−3において、選択する特徴量を色特徴量から輝度勾配特徴量へ変化させている。
次に、図1の選択部6による特徴量選択の第1フローチャートにおいて、選択部が輝度勾配特徴量モードを選択した場合(ステップS602)の以降の処理について説明する。図10は、選択部6による特徴量選択処理の第2フローチャートである。なお、図10は、選択部6が輝度勾配特徴量モードを選択している場合に、色特徴量モードに移行するか否かを判定する処理である。
図10において、選択部6が輝度勾配特徴量モードを選択している場合は、以下の処理を実行する。先ず、選択部6は、過去一定時間th以内(例えば、過去10フレームとなる0.3秒以内)の全時間に、輝度勾配特徴量に基づく手指検出で、手指の本数の増減があるか否かを判定する(ステップS1001)。ステップS1001において、手指の本数に増減が無い場合(ステップS1001−No)、選択部6は輝度勾配特徴量モードを継続的に選択する(ステップS1004)。ステップS1001において、手指の本数に増減が有る場合(ステップS1001−Yes)、選択部6は、過去一定時間th以内の全時間で、前時刻と現時刻での手指ベクトルの変化量を算出する(ステップS1002)。ステップS1002において、手指毎に計算する手指ベクトルの移動量が、いずれか一つでも所定の閾値(th)以上の場合(ステップS1002−Yes)、選択部6は色特徴量モードを選択する(ステップS1003)。ステップS1002において、手指ベクトルの移動量が所定の閾値(th)未満の場合(ステップS1002−No)、選択部6は色特徴量モードを継続的に選択する(ステップS1004)。なお閾値(th)は任意に調整可能な値であり、閾値となる時間を増やすことで、輝度勾配特徴量モードから色特徴量モードに移行し難くなる効果を奏する。また、外乱による検出・選択結果の不安定性に対応する為に、過去一定時間(th)の間に、色特徴量モード移行の判定回数と移行保留の判定回数をカウントし、移行判定回数が保留判定回数を上回った時のみ移行する時間を閾値(th)に用いることも可能である。
図11は、画像処理装置1による画像処理のフローチャートである。取得部2は、例えば、撮像素子が撮像する画像を撮像素子から取得する(ステップS1101)。ステップS1101において、取得部2が画像を取得していない場合(ステップS1101−No)は、画像処理装置1は図11のフローチャートに示す処理を終了する。ステップS1101において、取得部2が画像を取得している場合(ステップS1101−Yes)、取得部2は取得した画像を抽出部3へ出力する。
抽出部3は、取得部2から画像を受け取り、当該画像の色特徴量または、輝度勾配特徴量を抽出する(ステップS1102)。抽出部3は、例えば、RGB色空間における画素値を色特徴量として抽出することが出来る。また、抽出部3は、例えば、HOG(Histogram of Oriented Gradients)特徴量、またはLBP(Local Binary Pattern)特徴量を、輝度勾配特徴量として抽出することが出来る。なお、ステップS1102において、抽出部3は、後述する選択部6から色特徴量または輝度勾配特徴量の何れか一方のみの特徴量を抽出することを指示される場合は、色特徴量または輝度勾配特徴量の何れか一方のみの特徴量を抽出すれば良い。抽出部3は、抽出した色特徴量または輝度勾配特徴量を検出部5に出力する。
検出部5は、抽出部3が抽出する色特徴量または輝度勾配特徴量を抽出部3から受け取る。検出部5は、色特徴量または輝度勾配特徴量に基づいて第1部位を検出する(S1103)。なお、ステップS1103において、検出部5は、選択部6の選択に基づいて色特徴量または輝度勾配特徴量を用いて第1部位を検出する。また、検出部5は必要に応じて第1部位の一例となる手指の手指先位置を検出しても良い。
選択部6は、検出部5が色特徴量か輝度勾配特徴量の何れかを用いて手指を検出するのかを、第1情報に基づいて選択し、検出部5に対して指示する(ステップS1104)。また、ステップS1104において、選択部6は必要に応じて、抽出部3に対して色特徴量または輝度勾配特徴量の何れか一方のみの特徴量を抽出することを指示しても良い。なお、ステップS1104における詳細フローは図6ならびに図10に示すフローチャートに対応する。
実施例1の画像処理装置においては、背景色に依存せずにユーザの手指の位置を正確に特定することが可能となる。更に、色特徴量と輝度勾配特徴量を各種状況に応じて動的に選択することで、背景色に依存せずにユーザの手指の位置を高い堅牢性かつ低い演算負荷で検出することが可能となる。
(実施例2)
実施例2では、図1の検出部5の輝度勾配特徴量の走査範囲を限定することで、演算負荷を軽減させ処理速度を向上させる方法について開示する。検出部5が、輝度勾配特徴量を用いる場合、演算負荷を低減させる為、可能な限り、輝度勾配特徴量の抽出回数、第1特徴量モデル(識別器)を用いる判定回数を減少させた方が好ましい。この為、検出部5は、輝度勾配特徴量モード時に矩形領域の探索範囲を設定する際に、手指ベクトルの変化量に応じて探索範囲を限定する。具体的には、ある前後時刻における手指ベクトルの変化量var(Vn、t, Vn、t−1)が、所定閾値θs以下である場合、検出部5は、前後時刻の手の重心位置の移動速度VGを計算する。例えば、手の重心をGt =(xt, Yt)、Gt−1 = (xt−1, yt−1)とすると、移動速度はVG =Gt −Gt−1となる。その場合、検出部5は、探索する矩形領域を、前時刻の手指の領域から周囲VGだけ移動した範囲のみに限定する。また、検出部5は、回転運動に対応した処理として、画像の回転を、次式で表現されるαの範囲に限定する。
(数3)
Figure 0006221505
前後時刻における手指ベクトルの移動量が低い場合、前の時刻から手指の位置は大幅には変化していない。そのため、矩形領域の範囲と回転領域を上記の様に限定することで、探索領域を大幅に減少させることが出来る。更に、実施例2においては、手指先位置ではなく重心位置を用いて探索範囲を限定している。この理由は、実施例2においては、重心は抽出された肌色領域より算出している。その際、肌色領域はある一定の大きさ以上のものを抽出するため、重心は比較的安定して取得される。一方、手指先位置は、抽出された肌色領域から、輪郭の曲率に基づき指先位置を推定している。そのため輪郭の状況によっては、安定的に指先の位置が取得され難い状況が生じる場合がある。実施例2における画像処理装置1では、手指先位置ではなく重心位置を用いて探索範囲を限定している為、動作の安定性を具現化している。
実施例2の画像処理装置においては、背景色に依存せずにユーザの手指の位置を正確に特定することが可能となる。更に、色特徴量と輝度勾配特徴量を各種状況に応じて動的に選択することで、背景色に依存せずにユーザの手指の位置を高い堅牢性かつ低い演算負荷で検出することが可能となる。
(実施例3)
図12は、一つの実施形態による画像処理装置1として機能するコンピュータのハードウェア構成図である。図12に示す通り、画像処理装置1は、コンピュータ100、およびコンピュータ100に接続する入出力装置(周辺機器)を含んで構成される。
コンピュータ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。なお、プロセッサ101は、マルチプロセッサであってもよい。また、プロセッサ101は、例えば、CPU、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。更に、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
RAM102は、コンピュータ100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
バス109に接続されている周辺機器としては、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
HDD103は、内蔵したディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、例えば、コンピュータ100の補助記憶装置として使用される。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することも出来る。
グラフィック処理装置104には、モニタ110が接続されている。グラフィック処理装置104は、プロセッサ101からの命令にしたがって、各種画像をモニタ110の画面に表示させる。モニタ110としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。
入力インタフェース105には、キーボード111とマウス112とが接続されている。入力インタフェース105は、キーボード111やマウス112から送られてくる信号をプロセッサ101に送信する。なお、マウス112は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
光学ドライブ装置106は、レーザ光などを利用して、光ディスク113に記録されたデータの読み取りを行う。光ディスク113は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク113には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。可搬型の記録媒体となる光ディスク113に格納されたプログラムは光学ドライブ装置106を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1より実行可能となる。
機器接続インタフェース107は、コンピュータ100に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース107には、メモリ装置114やメモリリーダライタ115を接続することが出来る。メモリ装置114は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ115は、メモリカード116へのデータの書き込み、またはメモリカード116からのデータの読み出しを行う装置である。メモリカード116は、カード型の記録媒体である。
ネットワークインタフェース108は、ネットワーク117に接続されている。ネットワークインタフェース108は、ネットワーク117を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。
コンピュータ100は、たとえば、コンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、上述した画像処理機能を実現する。コンピュータ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことが出来る。上記プログラムは、1つのまたは複数の機能モジュールから構成することが出来る。例えば、図1に記載の取得部2、抽出部3、記憶部4、検出部5、選択部6の処理を実現させた機能モジュールからプログラムを構成することが出来る。なお、コンピュータ100に実行させるプログラムをHDD103に格納しておくことができる。プロセッサ101は、HDD103内のプログラムの少なくとも一部をRAM102にロードし、プログラムを実行する。また、コンピュータ100に実行させるプログラムを、光ディスク113、メモリ装置114、メモリカード116などの可搬型記録媒体に記録しておくことも出来る。可搬型記録媒体に格納されたプログラムは、例えば、プロセッサ101からの制御により、HDD103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することも出来る。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが出来る。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。
さらに、CCDやCMOSなどの撮像素子は、外部装置を例として説明したが、本実施の形態はこれに限られるものではなく、画像処理装置が撮像素子を備えていてもよい。
本実施の形態では、手指が肌色、背景も肌色に類似している場合を例として説明したが、本実施の形態はこれに限定されない。例えば、手指が手袋などで覆われていて、手袋の色に類似した背景を使用する場合などにも、本実施の形態が適用できることは言うまでもない。
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
ユーザの第1部位を含む画像を取得する取得部と、
前記画像から色特徴量または輝度勾配特徴量を抽出する抽出部と、
前記色特徴量または前記輝度勾配特徴量に基づいて前記第1部位を検出する検出部
と、
異なる時刻に取得される複数の前記画像の前記第1部位の比較から算出される、前記第1部位の移動の速さに関する第1情報に基づいて、前記検出部が前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択する選択部と
を備えることを特徴とする画像処理装置。
(付記2)
前記選択部は、前記第1情報が、前記異なる時刻となる第1時刻と第2時刻から規定される第3時刻内において、所定の第1閾値未満の場合は前記色特徴量を選択し、前記第1閾値以上の場合は、前記輝度勾配特徴量を選択することを特徴とする付記1記載の画像処理装置。
(付記3)
前記選択部は、前記第1閾値以上の場合、前記第1部位以外となる前記画像の背景領域の色特徴量が、前記第1部位の色特徴量と類似し、かつ、前記背景領域と前記第1部位が重畳していると判定し、前記輝度勾配特徴量を選択することを特徴とする付記2記載の画像処理装置。
(付記4)
前記第1部位は手指であり、前記選択部は、前記第3時刻内における前記手指の移動量に基づいて前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択することを特徴とする付記2または付記3記載の画像処理装置。
(付記5)
前記第1部位は手指であり、前記選択部は、前記手指の長手方向に規定される、前記第3時刻内で複数算出されるベクトルの移動量に基づいて前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択することを特徴とする付記2ないし付記4の何れか1つに記載の画像処理装置。
(付記6)
前記第3時刻は、前記第1時刻と前記第2時刻の差分時間であり、
前記第1閾値は、予め計測される前記差分時間における前記ユーザの前記移動量であることを特徴とする付記4または付記5に記載の画像処理装置。
(付記7)
前記検出部は、前記移動量に基づいて、前記輝度勾配特徴量の抽出領域を規定することを特徴とする付記4記載の画像処理装置。
(付記8)
前記第1部位の特徴量を予め抽出した第1特徴量モデルを記憶する記憶部を更に備え、
前記検出部は、前記第1特徴量モデルとの類似度が、所定の第2閾値以上となる前記画像に含まれる物体を前記第1部位として検出することを特徴とする付記1記載の画像処理装置。
(付記9)
ユーザの第1部位を含む画像を取得し、
前記画像から色特徴量または輝度勾配特徴量を抽出し、
前記色特徴量または前記輝度勾配特徴量に基づいて前記第1部位を検出し、
異なる時刻に取得される複数の前記画像の前記第1部位の比較から算出される、前記第1部位の移動の速さに関する第1情報に基づいて、前記検出部が前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出する
ことを含むことを特徴とする画像処理方法。
(付記10)
前記選択することは、前記第1情報が、前記異なる時刻となる第1時刻と第2時刻から規定される第3時刻内において、所定の第1閾値未満の場合は前記色特徴量を選択し、前記第1閾値以上の場合は、前記輝度勾配特徴量を選択することを特徴とする付記9記載の画像処理方法。
(付記11)
前記選択することは、前記第1閾値以上の場合、前記第1部位以外となる前記画像の背景領域の色特徴量が、前記第1部位の色特徴量と類似し、かつ、前記背景領域と前記第1部位が重畳していると判定し、前記輝度勾配特徴量を選択することを特徴とする付記10記載の画像処理方法。
(付記12)
前記第1部位は手指であり、前記選択することは、前記第3時刻内における前記手指の移動量に基づいて前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択することを特徴とする付記10または付記11記載の画像処理方法。
(付記13)
前記第1部位は手指であり、前記選択することは、前記手指の長手方向に規定される、前記第3時刻内で複数算出されるベクトルの移動量に基づいて前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択することを特徴とする付記10ないし付記12の何れか1つに記載の画像処理方法。
(付記14)
前記第3時刻は、前記第1時刻と前記第2時刻の差分時間であり、
前記第1閾値は、予め計測される前記差分時間における前記ユーザの前記移動量であることを特徴とする付記12または付記13に記載の画像処理方法。
(付記15)
前記検出することは、前記移動量に基づいて、前記輝度勾配特徴量の抽出領域を規定することを特徴とする付記12記載の画像処理方法。
(付記16)
前記第1部位の特徴量を予め抽出した第1特徴量モデルを記憶することを含み、
前記検出することは、前記第1特徴量モデルとの類似度が、所定の第2閾値以上となる前記画像に含まれる物体を前記第1部位として検出することを特徴とする付記1記載の画像処理方法。
(付記17)
コンピュータに、
ユーザの第1部位を含む画像を取得し、
前記画像から色特徴量または輝度勾配特徴量を抽出し、
前記色特徴量または前記輝度勾配特徴量に基づいて前記第1部位を検出し、
異なる時刻に取得される複数の前記画像の前記第1部位の比較から算出される、前記第1部位の移動の速さに関する第1情報に基づいて、前記検出部が前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出する
ことを実行させることを特徴とする画像処理プログラム。
1 画像処理装置
2 取得部
3 抽出部
4 記憶部
5 検出部
6 選択部

Claims (7)

  1. ユーザの第1部位を含む画像を取得する取得部と、
    前記画像から色特徴量または輝度勾配特徴量を抽出する抽出部と、
    前記色特徴量または前記輝度勾配特徴量に基づいて前記第1部位を検出する検出部と、
    異なる時刻に取得される複数の前記画像の前記第1部位の比較から算出される、前記第1部位の移動の速さに関する第1情報に基づいて、前記検出部が前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択する選択部と
    を備え
    前記選択部は、前記第1情報が、前記異なる時刻となる第1時刻と第2時刻から規定される第3時刻内において、所定の第1閾値未満の場合は前記色特徴量を選択し、前記第1閾値以上の場合は、前記輝度勾配特徴量を選択することを特徴とする画像処理装置。
  2. 前記選択部は、前記第1閾値以上の場合、前記第1部位以外となる前記画像の背景領域の色特徴量が、前記第1部位の色特徴量と類似し、かつ、前記背景領域と前記第1部位が重畳していると判定し、前記輝度勾配特徴量を選択することを特徴とする請求項記載の画像処理装置。
  3. 前記第1部位は手指であり、前記選択部は、前記第3時刻内における前記手指の移動量に基づいて前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択することを特徴とする請求項または請求項記載の画像処理装置。
  4. 前記第1部位は手指であり、前記選択部は、前記手指の長手方向に規定される、前記第3時刻内で複数算出されるベクトルの移動量に基づいて前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択することを特徴とする請求項ないし請求項の何れか一項に記載の画像処理装置。
  5. 前記第3時刻は、前記第1時刻と前記第2時刻の差分時間であり、
    前記第1閾値は、予め計測される前記差分時間における前記ユーザの前記移動量であることを特徴とする請求項または請求項に記載の画像処理装置。
  6. ユーザの第1部位を含む画像を取得し、
    前記画像から色特徴量または輝度勾配特徴量を抽出する抽出処理を実行し、
    前記色特徴量または前記輝度勾配特徴量に基づいて前記第1部位を検出する検出処理を実行し、
    異なる時刻に取得される複数の前記画像の前記第1部位の比較から算出される、前記第1部位の移動の速さに関する第1情報に基づいて、前記検出処理において前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択する選択処理を実行し、
    前記選択処理は、前記第1情報が、前記異なる時刻となる第1時刻と第2時刻から規定される第3時刻内において、所定の第1閾値未満の場合は前記色特徴量を選択し、前記第1閾値以上の場合は、前記輝度勾配特徴量を選択する
    ことを含むことを特徴とする画像処理方法。
  7. コンピュータに、
    ユーザの第1部位を含む画像を取得し、
    前記画像から色特徴量または輝度勾配特徴量を抽出する抽出処理を実行し、
    前記色特徴量または前記輝度勾配特徴量に基づいて前記第1部位を検出する検出処理を実行し、
    異なる時刻に取得される複数の前記画像の前記第1部位の比較から算出される、前記第1部位の移動の速さに関する第1情報に基づいて、前記検出処理において前記色特徴量と前記輝度勾配特徴量の何れかを用いて前記第1部位を検出するかを選択する選択処理を実行し、
    前記選択処理は、前記第1情報が、前記異なる時刻となる第1時刻と第2時刻から規定される第3時刻内において、所定の第1閾値未満の場合は前記色特徴量を選択し、前記第1閾値以上の場合は、前記輝度勾配特徴量を選択する
    ことを実行させることを特徴とする画像処理プログラム。
JP2013172495A 2013-08-22 2013-08-22 画像処理装置、画像処理方法および画像処理プログラム Expired - Fee Related JP6221505B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013172495A JP6221505B2 (ja) 2013-08-22 2013-08-22 画像処理装置、画像処理方法および画像処理プログラム
US14/285,826 US20150055836A1 (en) 2013-08-22 2014-05-23 Image processing device and image processing method
EP14170756.2A EP2840527A1 (en) 2013-08-22 2014-06-02 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013172495A JP6221505B2 (ja) 2013-08-22 2013-08-22 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015041279A JP2015041279A (ja) 2015-03-02
JP6221505B2 true JP6221505B2 (ja) 2017-11-01

Family

ID=50841656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013172495A Expired - Fee Related JP6221505B2 (ja) 2013-08-22 2013-08-22 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US20150055836A1 (ja)
EP (1) EP2840527A1 (ja)
JP (1) JP6221505B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2703950A4 (en) * 2011-04-28 2015-01-14 Nec Solution Innovators Ltd INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
KR20160093809A (ko) * 2015-01-29 2016-08-09 한국전자통신연구원 프레임 영상과 모션 벡터에 기초하는 객체 검출 방법 및 장치
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) 2015-02-06 2022-03-01 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP2017068756A (ja) * 2015-10-01 2017-04-06 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
KR101745651B1 (ko) * 2016-03-29 2017-06-09 전자부품연구원 손 제스처 인식 시스템 및 방법
CN106408579B (zh) * 2016-10-25 2019-01-29 华南理工大学 一种基于视频的捏合指尖跟踪方法
EP3584767A4 (en) 2017-03-09 2020-01-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. DEPTH-BASED IMAGE PROCESSING METHOD, PROCESSING DEVICE AND ELECTRONIC DEVICE
JP2019109709A (ja) * 2017-12-18 2019-07-04 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP7109193B2 (ja) * 2018-01-05 2022-07-29 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000070558A1 (fr) * 1999-05-18 2000-11-23 Sanyo Electric Co., Ltd. Procede et dispositif de traitement d'image dynamique et support
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2011007390A1 (ja) * 2009-07-15 2011-01-20 株式会社 東芝 画像処理装置、及びインターフェース装置
JP5569062B2 (ja) * 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US8750573B2 (en) * 2010-08-02 2014-06-10 Sony Corporation Hand gesture detection
US8792722B2 (en) * 2010-08-02 2014-07-29 Sony Corporation Hand gesture detection
KR101326230B1 (ko) * 2010-09-17 2013-11-20 한국과학기술원 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
JP5716504B2 (ja) * 2011-04-06 2015-05-13 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9098739B2 (en) * 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching

Also Published As

Publication number Publication date
US20150055836A1 (en) 2015-02-26
EP2840527A1 (en) 2015-02-25
JP2015041279A (ja) 2015-03-02

Similar Documents

Publication Publication Date Title
JP6221505B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10082879B2 (en) Head mounted display device and control method
US9690388B2 (en) Identification of a gesture
US8970696B2 (en) Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system
JP6248533B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5709228B2 (ja) 情報処理装置、情報処理方法及びプログラム
TWI646941B (zh) 生理訊號量測系統及其量測生理訊號之方法
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
US9836130B2 (en) Operation input device, operation input method, and program
JP6326847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6873344B2 (ja) 疲労判定装置、疲労判定方法、および疲労判定プログラム
TW201407420A (zh) 改善之視訊追蹤
KR20210010930A (ko) 헤드 제스처들을 통해 디스플레이 디바이스를 원격 제어하기 위한 방법, 시스템 및 컴퓨터 프로그램
US20160140762A1 (en) Image processing device and image processing method
KR101200009B1 (ko) 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
JP6273686B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US11340706B2 (en) Gesture recognition based on depth information and computer vision
US11847823B2 (en) Object and keypoint detection system with low spatial jitter, low latency and low power usage
Ukita et al. Wearable Virtual Tablet: Fingertip Drawing Interface Using an Active-Infrared Camera.
JP2020173521A (ja) 情報処理装置、情報処理方法およびプログラム
JP2020144465A (ja) 情報処理装置、情報処理方法及びプログラム
JP2013196224A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R150 Certificate of patent or registration of utility model

Ref document number: 6221505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees