JP6273686B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6273686B2
JP6273686B2 JP2013070893A JP2013070893A JP6273686B2 JP 6273686 B2 JP6273686 B2 JP 6273686B2 JP 2013070893 A JP2013070893 A JP 2013070893A JP 2013070893 A JP2013070893 A JP 2013070893A JP 6273686 B2 JP6273686 B2 JP 6273686B2
Authority
JP
Japan
Prior art keywords
candidate group
image
candidate
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013070893A
Other languages
English (en)
Other versions
JP2014194685A (ja
Inventor
厚一郎 新沼
厚一郎 新沼
村瀬 太一
太一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013070893A priority Critical patent/JP6273686B2/ja
Priority to US14/159,584 priority patent/US9471171B2/en
Priority to EP14154451.0A priority patent/EP2784720B1/en
Publication of JP2014194685A publication Critical patent/JP2014194685A/ja
Application granted granted Critical
Publication of JP6273686B2 publication Critical patent/JP6273686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Endoscopes (AREA)

Description

本発明は、例えば、ユーザの手指の検知に用いる画像処理装置、画像処理方法および画像処理プログラムに関する。
従来から、プロジェクタを用いて文書画像を投影する方法が用いられている。近年においては、投影された投影画像に対してインタラクション操作を行うことで、ユーザの作業支援を実現させる為の技術も開発されている。例えば、投影画像に含まれる任意の単語を手指で示した場合、当該単語に関連付けられた注釈などを提示する拡張現実感(Augmented Reality:AR)技術が開示されている。
上述のインターフェースでは、任意の場所に固定されたカメラ、または自由に移動が可能なカメラを用いて、ユーザの手指の位置を正確に特定することが必要となる。手指の位置を特定する方法として、例えば、撮像画像から、例えば肌色の色成分(色特徴量)を抽出することで、手領域輪郭を抽出し、当該手領域輪郭から手指の位置を特定する技術が開示されている。
Survey on Skin Tone Detection using Color Spaces, C. Prema et al., International Journal of Applied Information Systems 2(2):18-26, May 2012. Published by Foundation of Computer Science, New York, USA. Skin Detection - a Short Tutorial, Ahmed et al., Encyclopedia of Biometrics by Springer-Verlag Berlin Heidelberg 2009. A survey of skin-color modeling and detection methods, Kakumanu et al., Pattern Recognition, Volume 40, Issue 3, March 2007, Pages 1106-1122 A Survey on Pixel-Based Skin Color Detection Techniques, Vladimir et al., IN PROC. GRAPHICON-2003.
しかしながら、色特徴量を用いたユーザの手指の位置を検出する技術においては、投影画像が投影される壁面または紙面の背景が肌色の場合は、手指の位置の特定が困難となる。また、色特徴量は照明環境によっても大きく特徴量が変動する問題が存在する。この様な状況から、照明変動や背景色に依存せずにユーザの手指の位置を正確に特定する画像処理装置は提唱されていない。本発明は、照明変動や背景色に依存せずにユーザの手指の位置を正確に特定する画像処理装置を提供することを目的とする。
本発明が開示する画像処理装置は、ユーザの第1部位と第2部位を含む画像を取得する取得部と、前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出する検出部を備える。更に、当該画像処理装置は、前記第1部位と前記第2部位の生体的位置関係を満たさない前記第1部位の候補及び前記第2部位の候補を、時系列において前記画像の前に取得された前画像において選定された前記第1部位及び前記第2部位に依存することなく、前記第1候補群及び前記第2候補群からそれぞれ除外することにより、前記第1候補群と前記第2候補群から単一の前記第1部位及び単一の前記第2部位を選定する選定部を備え、前記第1部位は手指であり、前記第2部位は手背または手掌である。
なお、本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示される画像処理装置では、少数の手特徴モデルでユーザの手指の位置を正確に特定することが可能となる。
一つの実施形態による画像処理装置1の機能ブロック図である。 第1特徴量モデルのポジティブ画像の概念図である。 第1特徴量モデルのデータ構造の一例を示すテーブルである。 第2特徴量モデルのポジティブ画像の概念図である。 第2特徴量モデルのデータ構造の一例を示すテーブルである。 取得部2が取得する画像と、当該画像から検出された第1候補群の概念図である。 検索領域データのデータ構造の一例を示すテーブルである。 (a)は、1つの第1候補群に対する角度範囲の検索領域の概念図である。(b)は、1つの第1候補群に対するスケール範囲の検索領域の概念図である。 取得部2が取得する画像から選定部5が第1部位と第2部位を選定した概念図となる。 画像処理装置1による画像処理のフローチャートである。 一つの実施形態による画像処理装置1のハードウェア構成図である。
以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は、開示の技術を限定するものではない。
(実施例1)
図1は、一つの実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、検出部3、記憶部4、選定部5を有する。なお、画像処理装置1は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。
取得部2は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部2は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。取得部2は、外部装置が撮像する画像を受け取る。画像を撮像する外部装置は、例えば撮像素子である。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。また、撮像素子をHMC(Head Mounted Camera)として利用することも可能である。撮像素子は、例えば、ユーザの手を含む画像を撮像する。なお、撮像素子を、必要に応じて画像処理装置1に含めることも可能である。
取得部2は、取得した画像を検出部3に出力する。
検出部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、検出部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。検出部3は、取得部2から画像を受け取り、当該画像に含まれるユーザの第1部位の候補となる第1候補群と、ユーザの第2部位の候補となる第2候補群を検出する。なお、第1部位は例えば手指であり、第2部位は例えば手の甲(手背と称しても良い)または手掌である。実施例1においては、第2部位の手の甲として説明する。なお、検出部3による検出処理の詳細については後述する。
記憶部4は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスクなどの記憶装置である。なお、記憶部4は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。
なお、記憶部4は、必ずしも画像処理装置1に含まれる必要はない。例えば当該各種データは、画像処理装置1に含まれる各機能部の図示しないキャッシュやメモリ等に記憶しても良い。また、画像処理装置1に設けられる図示しない通信部を用いて通信回線を介することによって、記憶部4を画像処理装置1以外の外部装置に設けることも可能である。
記憶部4には、例えば、第1部位の特徴量を予め抽出した第1特徴量モデルと、第2部位の特徴量を予め抽出した第2特徴量モデルが事前学習により予め記憶される。なお、第1特徴量モデルと第2特徴量モデルは、HOG(Histogram of Oriented Gradients)特徴量またはLBP(Local Binary Pattern)特徴量に基づいて生成することが出来る。実施例1においては、第1特徴量モデルと第2特徴量モデルを、HOG特徴量に基づいて生成するものとして説明する。なお、事前学習は、例えば、対象物(第1部位または第2部位)が撮像された画像(ポジティブ画像)と、対象物が撮像されていない画像(ネガティブ画像)を用いて実施され、AdaboostやSVM(Support Vector Machine)等の様々な公知の手法を用いることが可能である。また、HOG特徴量の抽出方法は、例えば、「Navneet et al., Histograms of Oriented Gradients for Human Detection, 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05)」に開示される方法を用いることが出来る。
図2は、第1特徴量モデルのポジティブ画像の概念図である。図2のポジティブ画像においては、例えば、左上端が原点として設定され、横方向がx座標、縦方向がy座標として規定されている。また、図2のポジティブ画像においては、任意の数のブロック数に区切られており、ユーザの第1部位となる手指が真直状態で撮像されている。なお、図2に示すポジティブ画像として、例えば、複数のユーザの第1部位や、照明条件や背景を変化させた複数のポジティブ画像を用いても良い。また、当該複数のポジティブ画像に対する事前学習の過程において、手指先の位置を規定の座標位置に一律的に定める様に設定しても良い。この場合、複数のポジティブ画像から抽出される何れの第1特徴量モデルを使用しても、実際に検出されるユーザの指先と、ポジティブ画像の指先位置を正確に適合することが可能となり、ユーザの手指先の位置を正確に特定出来る。更に、図2に示すポジティブ画像においては、手指付根位置が適宜設定される。手指付根位置は、例えば、画像下端付近に撮像される手指の中心位置に設定されれば良い。
図3は、第1特徴量モデルのデータ構造の一例を示すテーブルである。図3のテーブル30には、手指付根位置、手指先位置、手指先方向、HOG特徴量の項目が格納される。更に、HOG特徴量の項目には、図2に示すブロックNoと、各ブロック内を、9分割した分割領域の勾配の強度の項目が格納されている。なお、勾配の強度は、例えば、1〜64の値に正規化されている。手指付根位置と手指先位置の項目には図2で説明したx座標とy座標が格納される。手指先方向は、例えば、手指付根位置と手指先位置のx座標の差分に基づいて規定されれば良い。
図4は、第2特徴量モデルのポジティブ画像の概念図である。図4のポジティブ画像においては、例えば、左上端が原点として設定され、横方向がx座標、縦方向がy座標として規定されている。また、図4のポジティブ画像においては、任意の数のブロック数に区切られており、ユーザの第2部位となる手の甲が撮像されている。なお、図4に示すポジティブ画像として、例えば、複数のユーザの第2部位や、照明条件や背景を変化させた複数のポジティブ画像を用いても良い。なお、図4に示すポジティブ画像においては、手指付根位置が適宜設定される。手指付根位置は、例えば、手の甲と手指を連接する、何れかの手根骨の中心位置に設定されれば良い。
図5は、第2特徴量モデルのデータ構造の一例を示すテーブルである。図5のテーブル50には、手指付根位置、手指先位置、HOG特徴量の項目が格納される。テーブル50において、手指先は、図4のポジティブ画像には撮像されない為、例えば、図3のテーブル30に格納される手指先位置と手指付根位置のy座標の差分値(60)を用いて、仮想的に設定されれば良い。この為、図5のテーブル50において、手指先位置のy座標の値は負の値(−40)となる。図5のテーブル50におけるその他のデータ項目は、図3のテーブル30と同様の為、詳細な説明は省略する。
図1の検出部3は、取得部2から受け取った画像からHOG特徴量を抽出し、記憶部4に記憶されている第1特徴量モデルのHOG特徴量と比較して、類似度が所定の第1閾値(例えば70%)以上の、画像に含まれる物体を第1候補群として検出する。図6は、取得部2が取得する画像と、当該画像から検出された第1候補群の概念図である。図6において、取得部2が取得する画像には、ユーザの手、ペン、鍵、携帯電話ならびに封筒が撮像されている。実施例1においては、ユーザの手指、ペンの後端、鍵の先端、ならびに携帯電話のテンキー部分が、第1候補群として検出部3により検出されている。なお、検出部3は、第1候補群を検出する際に、HOG特徴量に加えて、色特徴量を併用しても良い。検出部3は、色特徴量を併用することにより第1候補群の検出数を削除することが可能となる。また、検出部3は、取得部2から受け取った画像からHOG特徴量を抽出し、記憶部4に記憶されている第2特徴量モデルのHOG特徴量と比較して、類似度が所定の第2閾値(例えば70%)以上の、画像に含まれる物体を第2候補群として検出する。なお、第2候補群の図示については省略する。
図1の選定部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、選定部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。選定部5は、第1部位と第2部位の生体的位置関係に基づいて、第1候補群と第2候補群から第1部位または第2部位を選定する。
なお、生体的位置関係は、例えば、第1部位の一端と第2部位の外縁が、連接点において可動状態で連接していることを特徴とする。換言すると、生体的位置関係は、ユーザの手指の付根(連接点と称しても良い)と手の甲が連接している位置関係を指す。
ここで、図1の記憶部4は、第1部位の所定の基準位置に対して第2部位が検出され得る、生体的位置関係に基づいた検索領域データを更に記憶しているものとする。図7は、検索領域データのデータ構造の一例を示すテーブルである。図7のテーブル70においては、例えば、基準位置、位置探索範囲、基準角度、角度探索範囲、基準スケール、スケール探索範囲の項目が格納される。図7のテーブル70に示す各項目は、ユーザの手指と手の甲が連接している生体的位置関係に基づいて規定される。更に、図7のテーブル70に示す各項目は、ユーザの手指と手の甲の相対的な可動域に基づいて設定される。これにより、様々な形状の手が撮像された場合においても頑健な手指位置の検出が可能となる。
図7のテーブル70において、基準位置の項目は、手の甲に対して規定される基準位置であり、例えば、図5のテーブル50の手指付根位置の座標が格納される。位置探索範囲の項目は、基準位置からの第1部位の探索範囲であり、x方向とy方向にそれぞれ規定される。選定部5は、基準位置±位置探索範囲(20±10、20±20)の領域において、第2特徴群が検出されているかを判定する。
図7のテーブル70において、基準角度の項目は、手の甲に対して規定される基準角度であり、例えば、図5のテーブルの手指付根位置と手指先位置のx座標の差分に基づいて規定されれば良い。図7のテーブル70において、角度探索範囲の項目は、基準角度からの第1部位の探索範囲となる。図8(a)は、1つの第1候補群に対する角度範囲の検索領域の概念図である。図8(a)に示す通り、選定部5は、基準位置を基点とし、基準角度±角度探索範囲(0±20)の領域において、第2特徴群が検出されているかを判定する。
図7のテーブル70において、基準スケールの項目は、手の甲に対して規定される基準スケール(手の甲の大きさ)であり、例えば、図5のテーブルの手指付根位置と手指先位置のy座標の差分に基づいて規定されれば良い。スケール探索範囲の項目は、基準スケールからの探索範囲となり、例えば、最小値は基準スケールの0.7倍であり、最大値は基準助スケールの1.3倍であれば良い。図8(b)は、1つの第1候補群に対するスケール範囲の検索領域の概念図である。図8(b)に示す通り、選定部5は、基準位置を基点としたスケール探索範囲に、第2特徴群が検出されているかを判定する。
図1の選定部5は、例えば、検出部3が検出した第1候補群に対して、図7のテーブル70を参照して、検索領域に第2候補群が存在するか否かを確認して、第1候補群と第2候補群の中から第1部位または第2部位を選定する。なお、選定部5は、図7のテーブル70の何れかの項目を選択的に使用しても良いし、組み合わせて使用しても良い。図6に示す通り、取得部2が取得する画像に第1部位と第2部位の双方が撮像されている場合においては、検索領域に第2候補群が存在し、選定部5は、第2部位を選定することが可能である。しかし、取得部2が取得する画像に第1部位のみが撮像されている場合などにより、第2特徴群が検出されない場合は、異なる時間(例えば、次フレーム)に取得部2が取得する画像を用いて、検出部3の検出処理と選定部5の選定処理が実行される。
図9は、取得部2が取得する画像から選定部5が第1部位と第2部位を選定した概念図となる。ユーザの手指と手の甲が連接している拘束条件に基づいて選定している為、選定部5は、検出部3が第1候補群として検出したユーザの手指以外の、ペンの後端、鍵の先端、ならびに携帯電話のテンキー部分をユーザの手指として誤検出ことを排除することが出来る。図1の選定部5は、選定した第1部位に対して、図3のテーブル30の指先位置、手指先方向と、取得部2が取得する画像の原点(例えば、左上端)の関係から、当該画像中の指先位置を正確に算出することが出来る。更に、第1部位となる手指ならびに第2部位となる手の甲形状に着目すると、手の可動域の影響を排除した、単純な構造をしている為、単純な特徴量モデルを用いることが可能となる為、記憶容量や演算処理負荷が軽減を具現化することが可能となる。また、比較例として、HOG特徴量やLBG特徴量を用いた、様々な形状の手特徴モデルを使用することが考えられる。しかしながら、この場合、可動域が自在な手に対して十分な数の手特徴モデルを使用することは、記憶容量や演算負荷の観点から現実的ではない。一方、手特徴モデルの数を少なくすると、ユーザの手指を検出すること自体が出来なくなる場合や、概算的な位置推定によって、手指の位置を正確に特定出来なく場合が生じるが、実施例1に係る画像処理装置はこの影響を排除している。
実施例1においては、検出部3が第1候補群と第2候補群を検出してから選定部5が第1部位または第2部位を選定している。これに加えて、検出部3が、第1候補群のみを検出した後に、選定部5が検出部3に対して検索領域に基づいた第2候補群の検出を実行させても良い。これにより、画像処理装置1の処理負荷の軽減を図ることが可能となる。また、検出部3が、第2候補群のみを検出した後に、選定部5が検出部3に対して検索領域に基づいた第1候補群の検出を実行させても良い。これにより、画像処理装置1の処理負荷の軽減を図ることが可能となる
図6ならびに図9においては、ユーザの手指が一本のみ撮像されているが、ユーザの手指が2本以上撮像されている場合も想定される。この場合、複数の第1部位の一端が、1つの第2部位の外縁に連接しているとみなすことが可能であり、選定部5は、1つの第2部位にそれぞれ対応する第1部位として、複数の第1部位を選定する。第2部位となる手の甲が同一であるかの否かの判定は、選定部5が選定した第2候補群の位置、角度、スケールの項目を用いて類似度を算出することで可能となる。例えば、第1候補群の中の候補A1に対応する第2候補群の中の候補A2と、第1候補群の中の候補B1に対応する第2候補群の中の候補B2について、次式の通りの条件を満たす場合に、1つの第2部位にそれぞれ対応する複数の第1部位と判定(選定)することが出来る。
(数1)
(x1−x2)+(y1−y2)<TH1
|a1 − a2|<TH2
|w1 − w2|<TH3
但し、(x1、y1)は、A2の中心位置、a1はA2の中心位置の画像原点に対する角度、w1は、A2の幅とする。また、(x2、y2)は、B2の中心位置、a2はB2の中心位置の画像原点に対する角度、w2は、B2の幅とする。更に、TH1、TH2、TH3は任意の閾値である。更に、選定部5は、1つの第2部位に対応する第1部位を選定した場合は、第1部位に対してラベリングを行う統合処理を行っても良い。
なお、画像処理装置1は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路で構成しても良い。
図10は、画像処理装置1による画像処理のフローチャートである。取得部2は、例えば、撮像素子が撮像する画像を撮像素子から受け取る(ステップS101)。取得部2は取得した画像を検出部3へ出力する。検出部3は、取得部2から画像を受け取り、当該画像に含まれるユーザの第1部位の候補となる第1候補群と、ユーザの第2部位の候補となる第2候補群を、第1特徴量モデルと第2特徴量を用いて上述の方法を用いて検出する(ステップS102)。ここで、図示はしないが、ステップS102において、第2特徴群が検出されない場合は、異なる時間(例えば、次フレーム)に取得部2が画像を取得し(ステップS101)、検出部3はステップS102の処理を再度実行する。
選定部5は、第1部位と第2部位の生体的位置関係に基づいて、第1候補群と第2候補群から第1部位または第2部位を上述の方法を用いて選定する(ステップS103)。選定部5は、選定された第1部位が1つのみか否かを判定する(ステップS104)。選定された第1部位が1つのみの場合(ステップS104−Yes)、選定した第1部位に対して、図3のテーブル30の指先位置、手指先方向と、取得部2が取得する画像の原点(例えば、左上端)の関係から、当該画像中の第1部位の先端位置(指先位置)を算出する(ステップS107)。
ステップS104において、選定された第1部位が1つのみで無い場合(ステップS104−No)、選定部5は、複数の第1部位のそれぞれが、1つの共通の第2部位に対応するか否かを判定する(ステップS105)。当該判定方法は、例えば、上述の(数1)を用いることが出来る。複数の第1部位のそれぞれが、1つの共通の第2部位に対応しない場合(ステップS105−No)、画像処理装置1は、ステップS101〜S105の処理を繰り返す。複数の第1部位のそれぞれが、1つの共通の第2部位に対応する場合(ステップS105−Yes)、選定部5は、複数の第1部位に対してラベリングを行い、統合処理を実施する(ステップS106)。選定部5は、ラベリングを行った任意の第1部位の画像中における先端位置(指先位置)を算出する(ステップS107)ことで、画像処理装置1は図10のフローチャートに示す画像処理を終了する。
実施例1の画像処理装置においては、照明変動や背景色に依存せずにユーザの手指の位置を正確に特定することが可能となる。
(実施例2)
図11は、一つの実施形態による画像処理装置1のハードウェア構成図である。図11に示すように、画像処理装置1は、制御部6、主記憶部7、補助記憶部8、ドライブ装置9、ネットワークI/F部11、入力部12、表示部13を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
制御部6は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部6は、主記憶部7や補助記憶部8に記憶されたプログラムを実行する演算装置であり、入力部12や記憶装置からデータを受け取り、演算、加工した上で、表示部13や記憶装置などに出力する。
主記憶部7は、ROMやRAMなどであり、制御部6が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶または一時保存する記憶装置である。
補助記憶部8は、HDDなどであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
ドライブ装置9は、記録媒体10、例えばフレキシブルディスクからプログラムを読み出し、補助記憶部8にインストールする。また、記録媒体10に、所定のプログラムを格納し、この記録媒体10に格納されたプログラムはドライブ装置9を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1により実行可能となる。
ネットワークI/F部11は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置1とのインターフェースである。
入力部12は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部13の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部12は、ユーザが制御部6に操作指示を与えたり、データを入力したりするためのユーザインタフェースである。
表示部13は、CRT(Cathode Ray Tube)やLCD(LiquidCrystal Display)等により構成され、制御部6から入力される表示データに応じた表示が行われる。
なお、上述した画像処理方法は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、上述した画像処理方法を実現することが出来る。
また、このプログラムを記録媒体10に記録し、このプログラムが記録された記録媒体10をコンピュータや携帯端末に読み取らせて、前述した画像処理を実現させることも可能である。なお、記録媒体10は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることが出来る。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが出来る。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
ユーザの第1部位と第2部位を含む画像を取得する取得部と、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出する検出部と、
前記第1部位と前記第2部位の生体的位置関係に基づいて、前記第1候補群と前記第2候補群から前記第1部位または前記第2部位を選定する選定部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記第1部位の特徴量を予め抽出した第1特徴量モデルと、前記第2部位の特徴量を予め抽出した第2特徴量モデルを記憶する記憶部を更に備え、
前記検出部は、
前記第1特徴量モデルとの類似度が、所定の第1閾値以上の前記画像に含まれる物体を前記第1候補群として検出し、
前記第2特徴量モデルとの類似度が、所定の第2閾値以上の前記画像に含まれる物体を前記第2候補群として検出する
ことを特徴とする付記1記載の画像処理装置。
(付記3)
前記生体的位置関係は、前記第1部位の一端と前記第2部位の外縁が、連接点において可動状態で連接していることを特徴とする付記1または付記2記載の画像処理装置。
(付記4)
前記記憶部は、前記第1部位の所定の基準位置に対して前記第2部位が検出され得る、前記生体的位置関係に基づいた検索領域データを記憶しており、
前記選定部は、前記検索領域データに基づいて、前記第1候補群と前記第2候補群から前記第1部位と前記第2部位を選定することを特徴とする付記2または付記3記載の画像処理装置。
(付記5)
前記第1部位は手指であり、前記第2部位は手背または手掌であることを特徴とする付記1ないし付記4の何れか一つに記載の画像処理装置。
(付記6)
前記選定部は、複数の前記第1部位の一端が前記第2部位の外縁に連接している場合は、前記第2部位にそれぞれ対応する前記第1部位として、前記複数の前記第1部位を選定することを特徴とする付記1ないし付記3の何れか一つに記載の画像処理装置。
(付記7)
前記記憶部は、HOG特徴量またはLBP特徴量に基づく前記第1特徴量モデルと前記第2特徴量モデルを記憶しており、
前記検出部は、前記第1候補群と前記第2候補群を、HOG特徴量またはLBP特徴量を用いて検出することを特徴とする付記1ないし付記6いずれか一つに記載の画像処理装置。
(付記8)
前記検出部は、色特徴量を更に用いて前記第1候補群と前記第2候補群を検出することを特徴とする付記7記載の画像処理装置。
(付記9)
前記選定部は、前記画像における前記第1部位の先端位置を算出することを特徴とする付記1ないし付記8いずれか一つに記載の画像処理装置。
(付記10)
ユーザの第1部位と第2部位を含む画像を取得し、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
前記第1部位と前記第2部位の生体的位置関係に基づいて、前記第1候補群と前記第2候補群から前記第1部位または前記第2部位を選定すること
を含むことを特徴とする画像処理方法。
(付記11)
前記第1部位の特徴量を予め抽出した第1特徴量モデルと、前記第2部位の特徴量を予め抽出した第2特徴量モデルを記憶することを更に含み、
前記検出することは、
前記第1特徴量モデルとの類似度が、所定の第1閾値以上の前記画像に含まれる物体を前記第1候補群として検出し、
前記第2特徴量モデルとの類似度が、所定の第2閾値以上の前記画像に含まれる物体を前記第2候補群として検出する
ことを特徴とする付記10記載の画像処理方法。
(付記12)
前記生体的位置関係は、前記第1部位の一端と前記第2部位の外縁が、連接点において可動状態で連接していることを特徴とする付記10または付記11記載の画像処理方法。
(付記13)
前記記憶することは、前記第1部位の所定の基準位置に対して前記第2部位が検出され得る、前記生体的位置関係に基づいた検索領域データを記憶しており、
前記選定することは、前記検索領域データに基づいて、前記第1候補群と前記第2候補群から前記第1部位と前記第2部位を選定することを特徴とする付記11または付記12記載の画像処理方法。
(付記14)
前記第1部位は手指であり、前記第2部位は手背または手掌であることを特徴とする付記10ないし付記13の何れか一つに記載の画像処理方法。
(付記15)
前記選定することは、複数の前記第1部位の一端が前記第2部位の外縁に連接している場合は、前記第2部位にそれぞれ対応する前記第1部位として、前記複数の前記第1部位を選定することを特徴とする付記10ないし付記12の何れか一つに記載の画像処理方法。
(付記16)
前記記憶することは、HOG特徴量またはLBP特徴量に基づく前記第1特徴量モデルと前記第2特徴量モデルを記憶しており、
前記検出することは、前記第1候補群と前記第2候補群を、HOG特徴量またはLBP特徴量を用いて検出することを特徴とする付記10ないし付記15いずれか一つに記載の画像処理方法。
(付記17)
前記検出することは、色特徴量を更に用いて前記第1候補群と前記第2候補群を検出することを特徴とする付記16記載の画像処理方法。
(付記18)
前記選定することは、前記画像における前記第1部位の先端位置を算出することを特徴とする付記11ないし付記17いずれか一つに記載の画像処理方法。
(付記19)
コンピュータに、
ユーザの第1部位と第2部位を含む画像を取得し、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
前記第1部位と前記第2部位の生体的位置関係に基づいて、前記第1候補群と前記第2候補群から前記第1部位または前記第2部位を選定すること
を実行させることを特徴とする画像処理プログラム。
1 画像処理装置
2 取得部
3 検出部
4 記憶部
5 選定部

Claims (7)

  1. ユーザの第1部位と第2部位を含む画像を取得する取得部と、
    前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出する検出部と、
    前記第1部位と前記第2部位の生体的位置関係を満たさない前記第1部位の候補及び前記第2部位の候補を、時系列において前記画像の前に取得された前画像において選定された前記第1部位及び前記第2部位に依存することなく、前記第1候補群及び前記第2候補群からそれぞれ除外することにより、前記第1候補群と前記第2候補群から単一の前記第1部位及び単一の前記第2部位を選定する選定部と、
    を備え
    前記第1部位は手指であり、前記第2部位は手背または手掌である
    ことを特徴とする画像処理装置。
  2. 前記第1部位の特徴量を予め抽出した第1特徴量モデルと、前記第2部位の特徴量を予め抽出した第2特徴量モデルを記憶する記憶部を更に備え、
    前記検出部は、
    前記第1特徴量モデルとの類似度が、所定の第1閾値以上の前記画像に含まれる物体を前記第1候補群として検出し、
    前記第2特徴量モデルとの類似度が、所定の第2閾値以上の前記画像に含まれる物体を前記第2候補群として検出する
    ことを特徴とする請求項1記載の画像処理装置。
  3. 前記生体的位置関係は、前記第1部位の一端と前記第2部位の外縁が、連接点において可動状態で連接していることを特徴とする請求項1または請求項2記載の画像処理装置。
  4. 前記記憶部は、前記第1部位の所定の基準位置に対して前記第2部位が検出され得る、前記生体的位置関係に基づいた検索領域データを記憶しており、
    前記選定部は、前記検索領域データに基づいて、前記第1候補群と前記第2候補群から前記第1部位と前記第2部位を選定することを特徴とする請求項2記載の画像処理装置。
  5. 前記選定部は、複数の前記第1部位の一端が前記第2部位の外縁に連接している場合は、前記第2部位にそれぞれ対応する前記第1部位として、前記複数の前記第1部位を選定することを特徴とする請求項1ないし請求項3の何れか一項に記載の画像処理装置。
  6. コンピュータによって実行される画像処理方法であって、
    ユーザの第1部位と第2部位を含む画像を取得し、
    前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
    前記第1部位と前記第2部位の生体的位置関係を満たさない前記第1部位の候補及び前記第2部位の候補を、時系列において前記画像の前に取得された前画像において選定された前記第1部位及び前記第2部位に依存することなく、前記第1候補群及び前記第2候補群からそれぞれ除外することにより、前記第1候補群と前記第2候補群から単一の前記第1部位及び単一の前記第2部位を選定すること
    を含み、
    前記第1部位は手指であり、前記第2部位は手背または手掌である
    ことを特徴とする画像処理方法。
  7. コンピュータに、
    ユーザの第1部位と第2部位を含む画像を取得し、
    前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
    前記第1部位と前記第2部位の生体的位置関係を満たさない前記第1部位の候補及び前記第2部位の候補を、時系列において前記画像の前に取得された前画像において選定された前記第1部位及び前記第2部位に依存することなく、前記第1候補群及び前記第2候補群からそれぞれ除外することにより、前記第1候補群と前記第2候補群から単一の前記第1部位及び単一の前記第2部位を選定すること
    を実行させ
    前記第1部位は手指であり、前記第2部位は手背または手掌である
    ことを特徴とする画像処理プログラム。
JP2013070893A 2013-03-29 2013-03-29 画像処理装置、画像処理方法および画像処理プログラム Active JP6273686B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013070893A JP6273686B2 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法および画像処理プログラム
US14/159,584 US9471171B2 (en) 2013-03-29 2014-01-21 Image processing device and method
EP14154451.0A EP2784720B1 (en) 2013-03-29 2014-02-10 Image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013070893A JP6273686B2 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014194685A JP2014194685A (ja) 2014-10-09
JP6273686B2 true JP6273686B2 (ja) 2018-02-07

Family

ID=50070422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013070893A Active JP6273686B2 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US9471171B2 (ja)
EP (1) EP2784720B1 (ja)
JP (1) JP6273686B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10043084B2 (en) * 2016-05-27 2018-08-07 Toyota Jidosha Kabushiki Kaisha Hierarchical context-aware extremity detection
JP7099526B2 (ja) * 2018-07-04 2022-07-12 富士通株式会社 判定方法、判定プログラムおよび情報処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1394727B1 (en) * 2002-08-30 2011-10-12 MVTec Software GmbH Hierarchical component based object recognition
JP2007122218A (ja) * 2005-10-26 2007-05-17 Fuji Xerox Co Ltd 画像分析装置
US8160322B2 (en) * 2007-08-02 2012-04-17 Siemens Medical Solutions Usa, Inc. Joint detection and localization of multiple anatomical landmarks through learning
US8406497B2 (en) * 2009-02-25 2013-03-26 Dongwook YOON Method for population-driven identification of body landmarks
JP5297530B2 (ja) * 2009-07-15 2013-09-25 株式会社東芝 画像処理装置、及びインターフェース装置
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US9002099B2 (en) * 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose

Also Published As

Publication number Publication date
US20140292644A1 (en) 2014-10-02
EP2784720B1 (en) 2021-12-29
EP2784720A2 (en) 2014-10-01
JP2014194685A (ja) 2014-10-09
EP2784720A3 (en) 2017-11-22
US9471171B2 (en) 2016-10-18

Similar Documents

Publication Publication Date Title
JP6941198B2 (ja) ジェスチャー認識方法、ジェスチャー認識装置、電子機器、及び記憶媒体
US8970696B2 (en) Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system
JP6007497B2 (ja) 画像投影装置ならびに画像投影制御装置およびプログラム
US9792494B2 (en) Image processing apparatus, method, and program capable of recognizing hand gestures
JP6056319B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6221505B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6326847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR20130071341A (ko) 안면 특징 벡터 구성
US9213897B2 (en) Image processing device and method
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
JP5887264B2 (ja) 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
KR20220042335A (ko) 자동 수어 인식 방법 및 시스템
US20160140762A1 (en) Image processing device and image processing method
US10930068B2 (en) Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program
US9727145B2 (en) Detecting device and detecting method
JP6273686B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Ozer et al. Vision-based single-stroke character recognition for wearable computing
Tarrataca et al. The current feasibility of gesture recognition for a smartphone using J2ME
KR101200009B1 (ko) 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
US10796435B2 (en) Image processing method and image processing apparatus
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
US11847823B2 (en) Object and keypoint detection system with low spatial jitter, low latency and low power usage
KR101730711B1 (ko) 스트로크 입력 순서의 복원 방법 및 장치
JP2017072940A (ja) 画像処理システム、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151204

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171011

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171225

R150 Certificate of patent or registration of utility model

Ref document number: 6273686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150