JP6361332B2 - ジェスチャ認識装置およびジェスチャ認識プログラム - Google Patents

ジェスチャ認識装置およびジェスチャ認識プログラム Download PDF

Info

Publication number
JP6361332B2
JP6361332B2 JP2014139087A JP2014139087A JP6361332B2 JP 6361332 B2 JP6361332 B2 JP 6361332B2 JP 2014139087 A JP2014139087 A JP 2014139087A JP 2014139087 A JP2014139087 A JP 2014139087A JP 6361332 B2 JP6361332 B2 JP 6361332B2
Authority
JP
Japan
Prior art keywords
hand
projector light
region
irradiated
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014139087A
Other languages
English (en)
Other versions
JP2016018276A (ja
Inventor
一樹 長村
一樹 長村
村瀬 太一
太一 村瀬
松田 高弘
高弘 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014139087A priority Critical patent/JP6361332B2/ja
Priority to US14/737,695 priority patent/US20160004386A1/en
Publication of JP2016018276A publication Critical patent/JP2016018276A/ja
Application granted granted Critical
Publication of JP6361332B2 publication Critical patent/JP6361332B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)

Description

本発明は、ジェスチャ認識装置等に関する。
現実の物体にプロジェクタを使って仮想画像を投影させ、現実の物体に関連付けられた注釈やメニューを提示する技術がある。また、ステレオカメラを用いて利用者の指先を認識し、仮想画像をタッチすることや、仮想画像上で線を描くといったインタラクションを実現する技術がある。
利用者の手領域を検出する技術の一例として、従来技術1を説明する。従来技術1は、カメラが撮影した画像から肌色領域を抽出し、抽出した肌色領域の形状の特徴から手領域を抽出する技術である。図12は、従来技術1を説明するための図である。
図12に示すように、従来技術1は、カメラ等から取得したRGB(Red Green Blue)表示系の入力画像10aを、HSV(Hue Saturation Value)表示系のHSV画像10bに変換する。従来技術1は、肌色に対応する色閾値と、HSV画像10bとを比較して、肌色の領域を特定する。従来技術1は、肌色の領域を画素「0」に設定し、肌色でない領域を画素「1」に設定することで、2値化画像10cを生成する。従来技術1は、2値化画像10cの形状と、指先の特徴とをパターンマッチングすることで、指先を特定する。例えば、画像10dに示す例では、指先1,2,3,4,5が抽出されている。
図13は、従来技術1で用いられる肌色に対応する色閾値の一例を示す図である。従来技術1では、H軸、S軸、V軸に、上限と下限の色閾値を設定する。例えば、H軸の色閾値は、HminからHmaxまでとなる。S軸の色閾値は、SminからSmaxまでとなる。V軸の色閾値は、VminからVmaxまでとなる。各軸の閾値をより具体的に示すと、例えば、H軸の色閾値を0<H<19、171<H<180とする。S軸の色閾値を40<S<121とする。V軸の色閾値を48<V<223とする。図12に示したHSV画像10bの各画素のうち、図13に示した色閾値に含まれる画素は、肌色の領域に対応する画素となる。
ここで、従来技術1では、プロジェクタ光が手に重なると、手領域の色分布が変化し、手領域に対応する色閾値の抽出範囲からはずれるため、手領域を抽出することができない。このため、プロジェクタ光が手に重なった場合でも、手領域を検出するために、色閾値の範囲を広げる従来技術2がある。
例えば、従来技術2では、H軸の色閾値を0<H<21、176<H<180とする。S軸の色閾値を40<S<178とする。V軸の色閾値を45<V<236とする。このように、従来技術2では、色閾値の範囲を広げることで、手領域の色分布の変化に対応して、手領域を含む領域を抽出することができる。
特開2011−118533号公報 特開2005−242582号公報
しかしながら、上述した従来技術では、手領域を誤検出するという問題がある。
例えば、従来技術2では、従来技術1と比較して、色閾値の範囲を広げているため、手領域を抽出するだけでなく、手領域ではない背景の領域まで手領域として抽出してしまう。
1つの側面では、手領域の誤検出を防止することができるジェスチャ認識装置およびジェスチャ認識プログラムを提供することを目的とする。
第1の案では、ジェスチャ認識装置は、撮影部と、取得部と、抽出部とを有する。撮影部は、プロジェクタ光が照射される照射領域を撮影する。取得部は、撮影部が撮影した画像を基にして、手領域にプロジェクタ光が照射されていない場合の手領域の色情報を示す第1色情報と、手領域にプロジェクタ光が照射された場合の手領域の色情報を示す第2色情報とを取得する。抽出部は、撮影部が撮影した画像から、プロジェクタ光によって照射されるタッチ領域と重ならない手領域の一部を第1色情報に基づいて抽出し、プロジェクタ光によって照射されるタッチ領域と重なる手領域の一部を、第2色情報に基づいて抽出する。
本発明の1実施態様によれば、手領域の誤検出を防止することができるという効果を奏する。
図1は、本実施例に係るジェスチャ認識装置の構成を示す機能ブロック図である。 図2は、プロジェクタ光が照射されていない場合の画像データの一例を示す図である。 図3は、取得部が色閾値Th1を特定する処理を説明するための図である。 図4は、プロジェクタ光が照射されている場合の画像データの一例を示す図である。 図5は、取得部が色閾値Th2を特定する処理を説明するための図である。 図6は、タッチ領域と手領域とが重なるか否かを判定する処理を説明するための図(1)である。 図7は、タッチ領域と手領域とが重なる場合の抽出部の処理を補足説明するための図である。 図8は、色閾値Th1および色閾値Th2を算出する処理を示すフローチャートである。 図9は、手領域を抽出する処理手順を示すフローチャートである。 図10は、タッチ領域と手領域とが重なるか否かを判定する処理を説明するための図(2)である。 図11は、ジェスチャ認識プログラムを実行するコンピュータの一例を示す図である。 図12は、従来技術1を説明するための図である。 図13は、従来技術1で用いられる肌色に対応する色閾値の一例を示す図である。
以下に、本願の開示するジェスチャ認識装置およびジェスチャ認識プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係るジェスチャ認識装置の構成の一例について説明する。図1は、本実施例に係るジェスチャ認識装置の構成を示す機能ブロック図である。図1に示すように、このジェスチャ認識装置は、プロジェクタ光源110と、撮影部120と、入力部130と、表示部140と、記憶部150と、制御部160とを有する。
プロジェクタ光源110は、プロジェクタ光制御部160aから受け付ける情報を基にして各種の色や画像に対応するプロジェクタ光を照射する装置である。プロジェクタ光源110は、例えば、LED(Light Emitting Diode)光源に対応する。
撮影部120は、プロジェクタ光源110から照射される照射領域の画像を撮影する装置である。撮影部120は、撮影した画像の画像データを、取得部160b、抽出部160cに出力する。撮影部120は、カメラ等に対応する。
入力部130は、各種の情報をジェスチャ認識装置100に入力する入力装置である。入力部130は、例えば、キーボードやマウス、タッチパネル等に対応する。
表示部140は、制御部160から出力される情報を表示する表示装置である。表示部140は、例えば、液晶ディスプレイやタッチパネル等に対応する。
記憶部150は、色閾値情報150aを有する。記憶部150は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
色閾値情報150aは、初期色閾値と、色閾値Th1と、色閾値Th2とを含む。初期色閾値は、確実に手領域が抽出できるように、広く閾値を取った色閾値である。例えば、初期色閾値は、式(1)、式(2)、式(3)で定義される。
0<H<20、170<H<180・・・(1)
60<S<200・・・(2)
45<V<255・・・(3)
色閾値Th1は、後述する取得部160bにより生成される色閾値である。色閾値Th1は、手領域を抽出する色閾値であり、上記の初期色閾値と比較して狭いものとなる。取得部160bが、色閾値Th1を生成する説明は後述する。
色閾値Th2は、詳述する取得部160bにより生成される色閾値である。色閾値Th2は、手領域のうち、プロジェクタ光が照射された部分の領域を抽出する色閾値である。取得部160bが、色閾値Th2を生成する説明は後述する。
制御部160は、プロジェクタ光制御部160aと、取得部160bと、抽出部160cと、認識部160dとを有する。制御部140は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部140は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
プロジェクタ光制御部160aは、プロジェクタ光源110に情報を出力することで、各種の色や画像に対応するプロジェクタ光を照射させる。プロジェクタ光制御部160aは、取得部160bからプロジェクタ光の照射要求を受け付けた場合には、取得部160bにより指定される位置にプロジェクタ光を照射させる。例えば、取得部160により指定される位置は、手領域の重心位置となる。
プロジェクタ光生成部160aは、取得部160bからプロジェクタ光の照射停止要求を受け付けた場合には、プロジェクタ光源110がプロジェクタ光を照射することを抑止する。
取得部160bは、撮影部120から取得する画像データを基にして、手領域にプロジェクタ光が照射されていない場合の手領域の色閾値Th1を特定する処理部である。また、取得部160bは、手領域にプロジェクタ光が照射されている間に、撮影部120から取得する画像データを基にして、手領域にプロジェクタ光が照射されている場合の色閾値Th2を特定する処理部である。取得部160bが、色閾値Th1および色閾値Th2を特定する間、利用者はプロジェクタ光の照射範囲に手を置き、手を動かさないものとする。
取得部160bが、色閾値Th1を特定する処理の一例について説明する。取得部160bは、プロジェクタ光源110によって画像や、各種の色が照射されていない状態の画像データを撮影部120から取得する。図2は、プロジェクタ光が照射されていない場合の画像データの一例を示す図である。図2に示す画像データ20は、RGB表示系の画像データであり、背景に手指以外ない状態で撮影された画像データである。取得部160bは、画像データ20を取得する場合には、プロジェクタ光制御部160aに対して、照射停止要求を出力する。
取得部160bは、RGB表示系の画像データ20を、HSV表示系のHSV画像に変換する。取得部160bは、色識別情報150aに含まれる初期色閾値と、HSV画像の画素の値とを比較して、初期色閾値に含まれる画素を特定する。取得部160bは、特定した画素の領域を手領域として設定する。
取得部160bは、手領域に含まれる各画素のHSV表示系の範囲に基づいて、色閾値Th1を特定する。図3は、取得部が色閾値Th1を特定する処理を説明するための図である。図3において、H軸は、HSV表示系のHueに対応する軸である。S軸は、Saturationに対応する軸である。V軸は、Valueに対応する軸である。
取得部160bは、図3において、手領域に含まれる全画素に対応するHの値のうち、最大のHの値を色閾値Th1のHmaxに設定する。取得部160bは、手領域に含まれる全画素に対応するHの値のうち、最小のHの値を色閾値Th1のHminに設定する。
取得部160bは、図3において、手領域に含まれる全画素に対応するSの値のうち、最大のSの値を色閾値Th1のSmaxに設定する。取得部160bは、手領域に含まれる全画素に対応するSの値のうち、最小のSの値を色閾値Th1のSminに設定する。
取得部160bは、図3において、手領域に含まれる全画素に対応するVの値のうち、最大のVの値を色閾値Th1のVmaxに設定する。取得部160bは、手領域に含まれる全画素に対応するVの値のうち、最小のVの値を色閾値Th1のVminに設定する。
取得部160bは、上記のように、各軸の最大値および最小値を特定することで、色閾値Th1を特定する。取得部160bは、特定した色閾値Th1の情報によって、色閾値情報150aを更新する。
続いて、取得部160bが、色閾値Th2を特定する処理の一例について説明する。取得部160bは、上記の色閾値Th1を特定する処理と同様にして、手領域を特定する。取得部160bは、手領域の重心位置を算出する。取得部160bは、手領域の重心位置をプロジェクタ光制御部160aに出力し、照射要求を行う。
取得部160bは、照射要求を行った後に、プロジェクタ光が照射された状態の画像データを撮影部120から取得する。図4は、プロジェクタ光が照射されている場合の画像データの一例を示す図である。図4に示す例では、画像データ30の重心位置30aに、プロジェクタ光が照射されている。画像データ30は、RGB表示系の画像データである。
取得部160bは、RGB表示系の画像データ30を、HSV表示系のHSV画像に変換する。取得部160bは、変換したHSV画像について、重心位置から所定範囲内の画像を特定する。この重心位置は、上記の手領域の重心位置に対応するものである。
取得部160bは、重心位置から所定範囲に含まれる各画素のHSV表示系の範囲に基づいて、色閾値Th2を特定する。図5は、取得部が色閾値Th2を特定する処理を説明するための図である。図5における各軸の説明は、図3における各軸の説明と同様である。
取得部160bは、図5において、重心位置から所定範囲に含まれる全画素のHの値のうち、最大のHの値を色閾値Th2のHmaxに設定する。取得部160bは、重心位置から所定範囲に含まれる全画素のHの値のうち、最小のHの値を色閾値Th2のHminに設定する。
取得部160bは、図5において、重心位置から所定範囲に含まれる全画素のSの値のうち、最大のSの値を色閾値Th2のSmaxに設定する。取得部160bは、重心位置から所定範囲に含まれる全画素のSの値のうち、最小のSの値を色閾値Th2のSminに設定する。
取得部160bは、図5において、重心位置から所定範囲に含まれる全画素のVの値のうち、最大のVの値を色閾値Th2のVmaxに設定する。取得部160bは、重心位置から所定範囲に含まれる全画素のVの値のうち、最小のVの値を色閾値Th2のVminに設定する。
取得部160bは、上記のように、各軸の最大値および最小値を特定することで、色閾値Th2を特定する。取得部160bは、特定した色閾値Th2の情報によって、色閾値情報150aを更新する。
抽出部160cは、プロジェクタ光によって照射されるタッチ領域と重ならない手領域の一部を、色閾値Th1に基づいて抽出する。また、抽出部160cは、プロジェクタ光によって照射されるタッチ領域と重なる手領域の一部を、色閾値Th2に基づいて抽出する。抽出部160cは、色閾値Th1に基づいて抽出した手領域の一部と、色閾値Th2に基づいて抽出した手領域の一部とを結合した領域を、手領域として特定する。抽出部160cは、手領域の情報を認識部160dに出力する。
まず、抽出部160cが、プロジェクタ光によって照射されるタッチ領域と手領域とが重なるか否かを判定する処理の一例について説明する。抽出部160cは、撮影部120から、RGB表示系の画像データを取得し、上述した取得部160bと同様にして、手領域の指先を特定する。
例えば、抽出部160cは、RGB表示系の画像データを、HSV表示系の画像データに変換する。抽出部160cは、色閾値情報150aに含まれる色閾値Th1と、HSV画像の画素の値とを比較して、色閾値Th1に含まれる画素を特定する。抽出部160cは、特定した画素の領域を手領域として設定する。
抽出部160cは、手領域と、指先の特徴とをパターンマッチングすることで、指先を特定し、特定した画像データ上の指先の座標を算出する。抽出部160cは、指先の座標と、タッチ領域の座標との距離が閾値未満である場合に、タッチ領域と手領域とが重なると判定する。一方、抽出部160cは、指先の座標と、タッチ領域の座標との距離が閾値以上である場合には、タッチ領域と手領域とが重なると判定する。なお、抽出部160cは、画像データ上のタッチ領域の座標を予め保持しているものとする。
図6は、タッチ領域と手領域とが重なるか否かを判定する処理を説明するための図(1)である。図6の画像40aにおいて、タッチ領域の座標41aと、指先の座標41bとの距離が閾値以上となっている。このため、画像40aの場合には、抽出部150cは、タッチ領域と手領域とが重ならないと判定する。
図6の画像40b,40cにおいて、タッチ領域の座標41aと、指先の座標41bとの距離が閾値未満となっている。このため、画像40b,40cの場合には、抽出部150cは、タッチ領域と手領域とが重なると判定する。
続いて、手領域とタッチ領域とが重ならない場合に、抽出部160cが手領域を抽出する処理について説明する。抽出部160cは、撮影部120から、RGB表示系の画像データを取得し、RGB表示系の画像データを、HSV表示系の画像に変換する。抽出部160cは、色閾値情報150aに含まれる色閾値Th1と、HSV画像の画素の値とを比較して、色閾値Th1に含まれる画素を特定する。抽出部160cは、特定した画素の領域を手領域として特定する。抽出部160cは、特定した手領域の情報を、認識部160dに出力する。
続いて、手領域とタッチ領域とが重なる場合に、抽出部160cが手領域を抽出する処理について説明する。手領域とタッチ領域とが重なる場合には、抽出部160cは、色閾値Th1を基に抽出した手領域の一部と、色閾値Th2を基に抽出した手領域の一部とを結合した領域を、手領域として特定する。
まず、抽出部160cは、撮影部120から、RGB表示系の画像データを取得し、RGB表示系の画像データを、HSV表示系の画像に変換する。抽出部160cは、色閾値情報150aに含まれる色閾値Th1と、HSV画像の画素の値とを比較して、色閾値Th1に含まれる画素を特定する。抽出部160cは、特定した画素の領域を手領域の一部として特定する。
抽出部160cは、色閾値情報150aに含まれる色閾値Th2と、HSV画像の画素の値とを比較して、色閾値Th2に含まれる画素を特定する。抽出部160cは、特定した画素の領域を手領域の一部として特定する。
図7は、タッチ領域と手領域とが重なる場合の抽出部の処理を補足説明するための図である。図7の画像50aに示す手領域51は、色閾値Th1を基に抽出した手領域の一部を示すものである。図7の画像50bに示す手領域52は、色閾値Th2を基に抽出した手領域の一部を示すものである。画像50cに示す手領域53は、抽出部160cが、手領域51と、手領域52とを結合することで生成される手領域53を示す。抽出部160cは、結合した手領域50の情報を認識部160dに出力する。
認識部160dは、抽出部160cから受け付けた手領域の情報を基にして、各種のジェスチャを認識し、認識結果に応じた各種の処理を実行する処理部である。例えば、認識部160dは、順次、手領域の情報を抽出部160cから取得し、手領域の指先の軌跡と、所定のパターンとを比較し、軌跡に対応するパターンに応じた処理を実行する。また、認識部160dは、抽出部160cと同様にして、タッチ領域と手領域とが重なるか否かを判定し、タッチ領域が利用者によってタッチされたか否かを判定し、タッチされたタッチ領域に応じた処理を実行してもよい。
次に、本実施例に係るジェスチャ認識装置100の処理手順について説明する。図8は、色閾値Th1および色閾値Th2を算出する処理手順を示すフローチャートである。図8に示すように、ジェスチャ認識装置100の取得部160bは、撮影部120から画像データを取得する(ステップS101)。
取得部160bは、画像データをHSV表示系のHSV画像データに変換する(ステップS102)。取得部160bは、初期色閾値とHSV画像データとを比較して、肌色に対応する画素を特定し(ステップS103)、手領域を抽出する(ステップS104)。
取得部160bは、手領域に含まれる画素のHSVの値を基にして、色閾値Th1を算出する(ステップS105)。取得部160bは、手領域の重心位置を算出する(ステップS106)。
ジェスチャ認識装置100のプロジェクタ光制御部160aは、プロジェクタ光源110を制御して、手領域の重心位置にプロジェクタ光を照射する(ステップS107)。取得部160bは、プロジェクタ光の影響を加味した色閾値Th2を算出する(ステップS108)。
図9は、手領域を抽出する処理を示すフローチャートである。図9に示すように、ジェスチャ認識装置100の抽出部160cは、撮影部120から画像データを取得する(ステップS201)。
抽出部160cは、画像データをHSV表示系のHSV画像データに変換する(ステップS202)。抽出部160cは、色閾値Th1とHSV画像データとを基にして、肌色に対応する画素を特定し(ステップS203)、色閾値Th1に基づく手領域の一部を抽出する(ステップS204)。
抽出部160cは、タッチ領域と指先との距離が閾値未満であるか否かを判定する(ステップS205)。抽出部160cは、タッチ領域と指先との距離が閾値未満でない場合には(ステップS205,No)、最終フレームであるか否かを判定する(ステップS206)。
抽出部160cは、最終フレームである場合には(ステップS206,Yes)、処理を終了する。一方、抽出部160cは、最終フレームでない場合には(ステップS206,No)、ステップS201に移行する。
ステップS205の説明に戻る。抽出部160cは、タッチ領域と指先との距離が閾値未満の場合には(ステップS205,Yes)、色閾値Th2とHSV画像データとを基にして、肌色に対応する画素を特定し(ステップS207)、色閾値Th2に基づく手領域の一部を抽出する(ステップS208)。
抽出部160cは、色閾値Th1に基づく手領域の一部と、色閾値Th2に基づく手領域の一部とを結合して、手領域を特定し(ステップS209)、ステップS206に移行する。
次に、本実施例に係るジェスチャ認識装置100の効果について説明する。ジェスチャ認識装置100は、プロジェクタ光源110により照射されたタッチ領域と利用者の指先とが重なるか否かを判定する。ジェスチャ認識装置100は、タッチ領域と利用者の指先とが重なる場合に、色閾値Th1と色閾値Th2とを用いて手領域を特定する。このため、ジェスチャ認識装置100によれば、手領域にプロジェクタ光を照射されている場合でも、手領域を正確に抽出することができる。
また、ジェスチャ認識装置100は、プロジェクタ光によって照射されるタッチ領域の位置と、手領域の位置と距離に基づいて、プロジェクタ光と手領域とが重なるか否かを判定する。このため、ジェスチャ認識装置100は、プロジェクタ光と手領域とが重なるか否かを正確に特定でき、手領域の誤検出を防止することができる。
また、ジェスチャ認識装置100は、色閾値Th1に基づいて抽出した手領域の一部と、色閾値Th2とに基づいて抽出した手領域の一部とを結合して、手領域を判定する。このため、プロジェクタ光と重ならない手領域と、プロジェクタ光と重なる手領域とを抽出でき、背景画像を抽出してしまうことを防止することができる。
ところで、上述した抽出部160cは、タッチ領域と手領域とが重なるか否かをタッチ領域と指先との距離に基づいて判定していたが、これに限定されるものではない。例えば、抽出部160cは、撮影部120からタッチ領域の画像データを取得し、画像データの差分を基にして、タッチ領域と手領域とが重なるか否かを判定してもよい。
図10は、タッチ領域と手領域とが重なるか否かを判定する処理を説明するための図(2)である。画像データ60aは、抽出部160cが予め保持する背景画像データである。画像データ60bは、抽出部160cが撮影部120から取得した画像データである。
抽出部160cは、画像データ60aの各画素の画素値と画像データ60bの各画素の画素値との差分を算出することで差分画像データを生成する。抽出部160cは、差分画像データにおいて、画素値が0以外となる画素の数が所定の閾値以上である場合に、タッチ領域と手領域とが重なると判定する。なお、ここでは、画素の数に基づいて、画像データ60aと画像データ60aとの違いから、タッチ領域と手領域との重なりを検出したが、抽出部160cは、その他の処理によって、重なりを検出してもよい。
上記のように、抽出部160cは、タッチ領域の画像データの差分を基にして、タッチ領域と手領域とが重なるか否かを判定するため、簡易的な手法により、タッチ領域が利用者の指先にタッチされたか否かを判定することができる。
次に、上記実施例に示したジェスチャ認識装置100と同様の機能を実現する電子透かし情報検出プログラムを実行するコンピュータの一例について説明する。図11は、ジェスチャ認識プログラムを実行するコンピュータの一例を示す図である。
図11に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、画像を撮影するカメラ204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。
ハードディスク装置207は、取得プログラム207aおよび抽出プログラム207bを有する。CPU201は、取得プログラム207aおよび抽出プログラム207bを読み出してRAM206に展開する。取得プログラム207aは、取得プロセス206aとして機能する。抽出プログラム207aは、抽出プロセス206bとして機能する。
取得プロセス206aは、取得部160bに対応する。抽出プロセス206bは、抽出部160に対応する。
なお、取得プログラム207a、抽出プログラム207bについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が取得プログラム207a、抽出プログラム207bを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)プロジェクタ光が照射される照射領域を撮影する撮影部と、
前記撮影部が撮影した画像を基にして、手領域に前記プロジェクタ光が照射されていない場合の前記手領域の色情報を示す第1色情報と、前記手領域に前記プロジェクタ光が照射された場合の前記手領域の色情報を示す第2色情報とを取得する取得部と、
前記撮影部が撮影した画像から、前記プロジェクタ光によって照射されるタッチ領域と重ならない手領域の一部を前記第1色情報に基づいて抽出し、前記プロジェクタ光によって照射されるタッチ領域と重なる手領域の一部を、前記第2色情報に基づいて抽出する抽出部と
を有することを特徴とするジェスチャ認識装置。
(付記2)前記抽出部は、前記プロジェクタ光によって照射されるタッチ領域の画像を前記撮像部から取得し、画像の差分を基にして、前記プロジェクタ光と前記手領域とが重なるか否かを判定することを特徴とする付記1に記載のジェスチャ認識装置。
(付記3)前記抽出部は、前記プロジェクタ光によって照射されるタッチ領域の位置と、前記手領域の位置と距離に基づいて、前記プロジェクタ光と前記手領域とが重なるか否かを判定することを特徴とする付記1または2に記載のジェスチャ認識装置。
(付記4)前記抽出部は、前記第1色情報に基づいて抽出した手領域の一部と、前記第2色情報に基づいて抽出した手領域の一部とを結合して手領域を判定することを特徴とする付記1、2または3に記載のジェスチャ認識装置。
(付記5)コンピュータに、
撮影装置により撮影されたプロジェクタ光が照射される照射領域の画像を基にして、手領域に前記プロジェクタ光が照射されていない場合の前記手領域の色情報を示す第1色情報と、前記手領域に前記プロジェクタ光が照射された場合の前記手領域の色情報を示す第2色情報とを取得し、
前記撮影装置が撮影した画像から、前記プロジェクタ光によって照射されるタッチ領域と重ならない手領域の一部を前記第1色情報に基づいて抽出し、前記プロジェクタ光によって照射されるタッチ領域と重なる手領域の一部を、前記第2色情報に基づいて抽出する
処理を実行させることを特徴とするジェスチャ認識プログラム。
(付記6)前記抽出する処理は、前記プロジェクタ光によって照射されるタッチ領域の画像を前記撮像部から取得し、画像の差分を基にして、前記プロジェクタ光と前記手領域とが重なるか否かを判定することを特徴とする付記5に記載のジェスチャ認識プログラム。
(付記7)前記抽出する処理は、前記プロジェクタ光によって照射されるタッチ領域の位置と、前記手領域の位置と距離に基づいて、前記プロジェクタ光と前記手領域とが重なるか否かを判定することを特徴とする付記5または6に記載のジェスチャ認識プログラム。
(付記8)前記抽出する処理は、前記第1色情報に基づいて抽出した手領域の一部と、前記第2色情報に基づいて抽出した手領域の一部とを結合して手領域を判定することを特徴とする付記5、6または7に記載のジェスチャ認識プログラム。
100 ジェスチャ認識装置
120 撮影部
160b 取得部
160c 抽出部

Claims (5)

  1. プロジェクタ光が照射される照射領域を撮影する撮影部と、
    前記撮影部が撮影した画像を基にして、手領域に前記プロジェクタ光が照射されていない場合の前記手領域の色情報を示す第1色情報と、前記手領域に前記プロジェクタ光が照射された場合の前記手領域の色情報を示す第2色情報とを取得する取得部と、
    前記撮影部が撮影した画像から、前記プロジェクタ光によって照射されるタッチ領域と重ならない手領域の一部を前記第1色情報に基づいて抽出し、前記プロジェクタ光によって照射されるタッチ領域と重なる手領域の一部を、前記第2色情報に基づいて抽出する抽出部と
    を有することを特徴とするジェスチャ認識装置。
  2. 前記抽出部は、前記プロジェクタ光によって照射されるタッチ領域の画像を前記撮部から取得し、画像の差分を基にして、前記プロジェクタ光と前記手領域とが重なるか否かを判定することを特徴とする請求項1に記載のジェスチャ認識装置。
  3. 前記抽出部は、前記プロジェクタ光によって照射されるタッチ領域の位置と、前記手領域の位置と距離に基づいて、前記プロジェクタ光と前記手領域とが重なるか否かを判定することを特徴とする請求項1または2に記載のジェスチャ認識装置。
  4. 前記抽出部は、前記第1色情報に基づいて抽出した手領域の一部と、前記第2色情報に基づいて抽出した手領域の一部とを結合して手領域を判定することを特徴とする請求項1、2または3に記載のジェスチャ認識装置。
  5. コンピュータに、
    撮影装置により撮影されたプロジェクタ光が照射される照射領域の画像を基にして、手領域に前記プロジェクタ光が照射されていない場合の前記手領域の色情報を示す第1色情報と、前記手領域に前記プロジェクタ光が照射された場合の前記手領域の色情報を示す第2色情報とを取得し、
    前記撮影装置が撮影した画像から、前記プロジェクタ光によって照射されるタッチ領域と重ならない手領域の一部を前記第1色情報に基づいて抽出し、前記プロジェクタ光によって照射されるタッチ領域と重なる手領域の一部を、前記第2色情報に基づいて抽出する
    処理を実行させることを特徴とするジェスチャ認識プログラム。
JP2014139087A 2014-07-04 2014-07-04 ジェスチャ認識装置およびジェスチャ認識プログラム Expired - Fee Related JP6361332B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014139087A JP6361332B2 (ja) 2014-07-04 2014-07-04 ジェスチャ認識装置およびジェスチャ認識プログラム
US14/737,695 US20160004386A1 (en) 2014-07-04 2015-06-12 Gesture recognition device and gesture recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014139087A JP6361332B2 (ja) 2014-07-04 2014-07-04 ジェスチャ認識装置およびジェスチャ認識プログラム

Publications (2)

Publication Number Publication Date
JP2016018276A JP2016018276A (ja) 2016-02-01
JP6361332B2 true JP6361332B2 (ja) 2018-07-25

Family

ID=55017015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014139087A Expired - Fee Related JP6361332B2 (ja) 2014-07-04 2014-07-04 ジェスチャ認識装置およびジェスチャ認識プログラム

Country Status (2)

Country Link
US (1) US20160004386A1 (ja)
JP (1) JP6361332B2 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4200428B2 (ja) * 2002-12-09 2008-12-24 富士フイルム株式会社 顔領域抽出方法及び装置
JP5453246B2 (ja) * 2007-05-04 2014-03-26 クアルコム,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP5287792B2 (ja) * 2010-05-10 2013-09-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10025388B2 (en) * 2011-02-10 2018-07-17 Continental Automotive Systems, Inc. Touchless human machine interface
JP2012248066A (ja) * 2011-05-30 2012-12-13 Canon Inc 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
US8913037B1 (en) * 2012-10-09 2014-12-16 Rawles Llc Gesture recognition from depth and distortion analysis
JP6089722B2 (ja) * 2013-01-23 2017-03-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN105745606B (zh) * 2013-09-24 2019-07-26 惠普发展公司,有限责任合伙企业 基于图像识别触摸敏感表面的目标触摸区域

Also Published As

Publication number Publication date
JP2016018276A (ja) 2016-02-01
US20160004386A1 (en) 2016-01-07

Similar Documents

Publication Publication Date Title
US8934673B2 (en) Image processing method and apparatus for detecting target
US9349039B2 (en) Gesture recognition device and control method for the same
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
US9690430B2 (en) Touch detection apparatus, touch detection method and recording medium
US10503969B2 (en) Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
CN110308817B (zh) 一种触控动作识别方法及触控投影系统
WO2020216091A1 (zh) 图像处理方法及相关装置
JP6455186B2 (ja) 指先位置推定装置、指先位置推定方法、及び、プログラム
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP2011118533A (ja) タッチ位置入力装置及びタッチ位置入力方法
CN108227923A (zh) 一种基于体感技术的虚拟触控系统和方法
CN112507767A (zh) 脸部辨识方法及其相关电脑系统
US9727145B2 (en) Detecting device and detecting method
JP2011198270A (ja) 対象認識装置及びそれを用いた制御装置、並びに対象認識方法
JP2015184906A (ja) 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム
JP2017004438A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP6361332B2 (ja) ジェスチャ認識装置およびジェスチャ認識プログラム
JP2011029710A (ja) 画像処理装置、画像処理プログラムおよび撮像装置
JP2015176252A (ja) 画像処理装置および画像処理方法
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
CN107589834B (zh) 终端设备操作方法及装置、终端设备
JP2018190110A (ja) 情報処理プログラム、情報処理方法及び情報処理装置
JP2015022525A (ja) 情報処理装置、被写体部位の検出方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180611

R150 Certificate of patent or registration of utility model

Ref document number: 6361332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees