JP6121534B2 - ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体 - Google Patents

ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体 Download PDF

Info

Publication number
JP6121534B2
JP6121534B2 JP2015529404A JP2015529404A JP6121534B2 JP 6121534 B2 JP6121534 B2 JP 6121534B2 JP 2015529404 A JP2015529404 A JP 2015529404A JP 2015529404 A JP2015529404 A JP 2015529404A JP 6121534 B2 JP6121534 B2 JP 6121534B2
Authority
JP
Japan
Prior art keywords
hand
coordinate system
feature amount
gesture
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015529404A
Other languages
English (en)
Other versions
JPWO2015015843A1 (ja
Inventor
雄大 中村
雄大 中村
宣比古 山岸
宣比古 山岸
智教 福田
智教 福田
恵明 楠
恵明 楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2015015843A1 publication Critical patent/JPWO2015015843A1/ja
Application granted granted Critical
Publication of JP6121534B2 publication Critical patent/JP6121534B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、ジェスチャー判定装置及び方法、並びにジェスチャー操作装置に関する。本発明はまた、プログラム及び記録媒体に関する。
家電機器、車両搭載機器等の機器操作においては、リモコンを用いることなく、また操作パネルに触れることなく操作を行うことが可能な、手の形状、或いは動きによるジェスチャー操作が有効である。しかし、ジェスチャー操作の一つの問題は、操作者の意識的な動作(操作入力を意図した動作)と無意識的な動作(操作入力を意図しない動作)との区別が難しいことである。この問題の解決のため、操作領域を操作者の近くに設定し、操作領域における動作のみを操作者が意識的に行ったジェスチャーとして認識することが提案されている。特に、車両内或いは航空機内のような、操作者の位置が限定される環境では、操作領域を固定しても操作者にとって大きな不都合は生じない(例えば、特許文献1、特許文献2)。
特開2004−142656号公報 特開2005−250785号公報 国際公開第2011/142317号
特許文献3については後述する。
しかしながら、操作領域を固定すると、操作領域に対する操作者の相対位置、身体の大きさの違い、操作領域への手の入れ方により、操作領域における手の角度或いは、手振り動作の方向に違いが生じるという問題があった。
本発明はこのような事情を鑑みてなされたもので、本発明の目的は、操作領域における手の角度或いは手振り動作の方向の違いを考慮した上でジェスチャー判定を行うことで、操作者の手の形状、或いは手の又は指の動きを正確に、かつ確実に検出して操作の誤認識を低減し、ユーザの意図に応じた正確な操作を実行させることである。
この発明の第1の態様のジェスチャー判定装置は、
撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの座標軸を設定する座標系設定部と、
前記手の座標系の変化に基づき、前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを前記操作者の手の動き特徴量として算出する動き特徴量算出部と、
前記手の動き特徴量からジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
を有し、
前記座標系設定部は、前記手領域情報から前記掌の中心と掌の半径を算出し、
前記掌の中心と前記掌の半径から探索線を決定し、前記探索線に基づいて前記操作者の手の手首の中心の位置を特定し、
前記掌の中心を、前記手の座標系の原点として求め、
前記手首の中心の位置から前記掌の中心へ向かう方向ベクトルから予め定められた角度をなす方向を、前記手の座標系の前記少なくとも一つの座標軸の方向として求める
ことを特徴とする。
この発明の第2の態様のジェスチャー判定装置は、
撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの軸を設定する座標系設定部と、
前記手領域情報で示される前記手の領域のうち、前記手の座標系を用いて定められる条件を満たす部分を指の候補領域と特定し、特定された指の候補領域内において、手の形状を検出し、手の形状の特徴量を表す形状特徴量を算出する形状特徴量算出部と、
前記手の座標系の変化に基づいて前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを算出する前記操作者の手の動き特徴量の算出と、前記手の座標系及び前記形状特徴量に基づく、前記操作者の指の動き特徴量の算出の少なくとも一方を行う動き特徴量算出部と、
前記手の動き特徴量及び前記指の動き特徴量の少なくとも一方と、前記形状特徴量とからジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
を有し、
前記座標系設定部は、前記手領域情報から前記掌の中心と掌の半径を算出し、
前記掌の中心と前記掌の半径から探索線を決定し、前記探索線に基づいて前記操作者の手の手首の中心の位置を特定し、
前記掌の中心を、前記手の座標系の原点として求め、
前記手首の中心の位置から前記掌の中心へ向かう方向ベクトルから予め定められた角度をなす方向を、前記手の座標系の前記少なくとも一つの座標軸の方向として求める
ことを特徴とする。
この発明によれば、手の座標系に基づいて手の動きの特徴量を算出することで、或いは手の形状の特徴量と手又は指の動きの特徴量を算出することで、操作者によって、操作領域に入れられる手の角度、手振り動作の方向などに違いがあっても、誤認識の少ないジェスチャー判定が可能となり、該ジェスチャー判定に基づく機器の操作を操作者の意図に合致したものとすることが可能となる。
本発明の実施の形態1のジェスチャー操作装置の使用例を示す図である。 実施の形態1のジェスチャー操作装置のブロック図である。 実施の形態1における撮像画像の座標系と手の座標系を示す図である。 実施の形態1で用いられる座標系設定部13が算出する掌の特徴を示す図である。 実施の形態1で用いられる座標系設定部13が手首位置を特定する動作を示す図である。 実施の形態1で用いられる座標系設定部13が手の座標系を設定する動作を示す図である。 実施の形態1で用いられる座標系設定部13が出力する手の座標系のパラメータの例を示す図である。 (a)〜(c)は、実施の形態1で用いられる座標系設定部13が設定する手の座標系の例を示す図である。 実施の形態1で用いられる形状特徴量算出部14の形状特徴量の算出を示す図である。 実施の形態1で用いられる動き特徴量算出部15による動き特徴量の算出を示す図である。 実施の形態1におけるジェスチャーの種類とコマンドの対応関係の一例を示す図である。 実施の形態1におけるジェスチャーの種類とジェスチャーに係るパラメータとコマンドとの対応関係の他の例を示す図である。 実施の形態1に係るジェスチャー操作装置で実行されるジェスチャー操作方法の処理の手順を示すフローチャートである。 本発明の実施の形態2に係るジェスチャー操作装置のブロック図である。 実施の形態2に係るジェスチャー操作装置で実行されるジェスチャー操作方法の処理の手順を示すフローチャートである。 本発明の実施の形態3に係るジェスチャー操作装置のブロック図である。 実施の形態3に係るジェスチャー操作装置で実行されるジェスチャー操作方法の処理の手順を示すフローチャートである。 本発明の実施の形態4に係るジェスチャー操作装置のブロック図である。 実施の形態4における撮像画像の座標系と手の座標系を示す図である。 実施の形態4で用いられる動き特徴量算出部15による動き特徴量の算出を示す図である。
実施の形態1.
図1は、この発明の実施の形態1のジェスチャー操作装置の使用例を示す図である。図示のように、ジェスチャー操作装置1は、車両の運転席、助手席、後部座席等の座席2に着席した操作者3から手が届く範囲に予め定められた操作領域4において、操作者3によりなされるジェスチャーを認識し、操作制御部5を介して、複数の被操作機器としての車両搭載機器6a、6b、6cへ操作指示を与える。
以下では、被操作機器が地図案内装置(カーナビ)6a、オーディオ装置6b、及びエアコン(空気調和装置)6cである場合を想定する。地図案内装置6a、オーディオ装置6b、及びエアコン6cへの操作指示は、操作制御部5の表示部5aに表示される操作案内により行われ、操作案内に応じた操作入力がジェスチャー操作装置1によって行われる。
図2は、本実施の形態に係るジェスチャー操作装置1の構成を示すブロック図である。図示のジェスチャー操作装置1は、撮像部11と、ジェスチャー判定装置10と、操作決定部17とを備える。ジェスチャー判定装置10は、手領域検出部12と、座標系設定部13と、形状特徴量算出部14と、動き特徴量算出部15と、ジェスチャー判定部16とを備える。
まず、ジェスチャー操作装置1の概要を説明する。
撮像部11は、操作領域4を含む空間を予め定められたフレームレートで撮像し、該空間の動画像を表す一連のフレームの画像データD11を生成し、生成した画像データD11を手領域検出部12へ出力する。
撮像部11は、例えば、イメージセンサー又は測距センサーを含むものであり、カラー画像、グレースケール画像、2値画像、距離画像等の画像を出力する。また、撮像対象の空間の明るさが不十分な場合は、撮像対象の空間に近赤外線を照射して、その反射光を近赤外線用のイメージセンサーで取得し、画像を出力する機能を有していても良い。
手領域検出部12は、撮像部11から与えられる画像データD11から、操作領域4に入れられた操作者の手を検出し、画像上の手領域Rhとして抽出して、抽出した手領域Rhを示す情報(手領域情報)D12を生成する。
手領域情報D12は、抽出した手領域Rhのみをハイレベル、それ以外の領域をローレベルとしてラベリングした画像データ、例えば、手領域Rh内の画素の画素値を第1の値、例えば「1」とし、それ以外の領域内の画素の画素値を第2の値、例えば「0」とした画像データである。
例えば、手領域検出部12は、入力される画像データD11に対して、パターン認識法、背景差分法、肌色抽出法、及びフレーム間差分法等の手法を適用して、画像における操作者の手の領域Rhを抽出する。
手領域検出部12で生成された手領域情報D12は、座標系設定部13及び形状特徴量算出部14へ供給される。
座標系設定部13は、入力として与えられる手領域情報D12から、撮像画像の座標系(以下では単に「画像の座標系」と言う)における手の座標系の原点座標と、画像の座標系に対する手の座標系の相対角度を決定し、これらを表す情報を手の座標系のパラメータD13として形状特徴量算出部14及び動き特徴量算出部15へ出力する。
形状特徴量算出部14は、座標系設定部13から与えられる手の座標系のパラメータD13に基づいて、手領域情報D12から、指先の位置と、伸ばしている指の本数Mの少なくとも1つを手の形状を表す特徴量(形状特徴量)として算出し、算出した形状特徴量を示す情報(形状特徴量情報)D14を動き特徴量算出部15及びジェスチャー判定部16へ出力する。
動き特徴量算出部15は、座標系設定部13から与えられる手の座標系のパラメータD13に基づいて、手の動き(手の全体の動き)を表す特徴量(手動き特徴量)を算出し、手動き特徴量を表す手動き特徴量情報D15hを生成するとともに、座標系設定部13から与えられる手の座標系のパラメータD13と形状特徴量算出部14から与えられる形状特徴量情報D14とに基づいて、指の動きを表す特徴量(指動き特徴量)を算出し、指動き特徴量を表す指動き特徴量情報D15fを生成し、生成した手動き特徴量情報D15h及び指動き特徴量情報D15fを、ジェスチャー判定部16へ出力する。
ジェスチャー判定部16は、形状特徴量算出部14から与えられる形状特徴量情報D14及び動き特徴量算出部15から与えられる動き特徴量情報D15h、D15fを、それぞれに対して予め定義される基準値D14r、D15hr、D15frと照合して、照合の結果に基づいてジェスチャーの種類を判別し、ジェスチャーに係るパラメータを生成して、ジェスチャーの種類を示す情報D16a及びジェスチャーに係るパラメータD16bを操作決定部17に出力する。
操作決定部17は、ジェスチャー判定部16から出力されるジェスチャーの種類を表す情報D16a及びジェスチャーに係るパラメータD16bに基づいて、コマンドD17を生成し、操作制御部5に出力する。
このコマンドD17は、被操作機器6a、6b、6cに対する操作指示、或いはその操作に先立って行われる被操作機器の選択のための操作制御部5に対する指示である。
操作制御部5は、被操作機器の選択及び被操作機器に対する操作のための案内を表示する画面(操作画面)を表示し、操作者3は、操作画面の案内に応じてジェスチャーにより操作入力を行う。ジェスチャーによる操作入力は、操作領域4に手を入れ、手を予め定められた形状にし、手の全体を予め定められたパターンで動かすことにより、或いは指を予め定められたパターンで動かすことによって行われる。
以下、座標系設定部13、形状特徴量算出部14、動き特徴量算出部15、ジェスチャー判定部16及び操作決定部17の動作をより詳しく説明する。
座標系設定部13は、手領域検出部12から与えられる手領域情報D12から、画像の座標系における手の座標系の原点座標(画像の座標系の原点に対する手の座標系の原点の相対位置)と、画像の座標系に対する手の座標系の相対角度(回転角度)を決定し、これらを表す情報を手の座標系のパラメータD13として形状特徴量算出部14及び動き特徴量算出部15へ出力する。
ここで、画像の座標系と実施の形態1で用いられる手の座標系とについて図3を用いて説明する。
図3は画像の座標系Ciと手の座標系Chの関係を示している。
画像の座標系Ciとは、撮像部11により取得される画像を基準とする座標系であり、直交座標系かつ右手座標系である。例えば、図3に示す矩形状の画像101においては、画像の左下を画像の座標系Ciの原点Cioとし、水平方向の軸Cixを第1軸、垂直方向の軸Ciyを第2軸と設定することができる。
一方、手の座標系Chとは、画像における手の領域Rhを基準とする座標系であり、直交座標系かつ右手座標系である。例えば、図3に示す手の領域Rhにおいては、掌の中心Poを手の座標系の原点Choとし、原点を通る第1軸Chu、及び第2軸Chvが設定される。
図3では、手の領域Rhで示される手が、図1と同じ向きに描かれている。これは操作領域4にある手を上から撮像した場合に得られる画像である。図1に示すように、ジェスチャー操作装置1が操作領域4の下側に位置し、従って撮像部11が下方から操作領域4を撮像する場合には、撮像部11による撮像で得られる画像を左右反転することにより図3に示す画像が得られる。以下では、このような左右反転を行うことで得られる画像を用いるものとして説明する。そのような左右反転を行うことで、操作領域4にある手を上から、即ち操作者と同じ視点で見た画像を想定することができるためである。
画像の座標系Ciにおける第1軸Cixの成分をx、第2軸Ciyの成分をyとし、各点の座標を(x,y)と表記する。
手の座標系Chにおける第1軸Chuの成分をu、第2軸Chvの成分をvとし、各点の座標を(u,v)と表記する。
画像の座標系Ciにおける、手の座標系Chの原点Choの座標(画像の座標系の原点Cioに対する手の座標系の原点の相対位置)が(Hx,Hy)で表され、画像の座標系の第1軸Cixに対して手の座標系の第1軸Chuがなす角(相対角度)がθで表されている。
座標系設定部13は、画像の座標系Ciにおける手の座標系Chの原点Choの座標(Hx,Hy)を決定するとともに、画像の座標系Ciにおける手の座標系の第1軸Chuの方向と第2軸Chvの方向を決定する。具体的には、掌の中心Poを手の座標系Chの原点Choとして決定し、手首の中心から掌の中心へ向かうベクトルの方向から、手の座標系Chの第1軸Chu及び第2軸Chvの方向を決定する。
まず、座標系設定部13は、手領域情報D12から、掌の特徴量を算出する。掌の特徴量としては、図4に示されるように、掌の中心Poと、掌の半径Prとが算出される。
例えば、手領域Rh内の各点に対して、手領域Rhの輪郭までの最短距離を求め、その最短距離が最大となる点の座標を掌の中心Poの座標(Hx,Hy)として算出する。そして、掌の中心Poから手領域Rhの輪郭までの最短距離を掌の半径Prとして算出する。
なお、掌の中心を算出する手法は上記の方法に限定されず、例えば特許文献3に記載されるように、手領域内に収まり、かつ最も大きい正方形の中心を掌の中心としても良い。
次に、座標系設定部13は手領域情報D12と、算出された掌の特徴量(掌の中心Po及び半径Pr)に基づいて手首の位置を算出する。
具体的には、座標系設定部13はまず掌の特徴量から、手首領域を特定するための手首探索線Ssを決定する。次に、手首の太さの特徴量から探索線Ss上にある手首領域Rwを特定し、手首の中心の位置Woを算出する。
まず、座標系設定部13は手領域情報D12に基づいて、掌の外側の領域を探索し、指の太さと手首の太さの違いから、手首の領域を特定する。
具体的には、手領域情報D12で示される手領域を含む画像において、図5に示す掌の中心Poを中心とし、半径α×Prの円を探索線Ssとして描く。掌の半径Prに掛ける係数αを、α>1を満たすように設定することで、掌の外側に探索線Ssを描くことができる。つまり、掌よりも外側に位置する、手首領域を探索することができる。この探索線Ssに沿って手領域を含む画像を探索し、探索線Ssと手領域Rhとの重なりを調べる。なお、αは、例えばα=1.2と設定される。
探索線Ssは、下記の式(1)の関係を満たす座標(x,y)を有する点の集合である。
Figure 0006121534
上記のように探索を行うと、手首の領域Rwと、伸ばしている指の領域Rf1〜RfM(Mは伸ばしている指の数)において、それぞれ探索線Ssと手領域Rhの重なり(探索線Ssによって手領域Rhが横切られる部分)が生じる。手領域Rhと重なる探索線Ssの長さに注目すると、手首の太さは指の太さよりも大きく、探索線Ssのうち手首領域Rwと重なる部分Sswの長さは、掌の半径Prよりも大きく、探索線Ssのうち各指領域Rfmと重なる部分Ssfmの長さは掌の半径Prよりも小さい。
そこで、座標系設定部13は探索線Ssと手領域Rhとが重なる部分の探索線の長さ(探索線のうちの手領域Rhと重なる部分の長さ)を記録し、各々の重なりに対し、重なった探索線の長さと掌の半径と比較することで、手首領域を特定する。具体的には、探索線Ssと手領域Rhが重なる度に各々の重なりに対してインデックスi(i∈1,…,N)を付け、重なった部分の探索線の長さをf[1],…,f[N]と記録する。ここで、Nは探索線Ssと手領域Rhとが重なる部分の数を示す。例えば、1つ目に重なった探索線の長さがF1であった場合、f[1]=F1と記録し、2つ目に重なった探索線の長さがF2であった場合、同様にf[2]=F2と記録する。なお、「探索線Ssのうちの手領域Rhと重なる部分の長さ」としては、円弧状の探索線に沿う長さであっても良く、代わりに、重なりが始まる点と重なりが終わる点を結ぶ直線の長さを求めることとしても良い。
上記のようにして記録された長さf[i]の各々について、掌の半径との比較を行い、
f[i]>β×Pr
を満たす部分を手首領域として特定する。掌の半径Prに掛ける係数βを、β≧1を満たすように設定することが好ましく、手領域Rhと重なる探索線の長さが、掌の半径Prと等しいか、それより大きな部分を特定することができる。なお、βは、例えばβ=1.0と設定する。
座標系設定部13は、このように特定した手首領域と重なる探索線の中点の座標を手首の中心Woの座標(Wx,Wy)として算出する。
なお、上記の例では、円形の探索線Ssを用いているが、本発明はこれに限定されず、探索線の形状は、掌の外側を探索できるものであれば、他の形状でもよく、例えば、多角形、例えば6角形でも8角形でも良い。
座標系設定部13は、上記のように算出した掌の中心座標(Hx,Hy)を画像の座標系における手の座標系の原点座標とするとともに、掌の中心座標(Hx,Hy)と手首の中心座標(Wx,Wy)から座標系の第1軸Chu及び第2軸Chvの方向を決定する。
即ち、図6に示すように、座標系設定部13は、画像の座標系における掌の中心Poの座標(Hx,Hy)を、手の座標系の原点Cho(u=0,v=0)の座標として決定する。
次に、手首の中心Woから掌の中心Poへ向かうベクトルDpwの方向に対して、時計回りに90度の方向を、手の座標系の第1軸Chuの方向として決定し、上記ベクトルDpwの方向を、手の座標系の第2軸Chvの方向として決定する。
なお、手の座標系の第1軸Chu及び第2軸Chvの方向は、上記の例に限定されず、手首の中心Woから掌の中心Poへ向かうベクトルを基準として任意の方向に決定して良い。
座標系設定部13は、手の座標系の第1軸Chu及び第2軸Chvの方向が決定されたら、その方向を示す情報を出力する。例えば、画像の座標系に対する手の座標系の相対角度θを示す情報を出力する。
画像の座標系に対する手の座標系の相対角度としては、例えば、画像の座標系の第1軸Cixと手の座標系の第1軸Chuとの成す角を用いても良く、代わりに、画像の座標系Ciの第2軸Ciyと手の座標系Chの第2軸Chvとの成す角を用いても良い。より一般的には、画像の座標系Ciの第1軸Cix及び第2軸Ciyのいずれかと手の座標系Chの第1軸Chu及び第2軸Chvのいずれかとの成す角を用いても良い。
以下では、図7に示すように、画像の座標系Ciにおける第1軸Cixに対し、手の座標系Chにおける第1軸Chuが反時計回りになす角を、画像の座標系Ciに対する手の座標系Chの相対角度θとして用いる。
上記の相対角度θを示す情報は、画像の座標系における手の座標系の原点座標(Hx,Hy)を示す情報とともに、手の座標系のパラメータD13として出力される。
画像の座標系に対して、互いに異なる相対角度で設定された手の座標系の例を図8(a)〜(c)に示す。図8(a)の例ではθ=−45°、図8(b)の例ではθ=0°、図8(c)の例ではθ=45°である。上記のように、手の座標系の相対角度θは、手首の中心Woから掌の中心Poに向かうベクトルの方向を基準として定められるので、図8(a)〜(c)に示される手の座標系は、互いに異なる手の角度に対応して設定されたものである。
画像の座標系Ciにおける手の座標系Chの原点が(Hx,Hy)で表され、画像の座標系の第1軸Cixに対する手の座標系Chの第1軸Chuの相対角度がθで表され、手の座標系Chと画像の座標系Ciとで単位長さが同じである場合、画像の座標系Ciにおける各点の座標(x,y)は、下記の変換式(2A)及び(2B)で、手の座標系Chの座標(u,v)に変換することができる。
Figure 0006121534
次に、形状特徴量算出部14の処理を、図9を用いて説明する。図9は手の座標系Chの第1軸Chu、第2軸Chv、指候補領域Rfc、指先位置Ft1〜FtMを示している。ここで、Mは伸ばしている指の本数であり、図9に示す例ではM=5である。
形状特徴量算出部14は、手領域情報D12から、指先Ftm(mは1乃至Mのいずれか)の位置を表す座標と、伸ばしている指の本数Mとの少なくともいずれか1つを手の形状を表す特徴量(形状特徴量)として算出する。
形状特徴量の算出に当たっては、指先Ftmの位置を、手の座標系Chの座標(u,v)で表すのが望ましい。
このためには、形状特徴量算出部14は、手の座標系Chの原点座標及び第1軸及び第2軸の方向を示すパラメータD13を用いて、撮像画像の各画素の位置を表す画像の座標系における座標を、手の座標系における座標へ変換する。この変換は式(2A)及び(2B)の演算により行われる。
伸ばしている指の特定は以下のようにして行われる。
まず、手の座標系Chの座標軸Chu、Chvとの関係で所定の条件を満たす画素からなる領域を、指の存在し得る領域(候補領域)Rfcとして特定する。
例えば、指は掌の中心Poよりも手の座標系Chの第2軸Chvの正の方向に位置するため、手領域Rhのうちの、第2軸方向の座標成分vが、v>0を満たす領域を、指候補領域Rfcとして設定する。言い換えると、手領域Rhのうち手の座標系の原点Choを基点として、第1軸Chuから反時計回りに0〜180度の範囲に位置する部分を指の候補領域Rfcとして設定する。
次に、形状特徴量算出部14は、設定した指の候補領域Rfc内における、指先Ftmの座標と、伸ばしている指の本数Mを算出する。例えば、指の候補領域の輪郭の凹凸から指先Ftmを識別し、その位置を示す座標を算出する。
そのために、指候補領域Rfcの各輪郭点について、掌の中心Poからの距離を算出する。そして、各輪郭点について、近くの輪郭点における距離と比較し、その両側の輪郭点よりも距離が大きい輪郭点(距離が極大となる輪郭点)を指先候補点Ftcmとして特定する。
掌の中心Poから指先Ftmまでの距離は、掌の半径Prよりも大きい。そこで、掌の中心Poから指先候補点Ftmcまでの距離をDuとし、
Du>γ×Pr
を満たす指先候補点を、真の指先Ftmとして特定する。
指先の候補点Ftmcの座標が(u,v)で表される場合、掌の中心Poから指先の候補点Ftmcまでの距離Duは、下記の式(3)で求められる。
Figure 0006121534
掌の半径Prに掛ける係数γを、γ≧1を満たすように設定することで、掌の中心Poからの距離が掌の半径Pr以上の点を指先Ftmとして特定することができる。特定した指先Ftmの、手の座標系Chにおける座標を(Fum,Fvm)で表す。
形状特徴量算出部14はまた、特定した指先Ftmの数を、伸ばしている指の本数Mとして求めることができる。
形状特徴量算出部14は、検出した指先Ftmの座標(Fum,Fvm)と、伸ばしている指の本数Mとの少なくとも一方を、手の形状を表す特徴量(形状特徴量情報)D14として、動き特徴量算出部15とジェスチャー判定部16に出力する。
なお、上記の例では、指先の識別を、手領域Rhの輪郭線上の各点の、掌の中心からの距離の極大に基づいて行うこととしているが、本発明はこれに限定されず、他の方法、例えばパターンマッチング法、多角形近似法等を利用して指先の識別を行っても良い。
また、指先の座標は画像の座標系における座標(Fxm,Fym)として算出しても良い。
上記のように、形状特徴量算出部14は、手の座標系に基づいて指の候補領域Rfcを限定した上で、手の形状の特徴量に基づく指の特定を行っているので、指以外の領域を指として誤って認識する可能性が低い。
動き特徴量算出部15は、手の動きの特徴量D15hと、指の動きの特徴量D15fを算出する。
手の動きの特徴量D15hとしては、手の速度と、手の加速度と、手の移動量(例えばある位置(初期位置)からの移動量)の少なくとも一つが算出され、指の動きの特徴量D15fとしては、指の速度と、指の加速度と、指の移動量(例えばある位置(初期位置)からの移動量)の少なくとも一つが算出される。
これらの動きの速度及び移動量は、少なくとも2つの、異なる時刻間での位置の差に基づいて算出される。加速度は、少なくとも2つの、異なる時刻間での速度の差に基づいて算出される。
まず、指の動きについて説明する。指の動きの特徴量D15fは、伸ばしている指の各々について求めても良く、代表的な指、例えば第三指についてのみ求めても良い。
形状特徴量算出部14で指先の位置を手の座標系において算出している場合は、動き特徴量算出部15は、手の座標系において速度、加速度、移動量を求め、指の動きの特徴量D15fとして算出する。
指先の位置を画像の座標系の座標を用いて表している場合、座標の変化は指の動きによる成分と手の動き(手全体の動き)による成分を合成したものとなるが、指先の位置を手の座標系の座標を用いて表している場合、座標の変化は、指の動きによる成分のみを表すものとなる。従って、指の速度、指の加速度、及び指の移動量の算出に、手の座標系における指先位置の座標を用いることで、掌の中心に対する指の動きを、手の全体の動きから分離することができ、個々の指の動きの特徴量D15fの算出を容易にかつ短時間で行うことができる。
次に手の動きは以下のように求められる。
図10は操作領域4において手を動かしたときの手の座標系Chの変化を示している。
例えば画像があるフレーム周期(画像取得周期)Δtごとに取得される場合、時刻tにおける(例えばある画像フレーム(j番目のフレーム)における)手の座標系Ch(t)は、その原点の座標が、(Hx(t),Hy(t))、画像の座標系に対する相対角度がθ(t)で示され、時刻t+Δtにおける(例えば上記ある画像フレームの次のフレーム((j+1)番目のフレーム)における)手の座標系Ch(t+Δt)は、その原点の座標が(Hx(t+Δt),Hy(t+Δt))、画像の座標系に対する相対角度がθ(t+Δt)で示されている。
動き特徴量算出部15は、手の動き(手全体の動き)として、例えば掌の中心の動きを検出する。
手の座標系は、掌の中心を原点とするので、掌の中心の動きは、手の座標系で表すと常にゼロとなる。
しかしながら、掌の中心の動きは、各時点における、手の座標系の第1軸Chuの方向の成分、及び第2軸Chvの方向の成分、即ち画像の座標系Ciにおける、第1軸Cixに対して相対角度θの方向の成分と、θ+90度の方向の成分とに分解して検出するのが有利である。これらの方向の成分は、それぞれ手首の中心と掌の中心を結ぶ直線に対して直交する方向及び手首の中心と掌の中心を結ぶ直線の方向の動きを表し、操作者は、手を動かす際に、撮像部11で生成される画像の方向(撮像部11の撮像面の方向)を基準とするよりも自分の手の上記の2つの方向を基準とする方が動かす方向についての認識及び制御が容易であるためである。
そこで、本実施の形態では、手の動き、例えば掌の動きを検出する際に、ある時点、例えば動き追跡の開始の時点における掌の中心の位置を起点とし、それ以降の各時点における上記相対角度θの方向の微小時間当たりの移動量(相前後するフレーム間での移動量)Δpを積算することで移動量pを算出し、上記相対角度θ+90度の方向の微小時間当たりの移動量Δqを積算することで移動量qを算出する。以下では、このようにして求めた移動量p、qを、「各時点における手の座標系Ch(t)の第1軸Chu(t)、第2軸Chv(t)の方向の移動量」と言う。また、単位時間当たりの上記移動量を速度、単位時間当たりの速度の変化を加速度と言う。
この移動量p、qは以下のようにして求められる。
図10に示すように、時刻t及び時刻t+Δtにおける手の座標の原点、相対角度がそれぞれ図10に示されるように変化する場合、これの時間Δt中の動きΔp、Δqは、図10に示される関係から、以下の式で与えられる。なお、図10で111、112はそれぞれ座標の原点Cho(t)、Cho(t+Δt)を通り、軸Cixに平行な線分を示す。
Figure 0006121534
式(4)、(5)において、
Figure 0006121534
であり、また、φ(t)は、手の座標系の第1軸Chuの方向と、原点の移動の方向とが成す角であり、下記の式(8)で与えられる。
Figure 0006121534
式(8)で、Ψ(t)は手の座標系の原点の移動の方向と、画像の座標系の第1軸Cixとの成す角であり、下記の式(9)で与えられる。
Figure 0006121534
式(4)、(5)で示されるΔp、Δqを積算することで、各時点における第1軸Chu(t)の方向の移動量p、及び第2軸Chv(t)の方向の移動量qを求めることができる。
例えば図10に示すように、掌の中心と手首を結ぶ直線の延長線上の点、例えば肘関節を中心にして掌を円運動させた場合(例えば、手振り動作の際にこのような円運動が行われる)、移動量pは時間経過とともに次第に大きくなる一方、移動量qはゼロを維持する。完全な円運動でなく、それから少しずれた動きであっても、移動量qはゼロに近い値となる。
これに対し、掌の中心と手首を結ぶ直線に沿って、掌を移動させた場合、移動量qは時間経過とともに次第に大きくなる一方、移動量pはゼロを維持する。完全な直線運動でなく、それから少しずれた動きであっても、移動量pはゼロに近い値となる。
これらの場合、図10に示す角度φは一定或いは略一定に保たれる。
また、上記の方向以外であっても、手首と掌を結ぶ直線に対して一定或いは略一定の角度を成す方向への運動が続けられた場合には、角度φは略一定に保たれる。
このように、操作者に取って動きの方向が把握しやすい方向に移動した場合に、移動量p又は移動量qの値がゼロ又はそれに近い値となり、或いは角度φが略一定となるので、動きの特徴量の特定が容易となる。
なお、手の動きの特徴量D15hとして、上記の例では、掌の中心位置の変化量を検出しているが、本発明はこれに限定されず、例えば手領域Rhの重心位置の変化量を検出しても良く、手の他の部位の位置の変化量を手の動きの特徴量D15hとして用いても良い。
このように、動き特徴量算出部15は、指の動きに関し、画像の座標系における各座標の成分を、手の座標系の座標の成分に変換し、指の動きの特徴量D15fとして算出してジェスチャー判定部16へ出力する。
また、動き特徴量算出部15は、手の動きに関し、画像の座標系における各座標の成分を、各時点における手の座標系の座標の成分、即ち、手首の中心と掌の中心を結ぶ直線に対して直交する方向の成分(θ方向の成分)及び上記直線の方向の成分(θ+90度の方向の成分)に変換し、変換後のデータを用いて、手の動きの特徴量D15hを算出し、算出結果を、ジェスチャー判定部16に出力する。
ジェスチャー判定部16は、形状特徴量算出部14から入力される手の形状の特徴量と、動き特徴量算出部15から入力される動きの特徴量D15h、D15fに基づいて、ジェスチャーの種類を判定して判定結果を示す情報D16aを操作決定部17に出力するとともに、ジェスチャーの特徴量を算出し、算出した特徴量を表す情報をジェスチャーに係るパラメータD16bとして操作決定部17に出力する。
ここで、ジェスチャーの種類の例としては、「グー」、「チョキ」、「パー」等の手の形状、又は手振り動作のような手の動き、指先でダイヤルをつまむような指の動き、あるいは手の形状と手又は指の動きの組み合わせが挙げられる。
これらのジェスチャーの認識乃至判別のため、ジェスチャー判定動作の実行に先立って、上記の形状の特徴量及び/又は動きの特徴量が満たすべき条件を予め定義し、メモリ、例えばジェスチャー判定部16内のメモリ16mに記憶させておき、ジェスチャー判定動作時に撮像部11から出力される画像データD11に基づいて形状特徴量算出部14及び動き特徴量算出部15で算出された形状の特徴量と動きの特徴量が、メモリ16mに記憶された条件を満たすか否かの判定を行い、判定結果に基づいてジェスチャーの認識を行う。
ジェスチャーの特徴量の例としては、手の形状を判定したときの指先の座標、特定の手の形状を維持した時間、手振りが判定された際の手の速度などがある。
まず、手の形状によるジェスチャーの判定について説明する。
手の形状によるジェスチャーの判定では、例えば、予め定められた本数Mの指が伸ばされている状態が、予め定められた時間Ts以上継続されたときに、ある種類の(ある操作入力のための)ジェスチャーが行われたと判定する。
その判定のため、「予め定められた本数Mの指が伸ばされている状態が、予め定められた時間Ts以上継続されること」を満たすべき条件として予め定義し、メモリ16mに記憶させておく。そして、ジェスチャー判定動作中に、撮像部11から出力される画像データD11に対して形状特徴量算出部14で算出された手の形状の特徴量が、上記の条件を満たす場合に、ジェスチャー判定部16は、上記ある種類のジェスチャーが行われたと判定する。
例えば、指を2本伸ばした「チョキ」によるジェスチャーを判定する場合には、手の形状の特徴量として伸ばしている指の本数Mが2本であるという状態が、予め定められた時間Ts継続されることを満たすべき条件としてメモリ16mに記憶しておく。
そして、ジェスチャー判定動作中に、撮像部11から出力される画像データD11に対して形状特徴量算出部14で算出された手の形状の特徴量として伸ばしている指の本数Mが2本であることを示す情報が、時間Ts以上継続したとき(例えば継続してジェスチャー判定部16に入力されたとき)に、ジェスチャー判定部16は、「チョキ」のジェスチャーが行われたと判定する。
時間Tsは、短すぎる場合は操作者の示す手の形状に対して過敏になるため、操作者の操作入力を意図しない動作が、操作入力のためのジェスチャーと誤認識される可能性が高くなる。また、時間Tsが長いほど、ジェスチャーの認識に長い時間を要するため、応答性が悪くなる。時間Tsは、これらを勘案して定められ、例えば0.3秒と設定される。
次に、手又は指の動きによるジェスチャー判定について説明する。
手の動きによるジェスチャーの判定では、例えば、画像の座標系において、手首の中心と掌の中心を結ぶ直線に対してある特定の角度を成す方向(即ち、各時点における手の座標系の座標軸(Chu、Chv)に対してある特定の角度を成す方向)の動きが続けられた場合、その動きの速度と、動きが継続される時間、或いは上記の特定の角度を成す方向の移動量が、予め定めた条件を満たすとき(例えば各時点における手の座標系のある特定の方向の手の動きが予め定められた範囲内の速度で、予め定められた時間以上継続されるとき)、ある種類のジェスチャー(ある操作入力のためのジェスチャー)が行われたと判定する。
その判定のため、画像の座標系において、手首の中心と掌の中心を結ぶ直線に対してある特定の角度を成す方向(即ち、各時点における手の座標系の座標軸(Chu、Chv)に対してある特定の角度を成す方向)の動きに関し、動きの速度と、動きが継続される時間、或いは上記の特定の角度を成す方向の移動量が、満たすべき条件を予め定義して、メモリ16mに記憶させておく。
そして、ジェスチャー判定動作中に、撮像部11から出力される画像データD11に対して動き特徴量算出部15で算出された動きの特徴量が、上記の条件を満たす場合に、上記のある種類のジェスチャーが行われたと判定する。
例えば、手を右方向に振る動作(肘を中心として、手を右方向に、即ち時計方向に回転させる動作)をある種類のジェスチャーと判定する場合に、画像の座標系において、手首の中心と掌の中心を結ぶ直線に対して90度±μ度(μは予め定められた許容幅)の範囲内の方向に(即ち、各時点における手の座標系の第1軸Chuを中心として±μ度の範囲内の方向に)、閾値Vuth以上の速度の動きが、ある時間Td以上継続されることを満たすべき条件として予め定義して、メモリ16mに記憶させておき、ジェスチャー判定動作中に、撮像部11から出力される画像データD11に対して動き特徴量算出部15で算出された動きの特徴量が、上記の条件を満たすときに、ジェスチャー判定部16は、手を右方向に振るジェスチャーが行われたと判定する。
時間Tdは、短すぎる場合は操作者の手の動きに対して過敏になるため、操作者の操作入力を意図しない動作が、操作入力のためのジェスチャーと誤認識される可能性が高くなる。また、時間Tdが長いほど、ジェスチャーの認識に長い時間を要するため、応答性が悪くなる。時間Tdは、これらを勘案して定められ、例えば0.2秒と設定される。
ジェスチャー判定部16によって判定されたジェスチャーの種類D16aと、ジェスチャーに係るパラメータD16bは操作決定部17へ出力される。
操作決定部17は、ジェスチャー判定部16から入力されるジェスチャーの種類D16aとジェスチャーに係るパラメータD16bから、操作制御部5或いは被操作機器6a、6b、6cに対する操作内容(操作の種類及び/又は操作量)を決定する。
ここで、ジェスチャーの種類とジェスチャーの特徴量から、操作制御部5或いは被操作機器6a、6b、6cに対する操作内容を決定する動作を、例を用いて説明する。
まず、ジェスチャーの種類として手の形状を利用して、操作制御部5の表示部5aの表示内容(操作画面)を切り替える動作の一例を図11及び図12を用いて説明する。
ジェスチャー判定動作に先立って、ジェスチャーの種類である手の形状と、各操作画面への切り替えの対応を予め定義し、メモリ、例えば操作決定部17内のメモリ17mに記憶させておく。例えば、図11に示すように、「グー」のジェスチャーは「地図案内の画面」への切り替え動作、「チョキ」のジェスチャーは「オーディオ画面」への切り替え動作、「パー」のジェスチャーは「エアコン調節画面」への切り替え動作とそれぞれ対応付けておく。
「地図案内の画面」は、地図案内のための初期画面、「オーディオ画面」はオーディオ機能の操作のための初期画面、「エアコン調節画面」は、エアコン操作のための初期画面をそれぞれ意味する。
そしてジェスチャー判定動作時に、ジェスチャー判定部16から、「グー」のジェスチャーが行われたとの判定結果が操作決定部17へ入力された場合は、操作決定部17は、表示部5aの表示内容を「地図案内の画面」へ切り替えるためのコマンドを生成し、操作制御部5へ出力する。
また、「チョキ」のジェスチャーが行われたとの判定結果が操作決定部17へ入力された場合は、操作決定部17は、表示部5aの表示内容を「オーディオ画面」に切り替えるコマンドを生成し、操作制御部5へ出力する。
また、「パー」のジェスチャーが行われたとの判定結果が操作決定部17へ入力された場合は、操作決定部17は、表示部5aの表示内容を「エアコン調節画面」に切り替えるコマンドを生成し、操作制御部5へ出力する。
また、手の形状と、ジェスチャーの特徴量を利用して、操作制御部5の表示部5aの表示内容を順次切り替えるように構成することができる。例えば、「グー」のジェスチャーを表示内容の切り替えに対応付け、「グー」のジェスチャーが予め定められた時間維持される毎に、その時点で「グー」のジェスチャーを終了した場合に選択される表示内容(操作画面)を、予め定められた順に、例えば循環的に切り替える。
例えば、図12に示すように、操作者が「グー」のジェスチャーを行っている間、表示部5aの表示内容が、「地図案内の画面」、「オーディオ画面」、「エアコンの調節画面」等、一定間隔Tm秒で切り替わるように構成しておく。そして、「グー」のジェスチャーが維持されている間、各時点において、その時点で「グー」のジェスチャーを終了した場合に選択される操作画面が何であるかを表示する。この表示は、表示部5aの表示画面の一部又は全部を用いて行い得る。
表示画面の全体を用いる場合には、例えば選択される操作画面と同じ内容の画面が候補として表示され、その時点で「グー」のジェスチャーが終了されれば、表示されている候補画面が、操作画面として確定することとしても良い。
これらの場合、「グー」のジェスチャーが終了されると、その時点で候補として表示されていた画面を選択する情報が操作制御部5へ出力される。
なお、時間Tmは、短すぎる場合は画面の切り替わりが速くなり、操作者が望む操作画面を選択することが難しくなる。また、時間Tmが長いほど、画面の切り替わりに要する時間が長くなるため、操作者が煩わしさを感じる可能性が高くなる。時間Tmは、これらを勘案して定められ、例えば1.0秒と設定される。
次に、ジェスチャーの種類として手の動きを利用した場合の、手の動きと操作内容の関係の一例を説明する。
以下では、「地図案内」が選択され、案内地図が表示部5aに表示されている状態で、地図を横にスクロールさせる場合の動作を説明する。
ジェスチャー判定動作の実行に先立って、ジェスチャーの種類である、手の動きと、その動きの特徴量とを、地図をスクロールさせる方向、スクロールする速さ等に予め対応させ、対応関係をメモリ、例えば操作決定部17内のメモリ17mに記憶させておく。
例えば、ジェスチャーの種類として、手を左に振る動作は左方向へのスクロール、手を右に振る動作は右方向へのスクロールと対応させる。即ち、手を振る方向にスクロールの方向に対応付ける。
また、動きの特徴量として、手を振る速度をスクロールする速さに対応させる。そして、これらの対応関係をメモリ17mに記憶させておく。
そして、ジェスチャー判定動作時に、ジェスチャー判定部16から、手を左に振る動作があったとの判定結果、及び手を振る速度を示す情報が操作決定部17に入力されたら、操作決定部17は、地図を左方向に、手を振る速度に対応する速度でスクロールさせるためのコマンドを生成し、操作制御部5を介して地図案内装置6aへ出力する。
また、ジェスチャー判定部16から、手を右に振る動作があったとの判定結果、及び手を振る速度を示す情報が操作決定部17に入力されたら、操作決定部17は、地図を右方向に、手を振る速度に対応する速度でスクロールさせるためのコマンドを生成し、操作制御部5を介して地図案内装置6aへ出力する。
このように、操作決定部17は、ジェスチャー判定部16の出力に基づき、ジェスチャーの種類とジェスチャーの特徴量に応じたコマンドを、操作制御部5或いは被操作機器6a、6b、6cへ出力する。
操作決定部17は、手の形状と手又は指の動きの組み合わせによるジェスチャーについても同様に、コマンドを出力するよう構成されていても良い。
ここで、実施の形態1のジェスチャー操作装置1で実施される方法(ジェスチャー操作方法)における処理の手順を図13のフローチャートを用いて、説明する。
まず、撮像部11が、操作領域4を含む空間を撮像し、該空間の画像を生成する(ST1)。
次に、手領域検出部12が、撮像部11から入力として与えられた画像から操作領域4に入れられた操作者の手領域Rhを検出し、手領域情報D12を生成する(ST2)。
ステップST2で生成された手領域情報D12は座標系設定部13及び形状特徴量算出部14へ送られる。
ステップST3で、座標系設定部13が、ステップST2で生成された手領域情報D12を元に手の座標系を設定し、手の座標系の原点座標及び相対角度を算出する。
ステップST3で算出された手の座標系の原点座標及び相対角度は手の座標系のパラメータとして、座標系設定部13から形状特徴量算出部14及び動き特徴量算出部15へ送られる。
ステップST4で、形状特徴量算出部14が、ステップST2で出力された手領域情報D12と、ステップST3で算出された座標系の原点座標及び相対角度から、形状特徴量D14を算出し、算出した形状特徴量を表す情報(形状特徴量情報)D14を動き特徴量算出部15及びジェスチャー判定部16へ送る。
ステップST5で、動き特徴量算出部15が、ステップST3で算出された座標系の原点座標及び相対角度と、ステップST4で算出された形状特徴量情報D14から、手の動きの特徴量と、指の動きの特徴量を算出し、ジェスチャー判定部16へ動きの特徴量を表す情報D15h、D15fを送る。
ステップST6では、ジェスチャー判定部16が、ステップST4で算出された形状特徴量情報D14と、ステップST5で算出された動きの特徴量D15h、D15fから、ジェスチャーの種類を判定し、ジェスチャーの特徴量を算出し、ジェスチャーの種類を示す情報D16aと、ジェスチャーに係るパラメータD16bを操作決定部17へ送る。
ステップST7では、操作決定部17が、ステップST6で決定されたジェスチャーの種類と、ジェスチャーの特徴量から操作内容を決定し、操作内容を示すコマンドを、操作制御部5或いは被操作機器6a、6b、6cへ出力して、終了する。
以上のように構成された本実施の形態に係るジェスチャー判定装置10では、座標系設定部13で手の座標系を設定し、手の座標系に基づいて手の形状の特徴量及び手及び指の動きの特徴量を算出することとし、例えば、手の座標系における手の形状の特徴量及び指の動きの特徴量を算出するとともに、各時点における手の座標系の特定の方向の手の動きの特徴量を算出することで、個々の操作者によって異なる、操作領域4における手の角度の違い、手振り動作等の動きの方向の違いに影響されることなく、誤認識を低減した正確なジェスチャー判定が可能である。
また、掌の中心を手の座標系の原点と決定し、手首の中心から掌の中心に向かう方向ベクトルから手の座標系の軸の方向を決定することで、操作者がどのような角度で操作領域に手を入れている場合でも、正確に手の座標系を設定することができる。
また、形状特徴量算出部14が、手領域情報D12で示される手の領域Rhのうち、手の座標系に基づいて予め定められた条件を満たす部分を指の候補領域Rfcと特定し、特定された指の候補領域Rfc内において、指先の位置を検出し、手の形状を表す特徴量(形状特徴量)を算出するので、手の座標系に基づいて指の候補領域を絞り込んだ上で形状特徴量を算出することができ、指以外の領域を指として誤認識する可能性を低減し、候補領域を絞り込まない場合と比べて計算量を減じることができる。
また、動き特徴量算出部15が、手及び指の動きの特徴量D15h、D15fを手の座標系に基づいて算出することとし、例えば、指の動きの特徴量D15fを手の座標系における座標を用いて算出するとともに、手の動きの特徴量D15hを、各時点における手の座標系の座標軸の方向、又は座標軸に対して特定の方向における動きに基づいて算出することで、操作者によって異なる、操作領域4における手の角度、手振り動作等の動きの方向の違いに影響されることなく、安定的に特徴量を得ることができる。
また、ジェスチャー判定部16が、例えば、手の座標系における手の形状の特徴量D14及び指の動きの特徴量D15fと、各時点における手の座標系の特定の方向の手の動きの特徴量D15hに基づいて、ジェスチャーの種類を判定し、ジェスチャーの特徴量を算出することで、画像の座標系における手の動きの方向の違いに影響されることなく、誤認識の少ないジェスチャー判定が可能である。
本実施の形態に係るジェスチャー操作装置1は、上記の効果を有するジェスチャー判定装置10による判定結果を利用して操作を行うので、的確な判定結果に基づいて的確な操作を行うことができる。
なお、上記の例では、動き特徴量算出部15が、手動き特徴量情報D15hと指動き特徴量情報D15fの双方の算出を行うが、動き特徴量算出部15が、手動き特徴量情報D15hと指動き特徴量情報D15fのいずれか一方のみの算出を行うことしてもよい。
実施の形態2.
図14は、この発明の実施の形態2に係るジェスチャー操作装置の構成を示すブロック図である。図14に示すジェスチャー操作装置は、図2に示されるジェスチャー操作装置と概して同じであり、図2と同じ符号は同一又は相当部分を示すが、モード制御部18及びメモリ19が付加され、図2に示される座標系設定部13の代わりに座標系設定部13aが設けられている点で異なる。
まず、装置の概要を説明する。
モード制御部18は、外部からモード選択情報MSIが与えられ、座標系設定部13aへモード制御情報D18を出力する。
座標系設定部13aは、手領域検出部12から手領域情報D12が与えられ、モード制御部18からモード制御情報D18が与えられ、手領域情報D12及びモード制御情報D18に基づいて、手を含む操作領域の画像から手の座標系Chのパラメータを算出する。
即ち、モード制御情報D18により座標系設定モードが選択されているときは、座標系のパラメータの一部、例えば、相対角度を算出し、算出した相対角度θをメモリ19に記憶させる。
一方、モード制御情報D18により特徴量算出モードが選択されているときは、座標系設定部13aは、手領域検出部12からの手領域情報D12に基づいて、座標系のパラメータの残りの部分、例えば原点座標(Hx,Hy)を算出し、算出した原点座標(Hx,Hy)を形状特徴量算出部14及び動き特徴量算出部15に出力する。
座標系設定モードが選択されているときは、メモリ19は座標系設定部13aから画像の座標系に対する手の座標系の相対角度を表す情報を受け取り、記憶する。
一方、特徴量算出モードが選択されているときは、メモリ19に記憶された相対角度θが読み出され、形状特徴量算出部14及び動き特徴量算出部15へ供給される。
形状特徴量算出部14は、手領域検出部12から手領域情報D12を与えられ、座標系設定部13aから手の座標系の原点座標(Hx,Hy)を表す情報を与えられ、メモリ19から画像の座標系に対する手の座標系の相対角度θを表す情報を与えられ、これらに基づいて形状特徴量を算出して、動き特徴量算出部15及びジェスチャー判定部16へ出力する。
動き特徴量算出部15は、手領域検出部12から手領域情報D12を与えられ、座標系設定部13aから手の座標系の原点座標(Hx,Hy)を表す情報を与えられ、メモリ19から画像の座標系に対する手の座標系の相対角度θを表す情報を与えられ、これらに基づいて動きの特徴量D15h、D15fを算出してジェスチャー判定部16へ出力する。
以下、各部の動作をより詳しく説明する。
モード制御部18は、外部から入力されるモード選択情報MSIに基づいて、モード制御情報D18を生成し、座標系設定部13aへ出力する。
ここで、モード選択情報MSIは、外部から与えられる座標系設定モードの選択に関する情報であり、例えば、座標系設定モードを選択すべきか、特徴量算出モードを選択すべきかを示すモード指定情報である。
モード制御情報D18は、外部から与えられるモード選択情報MSIに基づいて生成されるもので、例えば、座標系設定モードが選択されている場合は第1の値、例えば「0」を出力し、特徴量算出モードが選択されている場合は第2の値、例えば「1」を出力する。
なお、座標系設定モードを選択すべきか、特徴量算出モードを選択すべきかを示すモード指定情報の代わりに、座標系設定モードを選択している状態と、特徴量算出モードを選択している状態との切り替わりを指示する情報(切り替わり情報)を、モード選択情報MSIとしてモード制御部18に入力することとしても良い。
切り替わり情報としては、例えば次の3種類の情報がある。
(a) 「特徴量算出モードを選択している状態」から「座標系設定モードを選択している状態」へ切り替わりを指示する情報。
(b) 「座標系設定モードを選択している状態」から「特徴量算出モードを選択している状態」へ切り替わりを指示する情報。
(c) 上記(a)の切り替わり、及び上記(b)の切り替わりのいずれも不要であることを示す情報。
モード制御部18は、上記(a)〜(c)の切り替わり情報を受けて、各時点においてどのモードで動作すべきかを判断し、判断結果に基づくモード制御情報D18を出力する。
座標系設定部13aは、モード制御部18から与えられるモード制御情報D18に基づいてその処理内容を切り替える。
モード制御部18からモード制御情報D18として「0」が与えられた場合、すなわち座標系設定モードが選択されている場合は、座標系設定部13aは、実施の形態1で座標系設定部13に関して説明したのと同様にして、手領域情報D12から手の座標系の相対角度を算出し、画像の座標系に対する手の座標系の相対角度をメモリ19へ出力する。
一方、モード制御部18からモード制御情報D18として「1」が与えられた場合、すなわち特徴量算出モードが選択されている場合は、座標系設定部13aは、実施の形態1で座標系設定部13に関して説明したのと同様にして、手領域情報D12から手の座標系の原点座標(Hx,Hy)を算出し(一方、相対角度θを算出せず)、形状特徴量算出部14及び動き特徴量算出部15へ出力する。
ここで、実施の形態2のジェスチャー操作装置で実行される操作方法における処理手順を図15のフローチャートを用いて説明する。図15に示される操作方法は、図13に示される方法と概して同じであるが、ステップST11〜ST13が付加され、ステップST3〜ST5の代わりにステップST14、ST4a、ST5aを含む点で異なる。図15で図13と同一の符号は同一又は相当するステップを示す。
ステップST2で手領域情報D12を出力した後、モード制御部18が、ステップST11で、座標系設定モードが選択されているかどうかを判断する。この判断は、モード選択情報MSIに基づいて行われる。
座標系設定モードが選択されている場合は、モード制御部18がその旨を座標系設定部13aに伝え、ステップST12で、座標系設定部13aはステップST12で出力された手領域情報D12から、画像の座標系に対する手の座標系の相対角度を設定する。
そしてステップST13で、座標系設定部13aは、ステップST12で出力した手の座標系の相対角度をメモリ19に記憶させ、処理を終了する。
ステップST11で、操作者が特徴量算出モードを選択していると判定した場合は、モード制御部18はその旨を座標系設定部13aに伝え、ステップST14で、座標系設定部13aはステップST2で出力される手領域情報D12から手の座標系の原点座標(Hx,Hy)を算出して設定し、形状特徴量算出部14及び動き特徴量算出部15へ出力する。
次にステップST4aで、形状特徴量算出部14が、ステップST2で出力された手領域情報D12と、メモリ19に記憶されている画像の座標系に対する手の座標系の相対角度θと、ステップST14で設定された手の座標系の原点座標(Hx,Hy)から、形状特徴量を算出し、算出した形状特徴量を示す情報(形状特徴量情報)D14を動き特徴量算出部15及びジェスチャー判定部16へ出力する。
ステップST5aで、動き特徴量算出部15が、メモリ19に記憶されている画像の座標系に対する手の座標系の相対角度θと、ステップST14で設定された手の座標系の原点座標(Hx,Hy)から、手の動きの特徴量D15hと指の動きの特徴量D15fを算出し、算出した動き特徴量D15h、D15fをジェスチャー判定部16へ出力する。
ステップST6では、ジェスチャー判定部16が、ステップST4aで算出された形状特徴量と、ステップST5aで算出された動き特徴量D15h、D15fから、ジェスチャーの種類を判定するとともに、ジェスチャーに係るパラメータを生成し、操作決定部17へ送る。なお、動き特徴量としては、実施の形態1で述べたのと同様に、手の動きの特徴量及び指の動きの特徴量の一方のみを用いてジェスチャーの種類の判定を行っても良い。
このように構成された本実施の形態に係るジェスチャー判定装置10及びジェスチャー操作装置1では、メモリ19を有する構成であるため、手の座標系の相対角度θを記憶することができる。
また、モード制御部18を有する構成であるため、手の座標系の相対角度θを記憶するモードと、記憶されている相対角度θを利用して特徴量の算出を行うモードのいずれかを選択することができる。
以上のように、実施の形態1では、手の座標系の相対角度θが手振り動作に伴って変化するものとして処理を行っているのに対し、実施の形態2では、座標系設定モードが選択されていないとき、即ち特徴量算出モードが選択されているときは、相対角度θは一定であるとして処理を行っている。
操作者3が座席2に着席している場合、操作者が同一人物であれば、操作領域4に手を入れる度に、手の座標系の原点座標は変化するが、画像の座標系に対する手の座標系の相対角度は大きく変化しない。
また、手振り動作をする場合にも、手振りの回転角が小さい場合には、相対角度θは大きく変化しないので、一定としても十分高精度にジェスチャーの判定を行うことができる。
そこで、実施の形態2では、座標系設定モードが選択されているときのみ、座標系設定部13aが画像の座標系に対する手の座標系の相対角度θを算出して、算出した相対角度θをメモリ19に記憶させる。そして、特徴量算出モードが選択されているときは、座標系設定部13aは手の座標系の原点座標のみを算出し、手の座標系の相対角度θを示す情報、即ち第1軸及び第2軸の方向を示す情報はメモリ19から読み出して利用する。このように構成することで、手領域情報D12が与えられるたびに画像の座標系に対する手の座標系の相対角度を算出する処理を省き、少ない計算量でジェスチャー判定及びジェスチャー操作を実現できる。
このように少ない計算量でジェスチャー操作を実現できるため、操作者がジェスチャー操作してから、ジェスチャー操作装置がジェスチャー判定を行い機器へのコマンドを生成するまでの処理を高速化できる。つまり、操作者の動作に対する機器の応答性を高め、操作者の使い勝手を向上させることができる。
また、少ない計算量でジェスチャー判定及びジェスチャー操作を実現できるため、処理能力の低い低コストの処理装置で実装が可能であり、装置のコストを削減できる。
このように構成された本実施の形態に係るジェスチャー判定装置10及びジェスチャー操作装置1では、モード選択情報MSIに基づいて、モード制御部18が座標系設定部13aの動作を制御する。これにより、画像の座標系に対する手の座標系の相対角度を任意のタイミングで設定し、メモリ19へ記憶させることができる。このような構成であれば、一人の操作者がジェスチャー操作装置を利用する場合は、画像の座標系に対する手の座標系の相対角度を一度だけ設定し、その相対角度を示す情報を利用し続けることができる。また、複数の操作者がジェスチャー操作装置を利用する場合は、操作者が変わったときに、画像の座標系に対する手の座標系の相対角度を設定し、メモリ19へ記憶させて利用することができる。つまり、操作者が変わった場合でも、少ない計算量でジェスチャー判定及びジェスチャー操作を行うことができる。
なお、モード選択情報MSIは、操作者が本発明のジェスチャー操作装置又は他の操作入力装置を用いて入力しても良く、操作者がジェスチャー操作装置の使用を開始し始めたときに座標系設定モードを自動的に選択し、画像の座標系に対する手の座標系の相対角度を示す情報をメモリ19に記憶させた後に、座標系設定モードの選択を自動的に解除しても良い。
また、周期的に、或いは何等かの条件が満たされたときに自動的に、座標系設定モードの選択と特徴量算出モードの選択との切り換えを行い、座標系設定モードで新たな手の座標系の相対角度が算出される度に、メモリ19の記憶内容(記憶されている手の座標系の相対角度)を更新しても良い。
以上、座標系パラメータの一部として、手の座標系の相対角度θを示す情報がメモリ19に記憶される場合について説明したが、本発明はこれに限定されず、メモリ19に記憶されるパラメータは、相対角度θ以外の、手の座標系の第1軸及び第2軸の方向を規定するパラメータであっても良く、これら以外のパラメータであっても良く、いずれにせよ、座標系設定モードでは、座標系のパラメータの一部を記憶し、特徴量算出モードでは、記憶されたパラメータを読み出して、形状特徴量及び動き特徴量の算出に利用する構成であれば良く、そのような場合にも、特徴量の算出の度にパラメータを算出する必要がなくなるので、計算の負荷を減らすことができる。
実施の形態3.
図16は、この発明の実施の形態3に係るジェスチャー操作装置の構成を示すブロック図である。図16に示すジェスチャー操作装置は、図2に示されるジェスチャー操作装置と概して同じであり、図2と同じ符号は同一又は相当部分を示す。
図16に示すジェスチャー操作装置は、図2に示されるジェスチャー操作装置と概して同じであるが、操作者推定部20が付加され、操作決定部17の代わりに操作決定部17aが設けられている点で異なる。
操作者推定部20は、座標系設定部13が出力する手の座標系の原点座標及び相対角度の一方又は双方に基づいて操作者を推定し、操作者情報D20を操作決定部17aへ出力する。ここでの操作者の推定は、例えば、操作している人はどの座席に着席しているかの推定でもよく、どの人物が操作しているかの推定でも良い。前者の場合には、例えば座席に応じた識別番号が操作者情報となり、後者の場合には、例えば人物識別情報が操作者情報となる。
例えば、操作者推定部20は、手の座標系の原点座標及び相対角度の一方又は双方から、操作者の位置を特定し、操作者情報を生成する。例えば、手の座標系の軸の方向から、操作者の位置を特定することができる。座標系設定部13で手首の中心から掌の中心へ向かうベクトルと同じ方向に手の座標系の第2軸Chvを設定する場合、画像の座標系に対する手の座標系の相対角度θが、−90度〜0度の間であれば、操作者は画像の中心から左下方向に位置していると推定する。また、θが0度〜90度の間であれば、操作者は画像の中心から右下方向に位置していると推定する。なお、ここでも、実施の形態1で説明したのと同様に、操作領域4にある手を上から撮像した場合の画像が得られるものとしている。
そして、推定した操作者の位置と座席の位置とを対応付けることで、操作者情報を決定することができる。また、操作者の位置と特定の人物を対応付けることで、操作者情報を決定することもできる。
操作決定部17aは、ジェスチャー判定部16から出力されるジェスチャーの種類を表す情報D16aと、ジェスチャーに係るパラメータD16bと、操作者推定部20から出力される操作者情報D20に基づいて、操作制御部5又は被操作機器6a、6b、6cへのコマンドを決定し、出力する。
ここで、実施の形態3のジェスチャー操作装置で実行される操作方法における処理の手順を図17のフローチャートを用いて説明する。
図17に示される操作方法は、図13に示される方法と概して同じであるが、ステップST21が付加され、ステップST7の代わりにステップST7aを含む点で異なる。図17で図13と同一の符号は同一又は相当するステップを示す。
ステップST21では、操作者推定部20が、ステップS3で設定された手の座標系の原点座標及び相対角度の一方又は双方に基づいて操作者を推定し、推定結果を操作決定部17aへ出力する。
ステップST7aでは、操作決定部17aが、ステップST6で決定されたジェスチャーの種類を示す情報D16aと、ジェスチャーに係るパラメータD16bと、ステップST21による推定で生成された操作者情報D20とから、操作内容を示すコマンドを生成し、操作制御部5或いは被操作機器6a、6b、6cへ出力して、終了する。
このように構成された本実施の形態に係るジェスチャー操作装置では、操作者推定部20を有する構成であるため、操作領域4において同じジェスチャーが行われた場合でも、操作者に応じて操作内容(操作の種類及び/又は操作量)を変更することができる。例えば、ある操作者の場合には「チョキ」が「オーディオ画面」の選択を意味するのに対して、他の操作者では、「1本の指のみを伸ばしているジェスチャー」が「オーディオ画面の選択を意味することとしても良い。また動きの速度又は同じジェスチャーの持続時間(同じ形状が維持される時間、同じ動きが続けられる時間)についても操作者によって異なる設定とすることができる。つまり、個々の操作者に応じてジェスチャーと操作内容の対応付けを変えることで、操作者の好み、特性を考慮した、使い勝手の良いジェスチャー操作装置を実現することができる。
また、実施の形態1乃至3において、説明の便宜上、画像の座標系及び手の座標系を直交座標系かつ右手座標系としたが、本発明は特定の種類の座標系に限定されない。また、手の座標系の原点座標及び相対角度を、手の座標系のパラメータとしているが、本発明はこれに限定されず、画像の座標系から、手の座標系の原点座標と、第1軸及び第2軸の方向とを特定することができるパラメータであれば良い。
実施の形態4.
実施の形態1乃至3では、座標系設定部13が2本の座標軸Chu、Chvを設定しているが、本発明はこれに限定されず、設定される座標軸の数は1でもよく、3以上でもよい。要するに少なくとも1本の座標軸を設定すればよい。
また、形状特徴量算出部14によって算出される形状の特徴量と、動き特徴量算出部15によって算出される手の動きの特徴量又は指の動きの特徴量に基づいてジェスチャー判定を行うこととしているが、形状特徴量及び指の動きの特徴量を用いず、手の動きの特徴量のみに基づいてジェスチャー判定を行うこととしてよい。
以下では、手の座標系において1本の座標軸のみが設定され、かつ手の動きの特徴量のみに基づいてジェスチャー判定が行われる構成について説明する。
図18は、この発明の実施の形態4に関わるジェスチャー操作装置の構成を示すブロック図である。図18に示すジェスチャー操作装置は、図2に示されるジェスチャー操作装置と概して同じであり、図2と同じ符号は同一又は相当部分を示すが、図2に示される形状特徴量算出部14が設けられておらず、座標系設定部13の代わりに座標系設定部13bが設けられており、動き特徴量算出部15の代わりに動き特徴量算出部15bが設けられており、ジェスチャー判定部16の代わりにジェスチャー判定部16bが設けられている点で異なる。
まず、装置の概要を説明する。
座標系設定部13bは、入力として与えられる手領域情報D12から、画像の座標系における手の座標系の原点座標と、画像の座標系に対する手の座標系の相対角度を決定し、これらを表す情報を手の座標系のパラメータD13bとして動き特徴量算出部15bへ出力する。
動き特徴量算出部15bは、座標系設定部13bから与えられる手の座標系のパラメータD13bに基づいて、手の動き(手の全体の動き)の特徴量(手動き特徴量)を算出し、算出した手動き特徴量を示す情報(手動き特徴量情報)D15hを生成して、ジェスチャー判定部16bへ出力する。
ジェスチャー判定部16bは、動き特徴量算出部15bから与えられる手動き特徴量情報D15hを、予め定義される基準値D15hrと照合して、照合の結果に基づいてジェスチャーの種類を判別し、ジェスチャーに係るパラメータを生成して、ジェスチャーの種類を示す情報D16a及びジェスチャーに係るパラメータD16bを操作決定部17に出力する。
手領域検出部12及び操作決定部17の動作は、実施の形態1で述べたのと同様である。
以下、座標系設定部13b、動き特徴量算出部15b及びジェスチャー判定部16bの動作をより詳しく説明する。
座標系設定部13bは、手領域検出部12から与えられる手領域情報D12から、画像の座標系における手の座標系の原点座標(画像の座標系の原点に対する手の座標系の原点の相対位置)と、画像の座標系に対する手の座標系の相対角度(回転角度)を決定し、これらを表す情報を手の座標系のパラメータD13bとして動き特徴量算出部15bへ出力する。
ここで、画像の座標系と実施の形態4で用いられる手の座標系とについて図19を用いて説明する。
図19は画像の座標系Ciと手の座標系Chの関係を示している。図示のように、手の座標系において1本の座標軸Chuのみが設定されている。
座標系設定部13bは、実施の形態1で説明したのと同様にして、画像の座標系Ciにおける手の座標系Chの原点Choの座標(Hx,Hy)を決定するとともに、画像の座標系Ciにおける手の座標系の座標軸Chuの方向を決定する。
例えば、座標系設定部13bは、図6に示すように、画像の座標系における掌の中心Poの座標(Hx,Hy)を、手の座標系の原点Cho(u=0,v=0)として決定する。
次に、手首の中心Woから掌の中心Poへ向かうベクトルDpwに垂直なベクトルの方向を、手の座標系の座標軸Chuの方向として決定する。
なお、手の座標系の座標軸Chuの方向は、上記の例に限定されず、手首の中心Woから掌の中心Poへ向かうベクトルを基準として任意の方向に決定して良い。また、基準となるベクトルは手首の中心Woから掌の中心Poへ向かうベクトルに限らず、手の任意の2点を結んだベクトルを基準として良い。
座標系設定部13bは、手の座標系の座標軸Chuの方向が決定されたら、その方向を示す情報を出力する。例えば、画像の座標系に対する手の座標系の相対角度θを示す情報を出力する。
画像の座標系に対する手の座標系の相対角度としては、例えば、画像の座標系の第1軸Cixと手の座標系の座標軸Chuとの成す角を用いても良く、代わりに、画像の座標系Ciの第2軸Ciyと手の座標系Chの座標軸Chuとの成す角を用いても良い。
以下では、画像の座標系の第1軸に対して手の座標系の座標軸Chuが反時計回りになす角を、画像の座標系Ciに対する手の座標系Chの相対角度θとして用いる。
上記の相対角度θを示す情報は、画像の座標系における手の座標系の原点座標(Hx,Hy)を示す情報とともに、手の座標系のパラメータD13bとして出力される。
次に、動き特徴量算出部15bの処理を説明する。動き特徴量算出部15bは、手の動きの特徴量D15hを算出する。
手の動きの特徴量D15hとしては、手の速度と、手の加速度と、手の移動量(例えばある位置(初期位置)からの移動量)の少なくとも一つが算出される。これらの動きの速度及び移動量は、少なくとも2つの、異なる時刻間での位置の差に基づいて算出される。加速度は、少なくとも2つの、異なる時刻間での速度の差に基づいて算出される。
動き特徴量算出部15bは、手の動き(手全体の動き)として、例えば掌の中心の動きを検出する。
手の動きは、手の座標系の座標軸の方向成分に基づいて検出するのが有利である。操作者は、手を動かす際に、撮像部11で生成される画像の方向(撮像部11の撮像面の方向)を基準とするよりも自分の手の上記の方向を基準とする方が動かす方向についての認識及び制御が容易であるためである。
そこで、手の座標系の座標軸に対して特定の角度εを成す方向における移動量rを算出し、これに基づいて手の動きの特徴量D15hを算出する。
座標軸Chuに対して特定の角度εを成す方向における微小時間(画像取得周期)当たりの移動量Δrを積算することで移動量rを算出する。以下では、このようにして求めた移動量rを「各時点における手の座標系Ch(t)の角度εを成す方向の移動量」と言う。また、単位時間あたりの上記移動量を速度、単位時間当たりの速度の変化を加速度と言う。
この移動量rは、実施の形態1で移動量p、qについて説明したのと同様に、以下のようにして求められる。
図20に示すように、時刻t及び時刻t+Δtにおける手の座標の原点、相対角度がそれぞれ図20に示されるように変化する場合、これの時間Δt中の動きΔrは、図20に示される関係から、以下の式で与えられる。
Figure 0006121534
式(10)で示されるΔrを積算することで、各時点におけるεの方向の移動量rを求めることができる。
なお、手の動きの特徴量D15hとして、上記の例では、掌の中心位置の変化量を検出しているが、本発明はこれに限定されず、例えば手領域Rhの重心位置の変化量を検出しても良く、手の他の部位の位置の変化量を手の動きの特徴量D15hとして用いても良い。
また、角度εは任意の値を取ってよく、例えばε=0の場合は手の座標系の座標軸方向の移動量、速度、加速度が動きの特徴量D15hとして算出される。
また、角度εは複数用意してもよく、その場合はεk(k=1,2,…,M、M≧1)として、各時点における手の座標系Ch(t)のεkの方向の移動量、速度、加速度の少なくとも1つを動きの特徴量D15hとして算出する。
このように、動き特徴量算出部15bは、手の動きに関し、画像の座標系における各座標の成分を、各時点における手の座標系に対して特定の角度をなす方向の成分に変換し、変換後のデータを用いて、動きの特徴量D15hを算出し、算出結果を、ジェスチャー判定部16bに出力する。
動き特徴量算出部15bは、上記のように、手の動きについて特定の角度ε又はεkを成す方向の成分とともに、該特定の角度ε又はεkを示す情報をもジェスチャー判定部16bに出力する。
ジェスチャー判定部16bは、動き特徴量算出部15bから入力される動き特徴量に基づいて、手の動きによるジェスチャーの種類を判定して判定結果を示す情報D16aを操作決定部17に出力するとともに、ジェスチャーの特徴量を算出し、算出した特徴量を表す情報をジェスチャーに係るパラメータD16bとして操作決定部17に出力する。
手の動きによるジェスチャー判定では、例えば、画像の座標系において、手首の中心と掌の中心を結ぶ直線に対してある特定の角度を成す方向(即ち、各時点における手の座標系の座標軸Chuに対してある特定の角度を成す方向)の動きが続けられた場合、その動きの速度と、動きが継続される時間、或いは上記の特定の角度を成す方向の移動量が、予め定めた条件を満たすとき(例えば各時点における手の座標系のある特定の方向の動きが予め定められた範囲内の速度で、予め定められた時間以上継続されるとき)、ある種類のジェスチャー(ある操作入力のためのジェスチャー)が行われたと判定する。
その判定のため、画像の座標系において、手首の中心と掌の中心を結ぶ直線に対してある特定の角度を成す方向(即ち、各時点における手の座標系の座標軸Chuに対してある特定の角度を成す方向)の動きに関し、動きの速度と、動きが継続される時間、あるいは上記特定の角度を成す方向の移動量が、満たすべき条件を予め定義して、メモリ16mに記憶させておく。
そして、ジェスチャー判定動作中に、撮像部11から出力される画像データD11に対して動き特徴量算出部15bで算出された動きの特徴量D15hが、上記の条件を満たす場合に、上記のある種類のジェスチャーが行われたと判定する。
なお、手の座標系において、1本の座標軸を設定したが、設定される座標軸の数は1本に限定されず、2本、3本でもよい。即ち、2本以上の座標軸を設定し、それぞれの座標軸の方向における移動量、速度、加速度などを算出することとしてもよい。
2本以上の座標軸を設定する場合には、第1軸以外の座標軸については、第1軸を基準として特定の角度を成す方向を軸の方向と定めてもよく、手の部位の位置を基準にしてそれぞれの座標軸の方向を別個に定めてもよい。
また、図2で示すように形状特徴量算出部14と組み合わせることで、手の形状と手の動きの組合せによるジェスチャーを判定するように構成して良い。
以上のように構成された本実施の形態にかかわるジェスチャー判定装置10では、座標系設定部13bで手の座標系を設定し、手の座標系に基づいて動きの特徴量D15hを算出することで、個々の操作者によって異なる、操作領域4における手の角度の違い、手振り動作等の動きの方向の違いに影響されることなく、誤認識を低減した正確なジェスチャー判定が可能である。
なお、実施の形態4で説明した特徴に実施の形態2及び3で説明した特徴を組合わせることも可能である。
また、実施の形態1乃至4において、本発明を車両搭載機器の操作に適用した場合について説明したが、本発明はこれに限定されず、家電機器、情報機器、産業機器の操作に適用しても良い。
以上本発明のジェスチャー操作装置及びジェスチャー判定装置について説明したが、ジェスチャー操作装置で実施されるジェスチャー操作方法、及びジェスチャー判定装置で実施されるジェスチャー判定方法もまた本発明の一部を成す。また、ジェスチャー操作装置又はジェスチャー判定装置を構成する要素の一部並びにジェスチャー操作方法及びジェスチャー判定方法の処理の一部はソフトウェアで、即ちプログラムされたコンピュータで実現可能である。従って、上記の装置を構成する要素の一部及び上記の方法の処理の一部をコンピュータに実行させるためのプログラム、並びに該プログラムを記録したコンピュータで読み取り可能な記録媒体もまた本発明の一部を成す。
1 ジェスチャー操作装置、 2 座席、 4 操作領域、 5 操作制御部、 6a 地図案内装置、 6b オーディオ装置、 6c エアコン、 10 ジェスチャー判定装置、 11 撮像部、 12 手領域検出部、 13、13a、13b 座標系設定部、 14 形状特徴量算出部、 15、15b 動き特徴量算出部、 16 ジェスチャー判定部、 17、17a 操作決定部、 18 モード制御部、 19 メモリ、 20 操作者推定部、 Ch 手の座標系、 Ci 画像の座標系、 Rh 手領域。

Claims (17)

  1. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの座標軸を設定する座標系設定部と、
    前記手の座標系の変化に基づき、前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを前記操作者の手の動き特徴量として算出する動き特徴量算出部と、
    前記手の動き特徴量からジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
    を有し、
    前記座標系設定部は、前記手領域情報から前記掌の中心と掌の半径を算出し、
    前記掌の中心と前記掌の半径から探索線を決定し、前記探索線に基づいて前記操作者の手の手首の中心の位置を特定し、
    前記掌の中心を、前記手の座標系の原点として求め、
    前記手首の中心の位置から前記掌の中心へ向かう方向ベクトルから予め定められた角度をなす方向を、前記手の座標系の前記少なくとも一つの座標軸の方向として求める
    ことを特徴とするジェスチャー判定装置。
  2. 前記動き特徴量算出部は、各時点における前記手の座標系の特定の方向における手の動きに基づいて、前記操作者の手の動き特徴量を算出することを特徴とする請求項1に記載のジェスチャー判定装置。
  3. 前記手領域情報で示される前記手の領域のうち、前記手の座標系を用いて定められる条件を満たす部分を指の候補領域と特定し、特定された指の候補領域内において、手の形状を検出し、手の形状の特徴を表す形状特徴量を算出する形状特徴量算出部をさらに備え、
    前記動き特徴量算出部は、前記手の座標系と、前記形状特徴量とに基づいて、前記操作者の指の動き特徴量をも算出し、
    前記ジェスチャー判定部は、前記手の動き特徴量のみならず、前記指の動き特徴量及び前記形状特徴量にも基づいて、ジェスチャーの種類を判定し、ジェスチャーの特徴量を算出する
    ことを特徴とする請求項1又は2に記載のジェスチャー判定装置。
  4. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの軸を設定する座標系設定部と、
    前記手領域情報で示される前記手の領域のうち、前記手の座標系を用いて定められる条件を満たす部分を指の候補領域と特定し、特定された指の候補領域内において、手の形状を検出し、手の形状の特徴量を表す形状特徴量を算出する形状特徴量算出部と、
    前記手の座標系の変化に基づいて前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを算出する前記操作者の手の動き特徴量の算出と、前記手の座標系及び前記形状特徴量に基づく、前記操作者の指の動き特徴量の算出の少なくとも一方を行う動き特徴量算出部と、
    前記手の動き特徴量及び前記指の動き特徴量の少なくとも一方と、前記形状特徴量とからジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
    を有し、
    前記座標系設定部は、前記手領域情報から前記掌の中心と掌の半径を算出し、
    前記掌の中心と前記掌の半径から探索線を決定し、前記探索線に基づいて前記操作者の手の手首の中心の位置を特定し、
    前記掌の中心を、前記手の座標系の原点として求め、
    前記手首の中心の位置から前記掌の中心へ向かう方向ベクトルから予め定められた角度をなす方向を、前記手の座標系の前記少なくとも一つの座標軸の方向として求める
    ことを特徴とするジェスチャー判定装置。
  5. 前記動き特徴量算出部は、
    前記手の座標系における座標で表される前記形状特徴量に基づき、前記操作者の指の動き特徴量を算出する
    ことを特徴とする請求項に記載のジェスチャー判定装置。
  6. 前記ジェスチャー判定部は、前記手の座標系に基づいて予め定義される動き特徴量の基準値と、前記動き特徴量算出部によって出力される動き特徴量とを照合することで、ジェスチャーの種類を判定し、ジェスチャーの特徴量を算出することを特徴とする請求項1からのいずれか1項に記載のジェスチャー判定装置。
  7. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの座標軸を設定する座標系設定部と、
    前記手の座標系の変化に基づき、前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを前記操作者の手の動き特徴量として算出する動き特徴量算出部と、
    前記手の動き特徴量からジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
    を有し、
    前記手の座標系のパラメータの一部を記憶するメモリと、
    座標系設定モードと特徴量算出モードのいずれかを指定するモード制御部とをさらに備え、
    前記モード制御部により、前記座標系設定モードが指定されているときに、前記座標系設定部は、前記手の座標系のパラメータの一部を算出して、前記メモリに記憶させ、
    前記モード制御部により、前記特徴量算出モードが指定されているときに、前記動き特徴量算出部は、前記メモリに記憶されている前記パラメータの一部を利用して、前記手の動き特徴量又は指の動き特徴量の算出を行う
    ことを特徴とするジェスチャー判定装置。
  8. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの軸を設定する座標系設定部と、
    前記手領域情報で示される前記手の領域のうち、前記手の座標系を用いて定められる条件を満たす部分を指の候補領域と特定し、特定された指の候補領域内において、手の形状を検出し、手の形状の特徴量を表す形状特徴量を算出する形状特徴量算出部と、
    前記手の座標系の変化に基づいて前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを算出する前記操作者の手の動き特徴量の算出と、前記手の座標系及び前記形状特徴量に基づく、前記操作者の指の動き特徴量の算出の少なくとも一方を行う動き特徴量算出部と、
    前記手の動き特徴量及び前記指の動き特徴量の少なくとも一方と、前記形状特徴量とからジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
    を有し、
    前記手の座標系のパラメータの一部を記憶するメモリと、
    座標系設定モードと特徴量算出モードのいずれかを指定するモード制御部とをさらに備え、
    前記モード制御部により、前記座標系設定モードが指定されているときに、前記座標系設定部は、前記手の座標系のパラメータの一部を算出して、前記メモリに記憶させ、
    前記モード制御部により、前記特徴量算出モードが指定されているときに、前記動き特徴量算出部は、前記メモリに記憶されている前記パラメータの一部を利用して、前記手の動き特徴量又は指の動き特徴量の算出を行う
    ことを特徴とするジェスチャー判定装置。
  9. 前記条件は、前記手の座標系の原点と、前記手の座標系の前記少なくとも一つの座標軸の方向とに基づいて定められるものであることを特徴とする請求項3から5のいずれか1項に記載のジェスチャー判定装置。
  10. 前記手の座標系のパラメータの一部を記憶するメモリと、
    座標系設定モードと特徴量算出モードのいずれかを指定するモード制御部とをさらに備え、
    前記モード制御部により、前記座標系設定モードが指定されているときに、前記座標系設定部は、前記手の座標系のパラメータの一部を算出して、前記メモリに記憶させ、
    前記モード制御部により、前記特徴量算出モードが指定されているときに、前記形状特徴量算出部は、前記メモリに記憶されている前記パラメータの一部を利用して、前記形状特徴量の算出を行う
    ことを特徴とする請求項3、4、5又は9に記載のジェスチャー判定装置。
  11. 前記手の座標系のパラメータの一部が、前記撮像画像の座標系の少なくとも一つの座標軸と前記手の座標系の前記少なくとも一つの座標軸とがなす角度を示す情報であることを特徴とする請求項7から10のいずれか1項に記載のジェスチャー判定装置。
  12. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの座標軸を設定する座標系設定部と、
    前記手の座標系の変化に基づき、前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを前記操作者の手の動き特徴量として算出する動き特徴量算出部と、
    前記手の動き特徴量からジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
    を有するジェスチャー判定装置と、
    前記ジェスチャー判定部により判定されたジェスチャーの種類と、前記ジェスチャー判定部により算出された前記ジェスチャーの特徴量とから操作内容を決定し、決定した操作内容を示すコマンドを生成し出力する操作決定部と
    を備え、
    前記座標系設定部で設定された前記原点座標ならびに前記少なくとも一つの座標軸の方向に基づいて操作者を推定する操作者推定部をさらに備え、
    前記操作決定部は、前記ジェスチャー判定部で判定された前記ジェスチャーの種類と、前記ジェスチャー判定部で算出された前記ジェスチャーの特徴量と、前記操作者推定部で推定された前記操作者とに基づいて前記操作内容を決定する
    ことを特徴とするジェスチャー操作装置。
  13. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出部と、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの軸を設定する座標系設定部と、
    前記手領域情報で示される前記手の領域のうち、前記手の座標系を用いて定められる条件を満たす部分を指の候補領域と特定し、特定された指の候補領域内において、手の形状を検出し、手の形状の特徴量を表す形状特徴量を算出する形状特徴量算出部と、
    前記手の座標系の変化に基づいて前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを算出する前記操作者の手の動き特徴量の算出と、前記手の座標系及び前記形状特徴量に基づく、前記操作者の指の動き特徴量の算出の少なくとも一方を行う動き特徴量算出部と、
    前記手の動き特徴量及び前記指の動き特徴量の少なくとも一方と、前記形状特徴量とからジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定部と
    を有するジェスチャー判定装置と、
    前記ジェスチャー判定部により判定されたジェスチャーの種類と、前記ジェスチャー判定部により算出された前記ジェスチャーの特徴量とから操作内容を決定し、決定した操作内容を示すコマンドを生成し出力する操作決定部と
    を備え、
    前記座標系設定部で設定された前記原点座標ならびに前記少なくとも一つの座標軸の方向に基づいて操作者を推定する操作者推定部をさらに備え、
    前記操作決定部は、前記ジェスチャー判定部で判定された前記ジェスチャーの種類と、前記ジェスチャー判定部で算出された前記ジェスチャーの特徴量と、前記操作者推定部で推定された前記操作者とに基づいて前記操作内容を決定する
    ことを特徴とするジェスチャー操作装置。
  14. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出ステップと、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの座標軸を設定する座標系設定ステップと、
    前記手の座標系の変化に基づき、前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを前記操作者の手の動き特徴量として算出する動き特徴量算出ステップと、
    前記手の動き特徴量からジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定ステップと
    を有し、
    前記座標系設定ステップは、前記手領域情報から前記掌の中心と掌の半径を算出し、
    前記掌の中心と前記掌の半径から探索線を決定し、前記探索線に基づいて前記操作者の手の手首の中心の位置を特定し、
    前記掌の中心を、前記手の座標系の原点として求め、
    前記手首の中心の位置から前記掌の中心へ向かう方向ベクトルから予め定められた角度をなす方向を、前記手の座標系の前記少なくとも一つの座標軸の方向として求める
    ことを特徴とするジェスチャー判定方法。
  15. 撮像画像から操作者の手の領域を検出し、検出した手の領域を示す手領域情報を出力する手領域検出ステップと、
    前記手領域情報に基づき掌の中心位置と手首の中心位置とを含む前記操作者の手の特定の部位の位置から手の座標系の原点座標と前記手の座標系の少なくとも一つの軸を設定する座標系設定ステップと、
    前記手領域情報で示される前記手の領域のうち、前記手の座標系を用いて定められる条件を満たす部分を指の候補領域と特定し、特定された指の候補領域内において、手の形状を検出し、手の形状の特徴量を表す形状特徴量を算出する形状特徴量算出ステップと、
    前記手の座標系の変化に基づいて前記操作者の手の速度、加速度、又は移動量のうちの少なくとも1つを算出する前記操作者の手の動き特徴量の算出と、前記手の座標系及び前記形状特徴量に基づく、前記操作者の指の動き特徴量の算出の少なくとも一方を行う動き特徴量算出ステップと、
    前記手の動き特徴量及び前記指の動き特徴量の少なくとも一方と、前記形状特徴量とからジェスチャーの種類を判定し、ジェスチャーの特徴量を算出するジェスチャー判定ステップと
    を有し、
    前記座標系設定ステップは、前記手領域情報から前記掌の中心と掌の半径を算出し、
    前記掌の中心と前記掌の半径から探索線を決定し、前記探索線に基づいて前記操作者の手の手首の中心の位置を特定し、
    前記掌の中心を、前記手の座標系の原点として求め、
    前記手首の中心の位置から前記掌の中心へ向かう方向ベクトルから予め定められた角度をなす方向を、前記手の座標系の前記少なくとも一つの座標軸の方向として求める
    ことを特徴とするジェスチャー判定方法。
  16. 請求項14又は15に記載のジェスチャー判定方法における処理をコンピュータに実行させるためのプログラム。
  17. 請求項16に記載のプログラムを記録した、コンピュータで読み取り可能な記録媒体。
JP2015529404A 2013-08-02 2014-04-10 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体 Active JP6121534B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013161419 2013-08-02
JP2013161419 2013-08-02
PCT/JP2014/060392 WO2015015843A1 (ja) 2013-08-02 2014-04-10 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2015015843A1 JPWO2015015843A1 (ja) 2017-03-02
JP6121534B2 true JP6121534B2 (ja) 2017-04-26

Family

ID=52431392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015529404A Active JP6121534B2 (ja) 2013-08-02 2014-04-10 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体

Country Status (5)

Country Link
US (1) US20160132124A1 (ja)
JP (1) JP6121534B2 (ja)
CN (1) CN105393281B (ja)
DE (1) DE112014003563B4 (ja)
WO (1) WO2015015843A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102016545B1 (ko) * 2013-10-25 2019-10-21 한화테크윈 주식회사 검색 시스템 및 그의 동작 방법
US9734391B2 (en) * 2014-07-11 2017-08-15 Ryan Fink Systems and methods of gesture recognition
JP6606335B2 (ja) * 2015-02-25 2019-11-13 株式会社メガチップス 画像認識装置
JP6304095B2 (ja) * 2015-03-26 2018-04-04 株式会社Jvcケンウッド 電子機器
JP6562752B2 (ja) * 2015-07-30 2019-08-21 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
KR101817583B1 (ko) * 2015-11-30 2018-01-12 한국생산기술연구원 깊이 이미지를 이용한 행동 패턴 분석 시스템 및 방법
JP6716897B2 (ja) * 2015-11-30 2020-07-01 富士通株式会社 操作検出方法、操作検出装置、及び操作検出プログラム
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
EP3425481B1 (en) 2016-03-04 2020-11-11 Sony Interactive Entertainment Inc. Control device
JP6658188B2 (ja) 2016-03-24 2020-03-04 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6657024B2 (ja) * 2016-06-15 2020-03-04 株式会社東海理化電機製作所 ジェスチャ判定装置
JP6676256B2 (ja) * 2016-08-10 2020-04-08 株式会社東海理化電機製作所 画像処理装置及び画像処理方法
CN106598240B (zh) * 2016-12-06 2020-02-18 北京邮电大学 一种菜单项选择方法及装置
EP3582068A4 (en) * 2017-02-13 2020-02-19 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
EP3617845A4 (en) * 2017-04-27 2020-11-25 Sony Interactive Entertainment Inc. CONTROL DEVICE, DATA PROCESSING SYSTEM, CONTROL PROCESS AND PROGRAM
DE102017210317A1 (de) * 2017-06-20 2018-12-20 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen einer Nutzereingabe anhand einer Geste
CN107341473B (zh) * 2017-07-04 2018-07-06 深圳市利众信息科技有限公司 手掌特征识别方法、手掌特征识别设备、及存储介质
TWI653550B (zh) * 2017-07-06 2019-03-11 鴻海精密工業股份有限公司 電子裝置及電子裝置的顯示控制方法
CN107589850A (zh) * 2017-09-26 2018-01-16 深圳睛灵科技有限公司 一种手势移动方向的识别方法及系统
US11130050B2 (en) 2017-10-16 2021-09-28 Sony Interactive Entertainment Inc. Information processing system, controller device, and information processing apparatus
CN108088032B (zh) * 2017-10-31 2020-04-21 珠海格力电器股份有限公司 空调的控制方法和装置
WO2019104696A1 (zh) * 2017-11-30 2019-06-06 深圳市柔宇科技有限公司 角度调整方法、智能座椅及计算机存储介质
CN108052202B (zh) * 2017-12-11 2021-06-11 深圳市星野信息技术有限公司 一种3d交互方法、装置、计算机设备及存储介质
CN108446657B (zh) * 2018-03-28 2022-02-25 京东方科技集团股份有限公司 手势抖动识别方法及装置、手势识别方法
CN108710443B (zh) * 2018-05-21 2021-09-07 云谷(固安)科技有限公司 位移数据的生成方法和控制系统
CN111222379A (zh) * 2018-11-27 2020-06-02 株式会社日立制作所 一种手部检测方法及装置
CN113412501A (zh) * 2019-02-13 2021-09-17 索尼集团公司 信息处理装置、信息处理方法和记录介质
JP2021068088A (ja) * 2019-10-21 2021-04-30 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および画像処理システム
JP7421923B2 (ja) * 2019-12-23 2024-01-25 フォルシアクラリオン・エレクトロニクス株式会社 位置推定装置、及び位置推定方法
CN111709268B (zh) * 2020-04-24 2022-10-14 中国科学院软件研究所 一种深度图像中的基于人手结构指导的人手姿态估计方法和装置
CN111639765A (zh) * 2020-05-15 2020-09-08 视若飞信息科技(上海)有限公司 一种使用点轨迹和检测域的交互方法
CN113032282B (zh) * 2021-04-29 2024-04-09 北京字节跳动网络技术有限公司 一种手势识别装置的测试方法、装置及设备
CN113189798A (zh) * 2021-05-11 2021-07-30 Tcl通讯(宁波)有限公司 一种智能眼镜设备及智能眼镜设备控制方法
CN113320448B (zh) * 2021-06-01 2022-07-29 智己汽车科技有限公司 一种座椅调节方法、装置及计算机可读存储介质
KR20230026832A (ko) * 2021-08-18 2023-02-27 삼성전자주식회사 동작 제스처를 감지하는 전자 장치 및 그 동작 방법
CN114063772B (zh) * 2021-10-26 2024-05-31 深圳市鸿合创新信息技术有限责任公司 手势识别方法、装置、设备及介质
CN115273282B (zh) * 2022-07-26 2024-05-17 宁波芯然科技有限公司 一种基于掌静脉识别的车门解锁方法
CN115778333B (zh) * 2022-11-10 2023-07-14 北京悬丝医疗科技有限公司 一种视觉定位寸、关、尺脉搏穴位的方法和装置
CN115778320B (zh) * 2022-11-10 2023-06-09 北京悬丝医疗科技有限公司 一种移动关节式诊脉仪

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP3900122B2 (ja) * 2003-07-30 2007-04-04 日産自動車株式会社 非接触式情報入力装置
JP2005063092A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP4569555B2 (ja) * 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
CN101394500B (zh) * 2005-12-14 2010-11-17 日本胜利株式会社 电子设备及其控制方法
JP5569062B2 (ja) 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
US9069386B2 (en) * 2010-05-11 2015-06-30 Nippon Systemware Co., Ltd. Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
US8971572B1 (en) * 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction

Also Published As

Publication number Publication date
US20160132124A1 (en) 2016-05-12
CN105393281B (zh) 2018-02-13
DE112014003563T5 (de) 2016-04-21
JPWO2015015843A1 (ja) 2017-03-02
WO2015015843A1 (ja) 2015-02-05
DE112014003563B4 (de) 2023-10-05
CN105393281A (zh) 2016-03-09

Similar Documents

Publication Publication Date Title
JP6121534B2 (ja) ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US10761610B2 (en) Vehicle systems and methods for interaction detection
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
US9239624B2 (en) Free hand gesture control of automotive user interface
US9547792B2 (en) Control apparatus, vehicle, and portable terminal
US11644901B2 (en) Method and device for detecting a user input on the basis of a gesture
CN102591450B (zh) 信息处理装置及其操作方法
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
JP2009042796A (ja) ジェスチャー入力装置および方法
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
CN105759955B (zh) 输入装置
CN105718188A (zh) 用于运行输入设备的方法、输入设备、机动车
JP4563723B2 (ja) 指示動作認識装置及び指示動作認識プログラム
KR100939831B1 (ko) 입력 에러를 감소시키기 위한 조작 입력 장치 및 정보 기기조작 장치
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
US11602992B2 (en) Method for displaying points of interest on a digital map
JP2015191250A (ja) 情報処理装置、及びその制御方法、プログラム、記録媒体
JP6289655B2 (ja) 画面操作装置及び画面操作方法
JP7163649B2 (ja) ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
JP7293620B2 (ja) ジェスチャ検出装置、およびジェスチャ検出方法
JP6373541B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
US20230123623A1 (en) Gesture detecting apparatus and gesture detecting method
JP6588834B2 (ja) 操作装置
JP3572625B2 (ja) 表示オブジェクト指定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170217

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170329

R150 Certificate of patent or registration of utility model

Ref document number: 6121534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250