JP4172793B2 - ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置 - Google Patents

ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置 Download PDF

Info

Publication number
JP4172793B2
JP4172793B2 JP2004169332A JP2004169332A JP4172793B2 JP 4172793 B2 JP4172793 B2 JP 4172793B2 JP 2004169332 A JP2004169332 A JP 2004169332A JP 2004169332 A JP2004169332 A JP 2004169332A JP 4172793 B2 JP4172793 B2 JP 4172793B2
Authority
JP
Japan
Prior art keywords
representative
vector
time
specific part
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004169332A
Other languages
English (en)
Other versions
JP2005352531A (ja
Inventor
貢己 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004169332A priority Critical patent/JP4172793B2/ja
Priority to US11/143,719 priority patent/US7650017B2/en
Publication of JP2005352531A publication Critical patent/JP2005352531A/ja
Application granted granted Critical
Publication of JP4172793B2 publication Critical patent/JP4172793B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Description

本発明は、ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置に関し、特に運動する被写体の特定部位の座標の時系列データを用いて、高精度かつ頑健かつ高速に被写体のジェスチャを検出するジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置に関する。
人間などの被写体のジェスチャを自動認識することができれば、さまざまな分野で幅広い利用が可能である。例えば、家電機器ではリモコンによらない遠隔操作、コンソール端末ではユーザインターフェースの操作性向上、またキーボードやマウスの操作に不慣れなユーザへの入力支援、手話の認識、ゲーム機器の入力インターフェース、運転中のドライバーの機器操作支援などの分野に応用可能である。
ここで、従来のジェスチャ検出方法としては、あらかじめ検出しようとするジェスチャの標準パターンを作成して記憶しておき、この記憶された標準パターンと入力されたジェスチャとの間でパターンマッチングを行ってジェスチャを検出する方法があった(例えば、特許文献1参照。)。
また、従来の標準パターンを用いないジェスチャ検出方法としては、運動している人物を被写体として、その頭部の上下方向の移動量を検出し、その移動量を所定の閾値と比較して、移動量が閾値を超える場合には頷き動作が行われたと判定するジェスチャ検出方法があった(例えば、特許文献2参照。)。
特開平6−12493号公報(第13頁、図1) 特開2000−163196号公報(第10頁、図6)
従来の特許文献1に開示されたジェスチャ検出方法によれば、精度よくジェスチャを検出するためには、検出しようとするあらゆるジェスチャについて、例えばユーザごとに標準パターンのデータベースを作成しておかなければならないため、標準パターンの作成に多大な労力を要するという問題があった。
また、同じジェスチャであっても、その動きの速さが変われば、標準パターンと入力されたジェスチャの間で時間的な伸縮を考慮してパターンマッチングを行わなければならないため、マッチングに多大な計算量を必要とするという問題もあった。
また、撮影された動画像データから運動する特定部位の動きを算出し、これに基づいてジェスチャを検出する場合には、多大な労力を払って標準パターンを作成したとしても、動画像データに重畳する不測のノイズの影響によって標準パターンと入力されたジェスチャの間でミスマッチが生じ、ジェスチャの誤検出が生じるという問題もあった。
更に、特許文献2のジェスチャ検出方法によれば、例えば被写体である人物の頭部がV字型の軌跡を描くような頷き動作とは言えない運動を行った場合にも、頭部の上下動における移動量が所定値を超えれば頷き動作であるとして誤検出してしまうという問題があった。
本発明は、上記従来技術の問題点を解決するためになされたものであって、被写体の特定部位の所定の速度ベクトル間の相対的関係のみによってジェスチャの検出を行うことにより、高精度かつ頑健かつ高速なジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置を提供することを目的とする。
上記目的を達成するために、本発明のジェスチャ検出方法は、被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、前記時系列の速度ベクトルから、そのベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出ステップと、前記動作区間検出ステップに含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算ステップと、前記交角計算ステップによって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップとを有することを特徴とする。
また本発明のジェスチャ検出プログラムは、コンピュータに、被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出させるジェスチャ検出プログラムであって、前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出機能と、前記速度ベクトル算出機能により求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出機能と、前記区間検出機能によって検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶機能と、前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算機能と、前記交角計算機能によって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定機能とを有することを特徴とする。
また本発明のジェスチャ検出装置は、被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出装置であって、前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出手段と、前記速度ベクトル算出手段で求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出手段と、前記区間検出手段で検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶手段と、前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算手段と、前記交角計算手段で計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定手段とを備えることを特徴とする。
本発明によれば、被写体の特定部位の座標の時系列データから速度ベクトルの時系列データを得て、所定の速度ベクトル間の相対的関係のみに基づいて、前記被写体の特定部位の往復動作を検出することにより、検出しようとするジェスチャの標準パターンを用いることなく、高精度かつ頑健かつ高速なジェスチャの検出が可能となる。
以下、本発明の実施形態について説明する。
図1は、本発明の第1の実施形態に係わるジェスチャ検出方法を実現するためのジェスチャ検出システムの一例を示す構成図である。本実施形態に係わるジェスチャ検出システムは、被写体である人物の頭の縦振り(頷き)動作と、頭の横振り動作というジェスチャを検出するシステムである。
第1の実施形態に係わるジェスチャ検出システム101は、画像入力部102、顔特徴点検出部103、顔中心座標計算部104、速度ベクトル算出部105、動作区間検出部106、代表速度ベクトル算出部107、記憶部108、往復動作判定部109、反復動作判定部110、頷き横振り判定部111を備えている。これらの各構成要素の一部または全部は、ハードウェアによって構成しても良いし、ソフトウェアによって構成しても良い。
次に、第1の実施形態に係わるジェスチャ検出システム101の構成と動作について説明する。
画像入力部102は、システム外部からビデオカメラ等で撮影された人物(被写体)の画像を受信し、画像処理しやすいようにデジタル形式の電子データに変換して顔画像データを作成し、その時系列データを顔特徴点検出部103に送る。なお、以下では各時刻の顔画像データをフレームと呼ぶ。
顔特徴点検出部103は、画像入力部102から送られてくる時系列の顔画像データから、フレームごとに顔特徴点を検出する。ここで顔特徴点とは、目、鼻、口などユーザの顔の特徴となる部分をいう。顔画像データから顔特徴点を検出する方法としては、例えば特許第3279913号公報に掲載された方法を用いることができる。
なお、以下では顔特徴点として鼻孔を例に挙げて説明する。顔特徴点として鼻孔を検出した場合には、図2に示すように右の鼻孔の座標(xrf,yrf)と左の鼻孔の座標(xlf,ylf)がフレームごとに得られる。なお、fはフレーム番号を表すパラメータである。次に、顔特徴点検出部103で検出された顔特徴点である右の鼻孔の座標(xrf,yrf)と左の鼻孔の座標(xlf,ylf)は、顔中心座標計算部104に送られる。
顔中心座標計算部104は、顔特徴点検出部103から送られてくる右の鼻孔の座標と左の鼻孔の座標から、顔の中心点の座標(以下、顔中心座標と呼ぶ)を計算する。ここでは顔中心点とは、右の鼻孔と左の鼻孔の中心点をいい、顔中心座標(xf,yf)はフレームごとに(1)式により求まる。
Figure 0004172793
顔中心座標計算部104で計算された顔中心座標(xf,yf)は、次に速度ベクトル算出部105に送られる。
速度ベクトル算出部105は、顔中心座標計算部104から送られてくる顔中心座標(xf,yf)から、フレームごとに顔中心点の動きの速度ベクトルを計算する。顔中心点の動きの速度ベクトルVf=(vxf,vyf)は、フレーム間の顔中心座標の変位として、(2)式により求まる。
Figure 0004172793
ここでΔtは、画像入力部102に入力される画像の第fフレームが撮影された時間と第f+1フレームが撮影された時間の時間間隔を表す。
また、フレームごとに画像に表れる顔の大きさが変化する場合には、(2)式の代わりに、第f+1フレームの画像における両目の間隔wf+1を求めて、(3)式のように正規化した速度ベクトルを顔中心座標の速度ベクトル(vxf,vyf)としてもよい。
Figure 0004172793
なお、(2)式では連続する2つのフレーム間の顔中心座標の変位を速度ベクトルとして求めたが、(4)式に示すように、適当なフレーム間隔で顔中心座標の変位を求め、これを顔中心座標の速度ベクトル(vxf,vyf)としてもよい。
Figure 0004172793
ここでΔt´は、画像入力部102に入力される画像の第fフレームが撮影された時間と第f+iフレームが撮影された時間の時間間隔を表す。
さらに(2)式乃至(4)式で顔中心座標の速度ベクトルを求めた後、(5)式に示すように顔中心座標の速度ベクトルの平滑化処理を行って、(vxf´,vyf´)を顔中心座標の速度ベクトルとしてもよい。
Figure 0004172793
このように平滑化処理を行えば、顔画像データにノイズが重畳することにより顔特徴点検出部103において顔特徴点の検出を誤った場合であっても、その誤りが顔中心点の動きの速度ベクトルに与える影響を低減することが可能になる。
上記(2)式乃至(5)式のいずれかの方法により、速度ベクトル算出部105で計算された顔中心点の動きの速度ベクトルVf=(vxf,vyf)は、動作区間検出部106に送られる。
動作区間検出部106は、速度ベクトル算出部105から送られてくる顔中心点の動きの速度ベクトルを用いて、顔中心点が動作を行っている時間区間(動作区間)を検出する。ここで動作区間とは、その区間に含まれる速度ベクトルの大きさが、すべて所定の閾値よりも大きい時間区間をいう。すなわち、速度ベクトルの時系列データを{V1,V2,・・・,Vf,・・・}と表した場合に、(6)式に示される条件を満たすフレームによって構成される連続した区間をいう。
Figure 0004172793
ここで、THVは、あらかじめ定めた速度ベクトルの大きさの閾値である。また、‖Vf‖は、第fフレームにおける速度ベクトルVf=(vxf,vyf)の大きさを表し、(7)式によって計算される。
Figure 0004172793
なお、ここでは速度ベクトルVf=(vxf,vyf)の大きさを(7)式によって求めたが、速度ベクトルの特定の成分の大きさを、そのまま速度ベクトルの大きさとして用いることも可能である。例えば、顔中心点が図2においてy軸方向に往復運動している場合には、|vxf|≪|vyf|となるため、速度ベクトルVfのy成分の大きさvyfを速度ベクトルVfの大きさとして用いて、(6)式によって動作区間を検出することも可能である。
このようにして動作区間検出部106で検出された動作区間は、代表速度ベクトル算出部107に送られる。
代表速度ベクトル算出部107は、動作区間検出部106で検出された各動作区間について、その動作区間に含まれる速度ベクトルから代表速度ベクトルを算出する。ここでは代表速度ベクトルは、動作区間に含まれる速度ベクトルのうち、そのベクトルの大きさがそれぞれの動作区間の中で最大となる速度ベクトルであるとする。この場合、動作区間検出部106で検出された動作区間の一つを第fsフレームから第feフレームの区間とし、その区間に含まれる速度ベクトルの時系列データを{Vfs,Vfs+1,・・・,Vfe}、代表速度ベクトルをVRとすると、代表速度ベクトルVRは(8)式を満たす速度ベクトルとなる。
Figure 0004172793
このようにして、代表速度ベクトル算出部107は、動作区間検出部106で動作区間が検出されるたびに代表速度ベクトルVRを算出する。そして、代表速度ベクトル算出部107で算出された代表速度ベクトルVRは、時系列データとして、出現順に記憶部108に記憶される。
往復動作判定部109は、記憶部108に記憶された代表速度ベクトルを順次読み出して、その読み出した代表速度ベクトルから顔中心点が往復運動を行っているか否かを判定する。
以下、往復動作判定部109において、代表速度ベクトルから顔中心点の往復運動の有無を判定する方法について説明する。ここでは、頭の縦振り(頷き)動作を例にして説明する。
頷き動作は、頭を下方に振る動作と、これに連続して行われる頭を上方に戻す動作とによって構成される。すなわち、顔中心点に着目すると、頷き動作は図3に示すように顔中心点の上下方向の往復運動として把握することができる。
ここで上下方向の往復運動では、下方向への運動中における任意の時刻の顔中心点の速度ベクトルの向きと、上方向への運動中における任意の時刻の顔中心点の動きの速度ベクトルの向きは、図4に示すようにほぼ逆方向となる。したがって、両者の速度ベクトルが形成する相対的な角度(交角)θSを求めると、その交角θSは180度に近くなる。
次に、往復運動における顔中心点の動きの速度ベクトルの大きさの変化について説明する。図5は、この速度ベクトルの大きさの時間変化を示す図である。往復運動開始前は、顔中心点は静止の状態であり、速度ベクトルの大きさは「0」である。そして、顔中心点が下方へ運動を開始すると速度ベクトルの大きさが増し、速度ベクトルの大きさが極大となる時刻T1を経て、折り返し点に達する。折り返し点では、顔中心点の運動が下方へ向かう運動から上方へ向かう運動へと移行するため、速度ベクトルの大きさは一時「0」となる。その後、顔中心点が上方へ運動を開始すると再び速度ベクトルの大きさが増し、速度ベクトルの大きさが極大となる時刻T2を経て、もとの位置まで戻り静止する。
ここで、(6)式の閾値THVを適切な値に定めれば、図5に示すように、動作区間検出部106は、1度の頷き動作の中で2回の動作区間を検出することになる。また、上述したように、代表速度ベクトル算出部107で算出される代表速度ベクトルを、動作区間検出部106で検出される動作区間に含まれる速度ベクトルのうち、その大きさが最大の速度ベクトルであるとすると、図5において時刻T1および時刻T2の速度ベクトルが代表速度ベクトルとして選択されることになる。したがって、これらの時刻における速度ベクトルが代表速度ベクトルとして、連続して記憶部108に記憶される。
また、このようにして記憶部108に記憶された時刻T1,T2における速度ベクトルの向きは、時刻T1においては下向き、時刻T2において上向きであるから、両者の速度ベクトルが形成する交角θSを計算すると180度に近くなる。
そこで、記憶部108に記憶された連続する2つの代表速度ベクトル間の交角θSを計算し、その交角θSが180度に近い場合には、顔中心点が往復運動を行ったと判断、すなわち頷き動作が行われたと判定することができる。具体的には、代表速度ベクトル間の交角θSを、所定の閾値ΘSと比較し、θS≧ΘSである場合には頷き動作が行われたと判定すればよい。ここで閾値ΘSは、頷き動作として許容する代表速度ベクトル間の交角の値であり、被写体である人物の頷き動作を誤りなく検出するためには、この値を145度以上に設定することが望ましい。
なお、代表速度ベクトル間の交角の代わりに、交角の余弦(cosθS)を求めて、これを閾値THΘSと比較しても良い。交角の余弦(cosθS)は、時刻T1およびT2の速度ベクトルをそれぞれVT1、VT2とすると、(9)式によって求めることができる。
Figure 0004172793
ここで、VT1・VT2は、VT1とVT2の内積を表す。
この場合、交角の余弦に対する閾値THΘSに対して、cosθS≦THΘSの場合に、頷き動作が行われたと判定すればよい。
一方、顔中心点が図6に示すような往復運動とは言えないV字型の軌跡をたどる動きを行った場合には、記憶部108に連続して記憶された代表速度ベクトル間の交角θS´は、図7に示すように180度を大きく下回ることになる。したがって、所定の閾値ΘSとの比較結果がθS´<ΘSとなり、頷き動作ではないと判定することができる。
また、人物の頷き動作では、顔中心点が図3に示すように正確に上下方向の往復運動を行うのではなく、例えば図8に示すように、わずかに左や右に傾いた往復運動を行う場合もある。しかし、このような頷き動作であったとしても、往復運動であれば、図9に示すように、下方向への運動中における任意の時刻の速度ベクトルと、上方向への運動中における対応する任意の時刻の速度ベクトルが形成する相対的な交角θSは、ほぼ180度となる。そのため、上述した方法を用いれば、図8のような傾きのある往復運動であっても、正確に頷き動作と判定することができる。
なお、上述した方法では、代表速度ベクトル間の相対的な交角θSを閾値ΘSと比較することによって頷き動作の有無を判定しているため、ジェスチャ検出のために標準パターンとのマッチングを必要としない。そのため、標準パターンをあらかじめ用意する必要がなく、また標準パターンとのミスマッチによるジェスチャの誤検出という問題も生じることがないことから、高精度なジェスチャの検出が可能となる。さらに、標準パターン作成のための労力も削減することが可能であり、マッチングに必要となる計算量も削減することができる。
なお、ここでは頷き動作を例にして往復動作判定部109の動作を説明したが、頭の横振り動作についても同様の方法によって検出することが可能である。すなわち、頭の横振り動作では、顔中心座標の運動は図10に示すように、横方向の往復運動となる。そのため、左方向への運動中と右方向への運動中に、動作区間検出部106において動作区間が検出される。そして代表速度ベクトル算出部107において、各動作区間から代表速度ベクトルが算出され、連続して記憶部108に記憶される。また、これらの代表速度ベクトルの向きは、それぞれ左方向と右方向となり、両者の相対的な交角は180度に近くなる。したがって、上述したように記憶部108に記憶された代表速度ベクトルのうち、連続して記録された代表速度ベクトル間の交角を計算して、これを所定の閾値と比較することにより往復運動の有無を判定すれば、頭の横振り動作の検出を行うことが可能となる。
反復動作判定部110では、記憶部108に記憶された代表速度ベクトルを順次読み出し、その代表速度ベクトルから顔中心点が往復運動を反復して行っているか否かを判定する。
以下、代表速度ベクトルから顔中心点が往復運動を反復して行っているか否かを判定する方法について説明する。ここでは、被写体である人物が頷き動作を繰り返して行っている場合を例にして説明する。
上述したように、被写体の1回の頷き動作は、図3に示すように顔中心点の上下方向の往復運動として把握することができる。したがって、被写体が頷き動作を繰り返した場合には、顔中心点の運動は、図11に示すような上下方向の往復運動の繰り返しとして把握することができる。
このような上下方向の往復運動が繰り返して行われる場合には、速度ベクトルの大きさの時間変化は図12のようになる。したがって、動作区間検出部106によって検出される動作区間は、図12示すように、下方向への運動中と上方向への運動中に交互に検出される。さらに図12に示すように速度ベクトルの大きさが極大となる時刻を(T1、T2、T3・・・)とすると、代表速度ベクトル算出部107では、これらの時刻における速度ベクトルが各動作区間の代表速度ベクトルとして選択され、選択された代表速度ベクトルが順番に記憶部108に記憶される。
ここで、時刻T1、T3、T5・・・の速度ベクトルは、下方向への運動中に表れる速度ベクトルであるから、その向きはすべて下方向となる。また、時刻T2、T4・・・の速度ベクトルは、上方向への運動中に表れる速度ベクトルであるから、その向きはすべて上方向となる。したがって、この場合、記憶部108に一つおきに記憶された代表速度ベクトルの間で速度ベクトルの相対的な交角θRを求めると、図13に示すように、その交角θRは0度に近くなる。
そこで、まず往復動作判定部109において、記憶部108に連続して記憶された代表速度ベクトルを読み出し、その代表速度ベクトル間が形成する相対的な交角θSを計算し、その交角θSが180度に近ければ顔中心座標は往復運動を行ったと判定する。この判定結果は反復動作判定部110に送られる。
次に、反復動作判定部110において、一の代表速度ベクトルと、その2つ前に現れた代表速度ベクトルとの間で2つの速度ベクトルの相対的な交角θRを計算する。このとき、その交角θRが0度に近ければ、顔中心点が往復運動を反復して行ったと判定する。このような処理を行うことにより、頷き動作が繰り返して行われたことを検出することができる。具体的には、代表速度ベクトル間の交角θRを、所定の閾値ΘRと比較し、θR≦ΘRである場合には頷き動作が繰り返して行われたと判定すればよい。ここで閾値ΘRは、頷き動作が反復して行われていることを許容する代表速度ベクトル間の交角の値であり、被写体の頷き動作が反復していることを誤りなく検出するためには、この値を35度以下に設定することが望ましい。
次に、頷き横振り判定部111では、往復動作判定部109で検出された往復運動が、頷き動作であるのか、頭の横振り動作であるのかを判定する。
上述したように、人物の頷き動作は、顔中心点の上下方向の往復運動として把握することができる。また、頭の横振り動作は、顔中心点の左右方向の往復運動として把握することができる。そこで、頷き横振り判定部111は、図14に示すように、記憶部108に記憶された代表速度ベクトルをVR=(vx,vy)と表した場合に、|vx|≦|vy|であれば、顔中心点が上下方向に大きく変位しているため、その往復運動を頷き動作と判定する。逆に、|vx|>|vy|であれば、顔中心点が左右方向に大きく変位しているため、その往復運動を横振り動作と判定する。ここで|vx|および|vy|は、それぞれ代表速度ベクトルVR=(vx,vy)のx成分およびy成分の大きさを表す。
このように、頷き横振り判定部111では、代表速度ベクトルVR=(vx,vy)のx成分とy成分の大きさを比較して、顔中心点の往復運動が上下方向か左右方向かを判定することにより、その動作が頷きであるか横振りであるかを判定することができる。
なお、上述した例では、顔中心点の往復運動を頷き動作か横振り動作かのいずれかに分類して判別結果を求めていた。しかし、実際の人物のジェスチャでは、頷きとも横振りともとることができない、斜め方向の頭の往復運動を意図して行う場合もある。例えば、ユーザとシステムとの間で質疑応答が行なわれるような場合では、システムの質問に対して、ユーザが頷きも頭の横振りも行わずに、頭を斜め方向に振ることがある。このような場合は、ユーザはシステムの質問に対して同意(頷き)や非同意(横振り)の意図を表しているのではなく、疑問や躊躇などの意図を表していることが多い。そのため、顔中心点が頷き動作とも横振り動作とも判別しがたい斜め方向の往復運動を行った場合には、その往復運動を頷きまたは横振りと判定して結果を出力するのではなく、頷き動作とも横振り動作とも判別せず、結果の出力を保留することが望まれる場合もある。
そこで、以下では斜め方向の往復運動が行われた場合に、結果の出力を保留する方法について説明する。ここでは説明を簡単にするため、図15の斜線で示される領域1の範囲で頭の往復運動が行われた場合には結果の出力を保留し、一方、無地で示される領域2の範囲で頭の往復運動が行われた場合には、頷き動作または横振り動作のいずれかの判別結果を出力するものとする。
ここで、図15の下斜め30度方向の領域1と領域2の境界における往復運動では、代表速度ベクトルVR=(vx,vy)のx成分の大きさvxと、y成分の大きさvyの比は、|vx|:|vy|=1:√3となる。また、左斜め30度方向または右斜め30度方向の領域1と領域2の境界における往復運動では、代表速度ベクトルVR=(vx,vy)のx成分の大きさvxと、y成分の大きさvyの比は、|vx|:|vy|=√3:1となる。ここで|vx|と|vy|から(10)式でrを定義する。
Figure 0004172793
このとき、図15に示す領域1における往復運動では、r≦√3となる。一方、図15に示す領域2における往復運動では、r>√3となる。そこでR=√3と定めた場合、頷き横振り判定部111は、r>Rの場合には、頷き動作または横振り動作のいずれかを判定結果として出力し、r≦Rの場合には、判定結果の出力を保留する。このようにすることで、図15に示す領域2の範囲で往復運動を行った場合のみ頷き動作か横振り動作かの判定結果を出力し、領域1の範囲で往復運動を行った場合には判定結果の出力を保留することができる。
このような方法により、顔中心点の往復運動が頷き動作とも横振り動作とも判別しがたい斜め方向の往復運動である場合には、結果の出力を保留することができ、ジェスチャを行った被写体である人物が意図しない判別結果が出力されることを防ぐことができる。
また、頷き横振り判定部111では、反復動作判定部110における結果をも用いて頷き動作または頭の横振り動作の判定を行っても良い。すなわち、被写体である人物が頷き動作や頭の横振り動作を行う場合、頷き動作が1回の往復運動で完結する場合が多いのに対して、頭の横振り運動では、往復運動が複数回行われることが多い。そこで、頭の横振り動作については、頭を横に振る往復運動が反復して行われた場合のみ頭の横振り動作が行われたと判定する。このようにすることにより、より高精度に被写体の頷き動作、頭の横振り動作を検出することができる。
この場合、まず頷き横振り判定部111は、代表速度ベクトルVR=(vx,vy)のx成分とy成分の大きさを比較して、往復運動が頷き動作であるか横振り動作であるかを判別する。このとき、往復運動が横振り動作であると判定した場合には、反復動作判定部110の判定結果を参照する。すなわち、反復動作判定部110において往復運動が反復して行われていると判定されている場合には、頷き横振り判定部111はユーザが頭の横振り動作を行ったと判定する。逆に、往復運動が1回だけで完了し、反復して行われていと判定されている場合には、ユーザは頭の横振り動作を行っていないと判定する。
このように、頷き横振り判定部111において、反復動作判定部110の結果を用いることにより、より高精度に被写体である人物の頷き動作および横振り動作を検出することができる。
次に、図16に示すフローチャートを用いて、本実施形態に係わるジェスチャ検出システム101の処理の動作を説明する。
ステップS101では、外部からジェスチャ検出システム101の画像入力部102に画像データが入力される。入力された画像データは顔特徴点検出部103に送られ、ステップS102に進む。
ステップS102では、顔特徴点検出部103において、顔の特徴点が検出される。検出された顔の特徴点は顔中心座標計算部104に送られ、ステップS103に進む。
ステップS103では、顔中心座標計算部104において、顔特徴点検出部103で検出された顔の特徴点の座標から顔中心点の座標が計算され、ステップS104に進む。
ステップS104では、速度ベクトル算出部105において、顔中心座標計算部104で求められた顔中心座標から、フレームごとに顔中心点の速度ベクトルが計算され、ステップS105に進む。
ステップS105では、動作区間検出部106において、速度ベクトル算出部105で求められたフレームごとの顔中心座標の速度ベクトルから、動作区間を検出する。動作区間検出部106において、動作区間が検出された場合にはステップS106に進み、動作区間が検出されなければステップS112に進む。
ステップS106では、動作区間検出部106において検出された動作区間に含まれる速度ベクトルから、代表速度ベクトル算出部107において代表速度ベクトルが算出される。代表速度ベクトル算出部107において算出された代表速度ベクトルは、ステップS107で、記憶部108に記憶される。
次に、ステップS108では、往復動作判定部109において、顔中心点が往復運動を行っているか否かが判定される。往復動作判定部109においては、記憶部108に記憶された最新の代表速度ベクトルと、その1つ前に現れた代表速度ベクトルとの間で速度ベクトル間の相対的な交角θSが計算され、これをあらかじめ定めた閾値ΘSと比較して往復運動の有無が判定される。往復動作判定部109において往復運動が存在すると判定された場合にはステップS109に進み、往復運動が存在しないと判定された場合にはステップS112に進む。
ステップS109では、反復動作判定部110において、顔中心点が往復運動を反復して行っているか否かが判定される。反復動作判定部110においては、記憶部108に記録された最新の代表速度ベクトルと、その2つ前に現れた代表速度ベクトルとの間で速度ベクトル間の相対的な交角θRが計算され、これをあらかじめ定めた閾値ΘRと比較して反復運動の有無が判定される。反復動作判定部110において往復運動が反復して行われていると判定された場合にはステップS110に進み、往復運動が反復して行われてはいないと判定された場合にはステップS112に進む。
ステップS110では、頷き横振り判定部111において、往復動作判定部109で検出された被写体である人物の頭の往復運動が、頷き動作であるのか、頭の横振り動作であるのかが判定される。頷きと横振りの判別は、記憶部108に記憶された最新の顔中心点の代表速度ベクトルの上下方向の速度成分の大きさと、左右方向の速度成分の大きさを比較することによって行われる。上下方向の速度成分の大きさが左右方向の速度成分の大きさ以上であれば、頷き動作であると判定され、そうでなければ頭の横振り動作であると判定される。
次に、ステップS111に進み、頷き横振り判定部111で得られた判定結果がユーザに対して出力される。
最後のステップS112では、すべての画像データについて処理が行われたか否かが判定され、すべての画像データについての処理が完了していれば処理を終了し、完了していなければステップS101に戻る。
このように、第1の実施形態に係わるジェスチャ検出システムによれば、顔中心座標の2つの代表速度ベクトルが形成する相対的な交角に基づいて、顔中心点が往復運動や反復運動を行っているか否かを判定することにより、被写体である人物の頷き動作または頭の横振り動作およびこれらの反復動作であるジェスチャを高精度かつ頑健かつ高速に検出することができる。
なお、上述した第1の実施形態に係わるジェスチャ検出システムでは、代表速度ベクトル算出部107で算出される代表速度ベクトルを、動作区間検出部106で検出される動作区間に含まれる速度ベクトルのうち、その大きさが最大の速度ベクトルであるとしたが、代表速度ベクトルは、上述した動作区間に含まれる速度ベクトルの平均ベクトルであってもよい。
すなわち、被写体である人物の頷き動作では、図5に示すように、頭の下方向への運動中と上方向の運動中に、動作区間検出部106において動作区間が検出されるため、各区間に含まれる速度ベクトルは、それぞれの区間ですべて下向きまたは上向きとなる。したがって、それぞれの動作区間に含まれた速度ベクトルの平均ベクトルを算出すると、平均ベクトルについても、それぞれの区間で下向きまたは上向きとなる。よって、このようにして算出される平均ベクトルを代表速度ベクトルとして、そのベクトル間の相対的な交角を求めれば、第1の実施形態と同様に、被写体である人物の頷き動作または頭の横振り動作およびこれらの反復動作であるジェスチャを高精度かつ頑健かつ高速に検出することができる。また、このように速度ベクトルの平均ベクトルを代表速度ベクトルとすることにより、速度ベクトルの時系列データにノイズが重畳する場合であっても、ノイズの影響が平滑化されることになり、より高精度なジェスチャの検出が可能になる。
さらに、代表速度ベクトル算出部107で算出される代表速度ベクトルは、動作区間検出部106で検出される動作区間の中心時刻の速度ベクトルであってもよい。すなわち、頷き動作が滑らかに行われている場合には、動作区間の中心付近の時刻において速度ベクトルの大きさが最大となると考えられるため、この動作区間の中心時刻の速度ベクトルを代表速度ベクトルとすれば、上述した第1の実施形態のように、被写体である人物の頷き動作または頭の横振り動作およびこれらの反復動作であるジェスチャを高精度かつ頑健かつ高速に検出することができる。
また、第1の実施形態に係わるジェスチャ検出システムでは、顔中心点の座標は2次元座標として表したが、顔中心点の座標を3次元座標で表し、3次元座標の時系列データから被写体の頷き動作や頭の横振り動作を検出することも可能である。すなわち、複数のカメラを用いて被写体の頭部の画像データを撮影し、これらの画像データからステレオ視の原理に基づいて、顔中心点の3次元座標を求めれば、上述した方法の2次元座標を3次元座標に置き換えることにより、被写体である人物の頷き動作や頭の横振り動作の検出が可能となる。
また、第1の実施形態に係わるジェスチャ検出システムは、被写体である人物の頷き動作と頭の横振り動作の検出を行うが、往復運動であれば頷き動作や横振り動作に限定されることなく適用することが可能である。すなわち、手を上下に往復運動させるジェスチャや体全体で屈伸運動を行うジェスチャであっても、上述した方法を用いれば、これらのジェスチャの検出が可能である。さらに、例えば手に何らかの物体を持ち、この物体を上下させるような場合であっても、上述した方法を用いれば、これらの物体の動きを検出することが可能である。
実施例1では、被写体である人物の頷き動作や頭の横振り動作を顔中心点の2次元平面上における往復運動として捉え、顔中心点の動きを2次元座標(x,y)の時系列データとして表していた。
しかし、頷き動作や頭の横振り動作は、頭の上下方向と左右方向への回転と捉えることも可能である。そこで実施例2では、被写体である人物の頷き動作や頭の横振り動作を、顔の向きを上下方向と左右方向に回転させる運動として捉え、顔の向きを上下方向の回転角ψと左右方向の回転角φの2次元座標(ψ,φ)の時系列データとして表し、この座標の時系列データから被写体である人物の頷き動作と頭の横振り動作を検出する方法について示す。
図17は、本発明の第2の実施形態に係わるジェスチャ検出方法を実現するためのジェスチャ検出システムの一例を示す構成図である。
この第2の実施形態に係わるジェスチャ検出システム201は、画像入力部202、顔特徴点検出部203、顔向き座標計算部204、角速度ベクトル算出部205、動作区間検出部206、代表角速度ベクトル算出部207、記憶部208、往復動作判定部209、反復動作判定部210、頷き横振り判定部211を備えている。これらの各構成要素の一部または全部は、ハードウェアによって構成しても良いし、ソフトウェアによって構成しても良い。
次に、第2の実施形態に係わるジェスチャ検出システム201の構成と動作について説明する。
画像入力部202は、システム外部からビデオカメラ等で撮影されたユーザの画像を受信し、画像処理しやすいようにデジタル形式の電子データに変換して顔画像データを作成し、その時系列データを顔特徴点検出部203に送る。なお、以下では各時刻の顔画像データをフレームと呼ぶ。
顔特徴点検出部203は、画像入力部202から送られてくる時系列の顔画像データから、フレームごとに顔特徴点を検出する。顔特徴点を検出する方法としては、上述した特許第3279913号公報に掲載された方法を用いることができる。
ここでは、顔特徴点として左右の目および左右の鼻孔を例に挙げて説明する。顔特徴点として左右の目および左右の鼻孔を検出した場合には、図18に示すように左目の座標(xelf,yelf)、右目の座標(xerf,yerf)、左の鼻孔の座標(xnlf,ynlf)、右の鼻孔の座標(xnrf,ynrf)がフレームごとに得られる。なお、ここでfはフレーム番号をあらわすパラメータである。
次に、この顔特徴点検出部203によって検出された左右の目および左右の鼻孔の座標の顔特徴点は、顔向き座標計算部204に送られる。
顔向き座標計算部204は、顔特徴点検出部203から送られてくる左右の目および左右の鼻孔の座標から、顔向き座標を計算する。
ここでは、顔向き座標計算部204で計算される顔向き座標(ψ,φ)を、図19に示すように、左右の目と鼻孔の中心点の3点で定まる二等辺三角形の垂直方向に対する傾角ψと、鼻孔の中心点の顔正面からのふれ角φと定義する。
顔向き座標計算部204は、各フレームの顔向き座標(ψf,φf)を計算するために、まずフレームごとに、左目の座標(xelf,yelf)と右目の座標(xerf,yerf)が、それぞれ(−1,0)および(1,0)となるように座標変換を行い、変換した座標上で左右の鼻孔の中心座標(uf,yf)を求める。次に、顔向き座標計算部204は、この鼻孔の中心座標(uf,yf)を用いて顔向き座標(ψf,φf)を計算する。ここで、各フレームの顔向き座標であるψfおよびφfは、鼻孔の中心座標(uf,yf)により、近似的に(11)式のように計算することができる。
Figure 0004172793
ここでyMaxは、図20に示すように、上記変換座標上における左右の目の中点から鼻孔の中心までの距離の最大値である。このyMaxの値は、あらかじめ実験的に求めておくと良い。
角速度ベクトル算出部205は、顔向き座標計算部204で計算される顔向き座標(ψf,φf)から、フレームごとに顔向きの回転の角速度ベクトルを計算する。顔向きの回転の角速度ベクトル(以下、顔向きの角速度ベクトルと呼ぶ)Vf=(vψf,vφf)は、フレーム間の顔向き座標の変位として(12)式によって求めることができる。
Figure 0004172793
ここでΔtは、画像入力部202に入力される画像の第fフレームが撮影された時間と第f+1フレームが撮影された時間の時間間隔を表す。この角速度ベクトル算出部205で計算された顔向きの角速度ベクトルVf=(vψf,vφf)は、動作区間検出部206に送られる。
動作区間検出部206は、角速度ベクトル算出部205から送られてくる顔向きの角速度ベクトルVfを用いて、顔を回転させる動作を行っている時間区間(動作区間)を検出する。ここで動作区間とは、その区間に含まれる角速度ベクトルの大きさが、すべて所定の閾値よりも大きい時間区間をいう。すなわち、角速度ベクトルの時系列データを{V1,V2,・・・,Vf,・・・}と表した場合に、(13)式に示される条件を満たすフレームによって構成される連続した区間をいう。
Figure 0004172793
ここで、THVは、あらかじめ定めた角速度ベクトルの大きさの閾値である。また、‖Vf‖は、第fフレームにおける角速度ベクトルVf=(vψf,vΦf)の大きさを表す。
このようにして、動作区間検出部206で検出された動作区間は、代表角速度ベクトル算出部207に送られる。
代表角速度ベクトル算出部207は、動作区間検出部206で検出された各動作区間について、その動作区間に含まれる角速度ベクトルから代表角速度ベクトルVRを算出する。ここでは代表角速度ベクトルVRは、動作区間に含まれる角速度ベクトルのうち、そのベクトルの大きさがそれぞれの動作区間の中で最大となる角速度ベクトルであるとする。この場合、動作区間検出部206で検出された動作区間の一つを第fsフレームから第feフレームの区間とし、その区間に含まれる角速度ベクトルの時系列データを{Vfs,Vfs+1,・・・,Vfe}、代表角速度ベクトルをVRとすると、代表角速度ベクトルVRは(14)式を満たす速度ベクトルとなる。
Figure 0004172793
このようにして、代表角速度ベクトル算出部207は、動作区間検出部206で動作区間が検出されるたびに代表角速度ベクトルVRを算出する。そして、算出された代表角速度ベクトルVRは、時系列データとして記憶部208に記憶される。
往復動作判定部209は、記憶部208に記憶された代表角速度ベクトルから、顔向きが回転による往復運動を行っているか否かを判定する。
次に、記憶部208に記憶された代表角速度ベクトルから、顔向きの往復運動の有無を判定する方法について説明する。ここでは、頭の縦振り(頷き)動作を例にして説明する。
上述したように頷き動作は、頭を下方に振る動作と、これに連続して行われる頭を上方に戻す動作とによって構成される。すなわち、顔向き角度に着目すると、頷き動作は、図21に示すように、顔向きの上下方向への回転による往復運動として把握することができる。
ここで、顔向きの上下方向への回転による往復運動においては、下方向への回転運動中における任意の時刻の顔向きの角速度ベクトルの向きは、回転面に対して垂直方向であり、かつ上記回転方向に右ねじが回転する場合の右ねじの進行方向となる。これを図示すると図22(b)のようになる。一方、上方向への回転運動中における任意の時刻の顔向き座標の角速度ベクトルの向きも同様に考えることができるので、これを図示すると図22(c)のようになる。
したがって、下方向への回転運動中における顔向きの角速度ベクトルと上方向への回転運動中における顔向きの角速度ベクトルの向きは、ほぼ逆方向となる。したがって、両者の角速度ベクトルが形成する相対的な角度(交角)θSを求めると、その交角は180度に近くなる。
次に、往復運動における顔向きの角速度ベクトルの大きさの変化について説明する。図23は、この角速度ベクトルの大きさの時間変化を示した図である。往復運動開始前は静止の状態であり、顔向きの角速度ベクトルの大きさは「0」である。そして、顔向きが下方向へ回転を開始すると角速度ベクトルの大きさが増し、角速度ベクトルの大きさが極大となる時刻T1を経て、折り返し点に達する。折り返し点では、顔向きが下方へ向かう回転運動から上方へ向かう回転運動へと移行するため、角速度ベクトルの大きさは一時「0」となる。次に、顔向きが上方向へ回転を開始すると再び角速度ベクトルの大きさが増し、角速度ベクトルの大きさが極大となる時刻T2を経て、もとの位置まで戻り静止する。
ここで、(13)式の閾値THVを適切な値に定めれば、図23に示すように、動作区間検出部206は、1度の頷き動作の中で2回の動作区間を検出することになる。また、上述したように、代表角速度ベクトル算出部207で算出される代表角速度ベクトルを、動作区間検出部206で検出される動作区間に含まれる速度ベクトルのうち、その大きさが最大の角速度ベクトルであるとすると、図23において時刻T1および時刻T2の速度ベクトルが代表角速度ベクトルとして選択されることになる。したがって、これらの時刻における角速度ベクトルが代表角速度ベクトルとして、連続して記憶部208に記憶される。
また、上述したように、下方向への回転運動中における角速度ベクトルの向きと上方向への回転運動中における角速度ベクトルの向きは、ほぼ逆方向となるため、両者の角速度ベクトルが形成する交角θSを計算すると180度に近くなる。
そこで、往復動作判定部209は、記憶部208に記憶された連続する2つの代表角速度ベクトルを読み出し、2つの代表角速度ベクトル間の交角θSを計算する。そして、その交角θSが180度に近い場合には、顔向き座標が往復運動を行ったと判定、すなわち頷き動作が行われたと判定する。具体的には、代表角速度ベクトルの交角θSを所定の閾値ΘSと比較して、θS≧ΘSである場合には頷き動作が行われたと判定すればよい。
次に、顔の向きが図24に示すような往復運動とは言えないV字型の軌跡をたどる回転運動を行った場合には、記憶部208に連続して記憶された代表角速度ベクトル間の交角θS´は、図24に示すように180度を大きく下回るため、往復動作判定部209における閾値ΘSとの比較結果はθS´<ΘSとなり、頷き動作ではないと判定することができる。
また、被写体の頷き動作では、図25に示すように、わずかに左や右に傾いた往復運動を行う場合もある。しかし、このような頷き動作であっても往復運動であれば、図25に示すように、下方向への回転運動中における任意の時刻の角速度ベクトルと、上方向への回転運動中における任意の時刻の角速度ベクトルが形成する相対的な交角θSは、ほぼ180度となる。そのため、上述した方法を用いれば、このような傾きのある往復運動であっても、正確に頷き動作と判定することができる。
なお、ここでは、頷き動作を例にして往復動作判定部209の動作を説明したが、頭の横振り動作についても同様の方法によって検出することが可能である。すなわち、頭の横振り動作では、顔の向きの動きは、図26に示すように、顔向きの左方向と右方向への回転運動となる。そのため、左方向への回転運動中と右方向への回転運動中に、動作区間検出部206において動作区間が検出される。そして代表角速度ベクトル算出部207において、各動作区間からが代表角速度ベクトルが算出され、連続して記憶部208に記憶される。また、これらの代表角速度ベクトルの向きは、それぞれ回転面に対して下方向と上方向となり、両者の相対的な交角θSは180度に近くなる。したがって、上述したように記憶部208に記憶された代表角速度ベクトルのうち、連続して現れた代表角速度ベクトル間の交角θSを計算して、これを所定の閾値ΘSと比較することにより往復運動の有無を判定すれば、頭の横振り動作の検出を行うことが可能となる。
次に、反復動作判定部210では、記憶部208に記憶された代表角速度ベクトルから、顔向き座標が往復運動を反復して行っているか否かを判定する。
以下、代表角速度ベクトルから顔の向きが往復運動を反復して行っているか否かを判定する方法について説明する。ここでは、被写体である人物が頷き動作を繰り返し行っている場合を例にして説明する。
被写体である人物の1回の頷き動作は、図21に示すような顔の向きの上下方向の回転による往復運動として把握することができる。したがって、被写体である人物が頷き動作を繰り返した場合には、顔の向きの運動は、図27に示すような上下方向の往復運動の繰り返しとして把握することができる。
上下方向の回転による往復運動が繰り返して行われる場合には、角速度ベクトルの大きさの時間変化は図28のようになる。したがって、動作区間検出部206によって検出される動作区間は、図28に示すように、下方向への回転運動中と上方向への回転運動中に交互に検出される。さらに図28に示すように、角速度ベクトルの大きさが極大となる時刻を(T1、T2、T3・・・)とすると、代表角速度ベクトル算出部207では、これらの時刻における角速度ベクトルが各動作区間の代表角速度ベクトルとして選択され、選択された代表角速度ベクトルが順番に時系列データとして記憶部208に記憶される。
ここで、時刻T1、T3、T5・・・の角速度ベクトルは、下方向への回転運動中に表れる代表角速度ベクトルである。一方、T2、T4・・・の角速度ベクトルは上方向への回転運動中に表れる代表角速度ベクトルである。したがって、この場合、記憶部208に一つおきに記憶された代表角速度ベクトルの間で角速度ベクトルの相対的な交角θRを求めると、その交角は0度に近くなる。
そこで、まず往復動作判定部209において、記憶部208に連続して記憶された代表角速度ベクトル間が形成する相対的な交角θSを計算し、その交角θSが180度に近ければ、顔向き座標は回転による往復運動を行ったと判定する。この判定結果は反復動作判定部210に送られる。
次に、反復動作判定部210において、一の代表角速度ベクトルと、その2つ前に現れた代表角速度ベクトルとの間で2つの角速度ベクトル間の相対的な交角θRを計算する。このとき、その交角θRが0度に近ければ、顔向き座標が往復運動を反復して行ったと判定する。このような処理を行うことにより、頷き動作が繰り返して行われたことを検出することが可能となる。具体的には、反復動作判定部210は代表角速度ベクトル間の交角θRを、所定の閾値ΘRと比較し、θR≦ΘRである場合には頷き動作が繰り返して行われたと判定すればよい。
頷き横振り判定部211では、往復動作判定部209で検出された往復運動が、頷き動作であるのか、頭の横振り動作であるのかを判定する。
被写体である人物の頷き動作は、顔の向きの上下方向の回転による往復運動として把握することができる。また頭の横振り動作は、顔の向きの左右方向の回転による往復運動として把握することができる。
そこで、記憶部208に記憶された代表角速度ベクトルをVR=(vψ,vφ)と表した場合、頷き横振り判定部211は、|vψ|≧|vφ|であれば、顔向き座標が上下方向に大きく変位しているため、その往復運動を頷き動作と判定する。逆に、|vψ|<|vφ|であれば、顔向き座標が左右方向に大きく変位しているため、その往復運動を頭の横振り動作と判定する。ここで、|vψ|は代表角速度ベクトルVRのψ成分の大きさを、|vφ|は代表角速度ベクトルVのφ成分の大きさを表す。
このように、第2の実施形態に係わるジェスチャ検出システムによれば、顔向き座標の2つの代表角速度ベクトルが形成する相対的な交角に基づいて、顔向き座標が回転による往復運動や反復運動を行っているか否かを判定することにより、被写体である人物の頷き動作または頭の横振り動作およびこれらの反復動作であるジェスチャを検出することができる。
なお、本実施形態では、顔向き座標のみを用いて被写体の頷き動作や頭の横振り動作の有無を判定したが、さらに第1の実施形態で用いた顔中心座標をも同時に用いて、例えば両者の結果のいずれもが往復運動の存在を示している場合のみ、被写体である人物の頷き動作や頭の横振り動作が存在すると判定することも可能である。このように、顔向き座標と顔中心座標を同時に用いて被写体のジェスチャを判定することにより、より高精度なジェスチャの検出が可能となる。
実施例1では、速度ベクトル算出部105で算出される速度ベクトルの大きさが所定の閾値よりも大きい区間を、動作区間検出部106で検出し、検出された動作区間に含まれる速度ベクトルから、代表速度ベクトル算出部107において代表速度ベクトルを算出していた。
実施例3では、速度ベクトル算出部105で算出される速度ベクトルの大きさが所定の閾値を越えた時刻を検出し、検出された時刻から一定の時間内に含まれる速度ベクトルから代表速度ベクトルを算出することによりジェスチャを検出する方法について説明する。
図29は、本発明の第3の実施形態に係わるジェスチャ検出方法を実現するためのジェスチャ検出システムの一例を示す構成図である。
この第3の実施形態に係わるジェスチャ検出システム301は、画像入力部302、顔特徴点検出部303、顔中心座標計算部304、速度ベクトル算出部305、動作開始時刻検出部306、代表速度ベクトル算出部307、記憶部308、往復動作判定部309、反復動作判定部310、頷き横振り判定部311を備えている。これらの各構成要素の一部または全部は、ハードウェアによって構成しても良いし、ソフトウェアによって構成しても良い。
次に、第3の実施形態に係わるジェスチャ検出システム301の構成と動作について説明する。なお、以下では第1の実施形態に係わるジェスチャ検出システム101と共通する部分(画像入力部302、顔特徴点検出部303、顔中心座標計算部304、速度ベクトル算出部305、記憶部308、反復動作判定部310、頷き横振り判定部311)については説明を省略する。
動作開始時刻検出部306は、速度ベクトル算出部305から送られてくる顔中心点の動きの速度ベクトルを用いて、顔中心点が動作を開始する時刻(動作開始時刻)を検出する。ここで動作開始時刻とは、速度ベクトルの大きさが所定の閾値よりも大きく、かつ、直前の時刻の速度ベクトルの大きさが所定の閾値以下となる時刻をいう。すなわち、動作開始時刻とは、例えば、速度ベクトルの時系列データを{V1,V2,・・・,Vf,・・・}と表した場合に、(15)式に示される条件を満たすフレームfに対応する時刻をいう。
Figure 0004172793
ここで、THVは、あらかじめ定めた速度ベクトルの大きさの閾値である。
なお、(15)式では、直前の時刻の速度ベクトルを、‖Vf‖>THVとなるフレームの1フレーム前のフレームの速度ベクトルとして条件を定めていたが、直前の時刻の速度ベクトルを、あらかじめ定めたNフレームだけ前のフレームの速度ベクトルとして、(16)式に示される条件を満たすフレームfに対応する時刻を動作開始時刻としてもよい。
Figure 0004172793
なお、(16)式を満たすフレームが連続する場合には、例えば、それらのフレームのうち、最初のフレームに対応する時刻を動作開始時刻とすればよい。
動作開始時刻検出部306で検出された動作開始時刻は、代表速度ベクトル算出部307に送られる。
代表速度ベクトル算出部307は、動作開始時刻検出部306で検出された動作開始時刻から、あらかじめ定めた一定時間の区間に含まれる速度ベクトルから代表速度ベクトルを算出する。例えば、動作開始時刻検出部306で検出された動作開始時刻に対応するフレームfsからNフレームの区間に含まれる速度ベクトルから代表速度ベクトルを算出するようにすればよい。ここで、動作開始時刻検出部306で検出された動作開始時刻に対応するフレームfsからNフレームの区間に含まれる速度ベクトルを{Vfs,Vfs+1,・・・,Vfs+N}、代表速度ベクトルをVRとすると、代表速度ベクトルVRは(17)式を満たす速度ベクトルとなる。
Figure 0004172793
なお、(17)式では、上述した区間に含まれる速度ベクトルのうち、その大きさが最大となる速度ベクトルを代表速度ベクトルVRとしたが、代表速度ベクトルVRは、上述した区間に含まれる速度ベクトルの平均ベクトルであってもよいし、動作開始時刻からNフレーム後の時刻の速度ベクトルを、そのまま代表速度ベクトルVRとしてもよい。
このようにして、代表速度ベクトル算出部307は、動作開始時刻検出部306で動作開始時刻が検出されるたびに代表速度ベクトルVRを算出する。そして代表速度ベクトル算出部307で算出された代表速度ベクトルVRは、時系列データとして記憶部308に記憶される。
往復動作判定部309は、記憶部108に記憶された代表速度ベクトルを順次読み出して、その読み出した代表速度ベクトルから顔中心点が往復運動を行っているか否かを判定する。
ここで、頭の縦振り(頷き)動作を例に取ると、頷き動作においては、顔中心点の動きの速度ベクトルの大きさの時間変化は、図30のようになる。したがって、動作開始時刻検出部306における速度ベクトルの大きさに対する閾値THvを適切な値に定めれば、図30に示すように、1回の頷き動作の中で、顔中心点の下方向への運動中と上方向への運動中に、それぞれ1回ずつ動作開始時刻検出部306で動作開始時刻(TS1、TS2)が検出されることになる。したがって、代表速度ベクトル算出部307において、代表速度ベクトルを算出する区間を、動作開始時刻検出部306で検出された動作開始時刻からNフレームとすると、図30に示すように下方向への運動中と、上方向への運動中にそれぞれ代表速度ベクトルを算出する区間を得ることができる。
ここで、これらの区間に含まれる速度ベクトルの向きは、下方向への運動中においてはすべて下向きとなり、上方向への運動中においてはすべて上向きとなる。したがって、代表速度ベクトル算出部307において、それぞれの区間から代表速度ベクトルを算出すれば、両者の速度ベクトルが形成する交角を計算すると180度に近くなる。
そこで、往復動作判定部309では、記憶部308に記憶された連続する2つの代表速度ベクトル間の交角を計算し、その交角が180度に近い場合には、顔中心点が往復運動を行ったと判断、すなわち頷き動作が行われたと判定することができる。
このように、第3の実施形態に係わるジェスチャ検出システムによれば、顔中心点の動きの速度ベクトルの大きさが所定の閾値を越えた時刻を検出し、その時刻から一定時間の区間に含まれる速度ベクトルから代表速度ベクトルを求めて、顔中心点が往復運動や反復運動を行っているか否かを判定することにより、被写体である人物のジェスチャを高精度かつ頑健かつ高速に検出することができる。
実施例1では、速度ベクトル算出部105で算出される速度ベクトルの大きさが所定の閾値よりも大きい区間を、動作区間検出部106で検出し、検出された動作区間に含まれる速度ベクトルから、代表速度ベクトル算出部107において代表速度ベクトルを算出していた。
実施例4では、速度ベクトル算出部105で算出される速度ベクトルの大きさが所定の閾値よりも小さく、顔中心点が静止していると考えられる静止区間を時系列データとして検出していき、検出された静止区間と静止区間の間の区間に含まれる速度ベクトルから代表速度ベクトルを算出することによりジェスチャを検出する方法について説明する。
図31は、本発明の第4の実施形態に係わるジェスチャ検出方法を実現するためのジェスチャ検出システムの一例を示す構成図である。
この第4の実施形態に係わるジェスチャ検出システム401は、画像入力部402、顔特徴点検出部403、顔中心座標計算部404、速度ベクトル算出部405、静止区間検出部406、代表速度ベクトル算出部407、記憶部408、往復動作判定部409、反復動作判定部410、頷き横振り判定部411を備えている。これらの各構成要素の一部または全部は、ハードウェアによって構成しても良いし、ソフトウェアによって構成しても良い。
次に、第4の実施形態に係わるジェスチャ検出システム401の構成と動作について説明する。なお、以下では第1の実施形態に係わるジェスチャ検出システム101と共通する部分(画像入力部402、顔特徴点検出部403、顔中心座標計算部404、速度ベクトル算出部405、記憶部408、反復動作判定部410、頷き横振り判定部411)については説明を省略する。
静止区間検出部406は、まず、速度ベクトル算出部405から送られてくる顔中心点の動きの速度ベクトルを用いて、顔中心点が静止している時間区間(静止区間)を検出する。ここで静止区間とは、その区間に含まれる速度ベクトルの大きさが、すべて所定の閾値よりも小さい時間区間をいう。すなわち、速度ベクトルの時系列データを{V1,V2,・・・,Vf,・・・}と表した場合に、(18)式に示される条件を満たすフレームによって構成される連続した区間をいう。
Figure 0004172793
ここで、THVは、あらかじめ定めた速度ベクトルの大きさの閾値である。
静止区間検出部406で検出された静止区間は、時系列データとして代表速度ベクトル算出部407に送られる。
代表速度ベクトル算出部407は、静止区間検出部406で検出された静止区間を受け取り、連続する2つの静止区間の間に含まれる区間を動作区間として、その動作区間に含まれる速度ベクトルから代表速度ベクトルを算出する。すなわち、図32に示すように、静止区間検出部406から2つの静止区間S1、S2が送られてきた場合、代表速度ベクトル算出部は、静止区間S1とS2の間に含まれる動作区間M1を検出し、次に動作区間M1に含まれる速度ベクトルから代表速度ベクトルを算出する。
代表速度ベクトル算出部407で算出される代表速度ベクトルは、動作区間M1に含まれる速度ベクトルのうち、その大きさが最大の速度ベクトルであってもよいし、動作区間M1に含まれる速度ベクトルの平均ベクトルであってもよいし、動作区間M1の中心時刻に対応するフレームの速度ベクトルであってもよい。
このようにして、代表速度ベクトル算出部407は、静止区間検出部406で静止区間が検出されるたびに、検出された静止区間と静止区間の間の区間に含まれる速度ベクトルから代表速度ベクトルを算出する。そして代表速度ベクトル算出部407で算出された代表速度ベクトルは、時系列データとして記憶部408に記憶される。
往復動作判定部409は、記憶部408に記憶された代表速度ベクトルを順次読み出し、その読み出した代表速度ベクトルから顔中心点が往復運動を行っているか否かを判定する。
ここで、頭の縦振り(頷き)動作を例に取ると、頷き動作においては、顔中心点の動きの速度ベクトルの大きさの時間変化は図33のようになる。したがって、静止区間検出部406における速度ベクトルの大きさに対する閾値THVを適切な値に定めれば、静止区間検出部406は、図33に示すように、1回の頷き動作の中で、下方向への運動を開始したとき(S1)と、下方向への運動から上方向への運動に移行するとき(S2)、および頷き動作が完了し顔中心点がもとの位置に戻り静止するとき(S3)の3回静止区間を検出することになる。したがって、代表速度ベクトル算出部407で、静止区間検出部406で検出された連続する2つの静止区間の間の区間を動作区間として検出すると、図33に示すように、1回の頷き動作の中で、下方向への運動中と上方向への運動中の2つの動作区間(M1、M2)が検出されることになる。
ここで、これらの動作区間M1、M2に含まれる速度ベクトルの向きは、下方向への運動中においては、すべて下向きとなり、上方向への運動中においては、すべて上向きとなる。したがって、代表速度ベクトル算出部407で、それぞれの動作区間から代表速度ベクトルを算出すれば、両者の代表速度ベクトルが形成する交角は180度に近くなる。
そこで、往復動作判定部409では、記憶部408に記憶された連続する2つの代表速度ベクトル間の交角を計算し、その交角が180度に近い場合には、顔中心点が往復運動を行ったと判断、すなわち頷き動作が行われたと判定することができる。
このように、第4の実施形態に係わるジェスチャ検出システムによれば、顔中心点の動きの速度ベクトルが所定の閾値よりも小さい区間を静止区間として検出し、検出された連続する2つの静止区間の間に含まれる区間を動作区間として、その動作区間に含まれる速度ベクトルから代表速度ベクトルを求めて、顔中心点が往復運動や反復運動を行っているか否かを判定することにより、被写体である人物のジェスチャを高精度かつ頑健かつ高速に検出することができる。
実施例1では、速度ベクトル算出部105で算出される速度ベクトルの大きさが所定の閾値よりも大きい区間を、動作区間検出部106で検出し、検出された動作区間に含まれる速度ベクトルから、代表速度ベクトル算出部107において代表速度ベクトルを算出していた。
実施例5では、速度ベクトル算出部105で算出される速度ベクトルの大きさが所定の閾値よりも大きく、かつ極大となる時刻の速度ベクトルを検出することによりジェスチャを検出する方法について説明する。
図34は、本発明の第5の実施形態に係わるジェスチャ検出方法を実現するためのジェスチャ検出システムの一例を示す構成図である。
この第5の実施形態に係わるジェスチャ検出システム501は、画像入力部502、顔特徴点検出部503、顔中心座標計算部504、速度ベクトル算出部505、ピーク速度ベクトル算出部506、記憶部507、往復動作判定部508、反復動作判定部509、頷き横振り判定部510を備えている。これらの各構成要素の一部または全部は、ハードウェアによって構成しても良いし、ソフトウェアによって構成しても良い。
次に、第5の実施形態に係わるジェスチャ検出システム501の構成と動作について説明する。なお、以下では第1の実施形態に係わるジェスチャ検出システム101と共通する部分(画像入力部502、顔特徴点検出部503、顔中心座標計算部504、速度ベクトル算出部505、記憶部507、反復動作判定部509、頷き横振り判定部510)については説明を省略する。
ピーク速度ベクトル検出部506は、速度ベクトル算出部505から送られてくる顔中心点の動きの速度ベクトルを用いて、速度ベクトルの大きさが所定の閾値よりも大きく、かつ極大となる時刻の速度ベクトル(ピーク速度ベクトル)を検出する。ここで、速度ベクトルの大きさが極大となる時刻とは、その時刻の速度ベクトルの大きさが局所的に最大、すなわちその時刻のまわりの適当な範囲内で最大となる時刻をいう。したがって、ピーク速度ベクトルは、速度ベクトルの時系列データを{V1,V2,・・・,Vf,・・・}と表した場合に、例えば、(19)式に示される条件を満たすフレームの速度ベクトルとして求めることができる。
Figure 0004172793
ここで、THVは、あらかじめ定めた速度ベクトルの大きさの閾値である。
なお、(19)式では、連続した3つのフレームの速度ベクトルの大きさを比較してピーク速度ベクトルを求めているが、連続する複数のフレームの速度ベクトルの大きさが等しい場合を考慮して、(20)式に示される条件を満たす、大きさの等しい連続したフレームの速度ベクトルを求め、そのうちの一つをピーク速度ベクトルとしてもよい。
Figure 0004172793
また、(19)式では、連続した3つのフレームの速度ベクトルのうち、その大きさが最大のものをピーク速度ベクトルとしているが、Vf-1やVf+1のように、その大きさが局所的に、ほぼ最大となる時刻の速度ベクトルをピーク速度ベクトルとしても、本発明の趣旨の範囲内である。
このようにして、ピーク速度ベクトル検出部506で検出されたピーク速度ベクトルは、記憶部507に送られ、時系列データとして記憶部507に記憶される。
往復運動判定部508は、記憶部507に記憶されたピーク速度ベクトルを順次読み出して、その読み出したピーク速度ベクトルから顔中心点が往復運動を行っているか否かを判定する。
ここで、頭の縦振り(頷き)動作を例に取ると、頷き動作においては、顔中心点の動きの速度ベクトルの大きさの時間変化は、図35のようになる。したがって、速度ベクトルの大きさに対する閾値THVを適切に定めれば、図35に示すように、1回の頷き動作の中で、顔中心点の下方向への運動中(T1)と上方向への運動中(T2)に、それぞれ1回ずつピーク速度ベクトル検出部506においてピーク速度ベクトルが検出され、記憶部507に順番に記憶されることになる。
また、このようにして記憶部507に記憶された時刻T1,T2におけるピーク速度ベクトルの向きは、時刻T1においては下向き、時刻T2において上向きであるから、両者の速度ベクトルが形成する交角を計算すると180度に近くなる。
そこで、記憶部507に記憶された連続する2つのピーク速度ベクトル間の交角を計算し、その交角が180度に近い場合には、顔中心点が往復運動を行ったと判断、すなわち頷き動作が行われたと判定することができる。
このように、第5の実施形態に係わるジェスチャ検出システムによれば、顔中心点の動きの速度ベクトルが所定の閾値よりも大きく、かつ極大となる時刻の速度ベクトルをピーク速度ベクトルとして検出して、顔中心点が往復運動や反復運動を行っているか否かを判定することにより、被写体である人物のジェスチャを高精度かつ頑健かつ高速に検出することができる。
実施例1では、速度ベクトル算出部105で算出される速度ベクトルの大きさが所定の閾値よりも大きい区間を、動作区間検出部106で検出していた。
実施例6では、顔中心座標計算部104で得られる顔中心座標の時系列データを用いて、動作区間を検出する方法について説明する。
図36は、本発明の第6の実施形態に係わるジェスチャ検出方法を実現するためのジェスチャ検出システムの一例を示す構成図である。
この第6の実施形態に係わるジェスチャ検出システム601は、画像入力部602、顔特徴点検出部603、顔中心座標計算部604、速度ベクトル算出部605、動作区間検出部606、代表速度ベクトル算出部607、記憶部608、往復動作判定部609、反復動作判定部610、頷き横振り判定部611を備えている。これらの各構成要素の一部または全部は、ハードウェアによって構成しても良いし、ソフトウェアによって構成しても良い。
次に、第6の実施形態に係わるジェスチャ検出システム601の構成と動作について説明する。なお、以下では第1の実施形態に係わるジェスチャ検出システム101と共通する部分(画像入力部602、顔特徴点検出部603、記憶部608、往復動作判定部609、反復動作判定部610、頷き横振り判定部611)については説明を省略する。
顔中心座標計算部604では、顔特徴点検出部603から送られてくる右の鼻孔の座標と左の鼻孔の座標から顔中心座標を計算して、これを速度ベクトル算出部605および動作区間検出部606に送る。
速度ベクトル算出部605は、顔中心座標計算部604から送られてくる顔中心座標から、フレームごとに顔中心点の動きの速度ベクトルを計算する。次に速度ベクトル算出部605で求められた速度ベクトルは、代表速度ベクトル算出部607に送られる。
動作区間検出部606は、顔中心座標計算部604から送られてくる顔中心座標の時系列データから、顔中心座標の単位時間当たりの変位の大きさが所定の閾値よりも大きい区間を動作区間として検出する。すなわち、第fフレームの顔中心座標を(xf,yf)と表すと、動作区間検出部606は、例えば、(21)式で表される条件を満たすフレームfによって構成された連続する区間を動作区間として検出する。
Figure 0004172793
ここでnは、顔中心座標の変位を計算する2つのフレーム間の間隔を表すパラメータである。またΔtは単位時間を表し、第fフレームが撮影された時間と第f+nフレームが撮影された時間の時間間隔である。また、THPは、あらかじめ定めた顔中心座標の単位時間あたりの変位の大きさに対する閾値である。
なお、各フレームで単位時間Δtを一定に保って単位時間あたりの変位の大きさを求める場合には、(22)式を用いて動作区間を検出してもよい。
Figure 0004172793
さらに、各フレーム間の変位の軌跡を考慮して、(23)式を用いて動作区間を検出してもよい。
Figure 0004172793
このようにして動作区間検出部606で検出された動作区間は、代表速度ベクトル算出部607に送られる。
代表速度ベクトル算出部607は、動作区間検出部606で検出された各動作区間について、速度ベクトル算出部605から送られた速度ベクトルのうち、その動作区間に含まれる速度ベクトルから代表速度ベクトルを算出する。
このように、第6の実施形態に係わるジェスチャ検出システムによれば、顔中心点の単位時間当たりの変位の大きさから動作区間を検出することができ、第1の実施形態に係わるジェスチャ検出システムと同様に、被写体である人物の頷き動作または頭の横振り動作およびこれらの反復動作であるジェスチャを高精度かつ頑健かつ高速に検出することができる
本発明の第1の実施形態に係わるジェスチャ検出システムの構成を示すブロック図。 第1の実施形態の顔特徴点の2次元座標を示す図。 第1の実施形態の頷き動作における顔中心点の動きを示す図。 第1の実施形態の頷き動作における速度ベクトル間の交角を示す図。 第1の実施形態の頷き動作における顔中心点の速度ベクトルの大きさの時間変化と動作区間を示す図。 第1の実施形態の頷き動作とはいえない動作における顔中心点の動きを示す図。 第1の実施形態の頷き動作とはいえない動作における速度ベクトル間の交角を示す図。 第1の実施形態の傾いた頷き動作における顔中心点の動きを示す図。 第1の実施形態の傾いた頷き動作における速度ベクトル間の交角を示す図。 第1の実施形態の頭の横振り動作における顔中心点の動きを示す図。 第1の実施形態の頷き動作を反復して行った場合における顔中心点の動きを示す図。 第1の実施形態の頷き動作を反復して行った場合の顔中心点の速度ベクトルの大きさの時間変化を示す図。 第1の実施形態の頷き動作を反復して行った場合の代表速度ベクトル間の交角を示す図。 第1の実施形態の代表速度ベクトルの一例を示す図。 第1の実施形態の頷き横振り判定部の動作例を説明するための図。 第1の実施形態に係わるジェスチャ検出システムの処理の動作を示すフローチャート。 本発明の第2の実施形態に係わるジェスチャ検出システムの構成を示すブロック図。 第2の実施形態の顔特徴点の2次元座標を示す図。 第2の実施形態の顔向き座標(ψ,φ)を示す図。 第2の実施形態のyMaxを説明するための図。 第2の実施形態の頷き動作における顔向きの変化を示す図。 第2の実施形態の頷き動作における顔向きの角速度ベクトルを示す図。 第2の実施形態の頷き動作における顔向きの角速度ベクトルの大きさの時間変化を示す図。 第2の実施形態の頷き動作とはいえない動作の顔向きの角速度ベクトルを示す図。 第2の実施形態の傾いた頷き動作における顔向きの角速度ベクトルを示す図。 第2の実施形態の頭の横振り動作における顔向きの角速度ベクトルを示す図。 第2の実施形態の頷き動作を反復して行った場合の顔向きの変化を示す図。 第2の実施形態の頷き動作を反復して行った場合の顔向きの角速度ベクトルの大きさの時間変化を示す図。 本発明の第3の実施形態に係わるジェスチャ検出システムの構成を示すブロック図。 第3の実施形態の頷き動作における顔中心点の速度ベクトルの大きさの時間変化と動作開始時刻を示す図。 本発明の第4の実施形態に係わるジェスチャ検出システムの構成を示すブロック図。 第4の実施形態における速度ベクトルの大きさの時間変化と静止区間および動作区間の関係を示す図。 第4の実施形態の頷き動作における顔中心点の速度ベクトルの大きさの時間変化と静止区間および動作区間を示す図。 本発明の第5の実施形態に係わるジェスチャ検出システムの構成を示すブロック図。 第5の実施形態の頷き動作における顔中心点の速度ベクトルの大きさの時間変化と速度ベクトルが極大になる時刻を示す図。 本発明の第6の実施形態に係わるジェスチャ検出システムの構成を示すブロック図。
符号の説明
101、201、301、401、501、601・・・ジェスチャ検出システム
102、202、302、402、502、602・・・画像入力部
103、203、303、403、503、603・・・顔特徴点検出部
104、304、404、504、604・・・顔中心座標計算部
105、305、405、505、605・・・速度ベクトル算出部
106、206、606・・・動作区間検出部
107、307、407、607・・・代表速度ベクトル検出部
108、208、308、408、507、608・・・記憶部
109、209、309、409、508、609・・・往復運動判定部
110,210、310、410、509、610・・・反復運動判定部
111,211、311、411、510、611・・・頷き横振り判定部
204・・・顔向き座標計算部
205・・・角速度ベクトル算出部
207・・・代表角速度ベクトル検出部
306・・・動作開始時刻検出部
406・・・静止区間検出部
506・・・ピーク速度ベクトル検出部

Claims (20)

  1. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記速度ベクトル算出ステップで求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出ステップと、
    前記区間検出ステップで検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算ステップと、
    前記交角計算ステップによって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  2. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記速度ベクトル算出ステップで求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出ステップと、
    前記区間検出ステップで検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の第1の交角を計算する第1の交角計算ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、一つおきに現れた2つ代表速度ベクトルから代表速度ベクトル間の第2の交角を計算する第2の交角計算ステップと、
    前記第1の交角計算ステップによって計算された前記第1の交角が第1の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと、
    前記往復動作判定ステップで往復動作が行われたと判定され、さらに前記第2の交角計算ステップで計算された第2の交角が第2の閾値よりも小さい場合、前記特定部位の往復動作が反復して行われたと判定する反復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  3. 前記代表速度ベクトルが、前記区間検出ステップで検出される区間に含まれる速度ベクトルのうち、そのベクトルの大きさが最大である速度ベクトルであることを特徴とする請求項1または請求項2に記載のジェスチャ検出方法。
  4. 前記代表速度ベクトルが、前記区間検出ステップで検出される区間に含まれる速度ベクトルの平均ベクトルであることを特徴とする請求項1または請求項2に記載のジェスチャ検出方法。
  5. 前記代表速度ベクトルが、前記区間検出ステップで検出される区間に含まれる速度ベクトルのうち、前記区間の中心時刻の速度ベクトルであることを特徴とする請求項1または請求項2に記載のジェスチャ検出方法。
  6. 前記特定部位の座標の時系列データが、頭部の特定部位の座標の時系列データであることを特徴とする請求項1または請求項2に記載のジェスチャ検出方法。
  7. 前記被写体を撮影した動画像データから前記特定部位の座標の時系列データを求めるステップをさらに有することを特徴とする請求項1または請求項2に記載のジェスチャ検出方法。
  8. 前記速度ベクトルが角速度ベクトルであることを特徴とする請求項1または請求項2に記載のジェスチャ検出方法。
  9. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記速度ベクトル算出ステップで求まる速度ベクトルの大きさが所定の大きさよりも大きく、かつ直前の時刻の速度ベクトルの大きさが前記所定の大きさよりも小さい時刻を検出する時刻検出ステップと、
    前記時刻検出ステップで検出された時刻から一定の時間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算ステップと、
    前記交角計算ステップによって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  10. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記速度ベクトル算出ステップで求まる速度ベクトルの大きさが所定の大きさよりも大きく、かつ直前の時刻の速度ベクトルの大きさが前記所定の大きさよりも小さい時刻を検出する時刻検出ステップと、
    前記時刻検出ステップで検出された時刻から一定の時間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の第1の交角を計算する第1の交角計算ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、一つおきに現れた2つ代表速度ベクトルから代表速度ベクトル間の第2の交角を計算する第2の交角計算ステップと、
    前記第1の交角計算ステップによって計算された前記第1の交角が第1の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと、
    前記往復動作判定ステップで往復動作が行われたと判定され、さらに前記第2の交角計算ステップで計算された第2の交角が第2の閾値よりも小さい場合、前記特定部位の往復動作が反復して行われたと判定する反復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  11. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記速度ベクトル算出ステップで求まる速度ベクトルの大きさが所定の大きさよりも小さい区間を検出する静止区間算出ステップと、
    前記静止区間算出ステップで算出された静止区間のうち、連続する2つの静止区間の間の区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算ステップと、
    前記交角計算ステップによって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  12. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記速度ベクトル算出ステップで求まる速度ベクトルの大きさが所定の大きさよりも小さい区間を検出する静止区間算出ステップと、
    前記静止区間算出ステップで算出された静止区間のうち、連続する2つの静止区間の間の区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の第1の交角を計算する第1の交角計算ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、一つおきに現れた2つ代表速度ベクトルから代表速度ベクトル間の第2の交角を計算する第2の交角計算ステップと、
    前記第1の交角計算ステップによって計算された前記第1の交角が第1の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと、
    前記往復動作判定ステップで往復動作が行われたと判定され、さらに前記第2の交角計算ステップで計算された第2の交角が第2の閾値よりも小さい場合、前記特定部位の往復動作が反復して行われたと判定する反復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  13. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記時系列の速度ベクトルのうち、そのベクトルの大きさが所定の大きさよりも大きく、かつ極大となる時刻の速度ベクトルを検出し、その検出した速度ベクトルを記憶手段に記憶する記憶ステップと、
    前記記憶手段に記憶された速度ベクトルのうち、連続した2つの速度ベクトルから速度ベクトル間の交角を計算する交角計算ステップと、
    前記交角計算ステップによって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと、
    を有することを特徴とするジェスチャ検出方法。
  14. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記時系列の速度ベクトルのうち、そのベクトルの大きさが所定の大きさよりも大きく、かつ極大となる時刻の速度ベクトルを検出し、その検出した速度ベクトルを記憶手段に記憶する記憶ステップと、
    前記記憶手段に記憶された速度ベクトルのうち、連続した2つの速度ベクトルから速度ベクトル間の第1の交角を計算する第1の交角計算ステップと、
    前記記憶手段に記憶された速度ベクトルのうち、一つおきに現れた2つの速度ベクトルから速度ベクトル間の第2の交角を計算する第2の交角計算ステップと、
    前記第1の交角計算ステップによって計算された前記第1の交角が第1の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと、
    前記往復動作判定ステップで往復動作が行われたと判定され、さらに前記第2の交角計算ステップで計算された第2の交角が第2の閾値よりも小さい場合、前記特定部位の往復動作が反復して行われたと判定する反復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  15. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記座標の時系列データから前記特定部位の単位時間当たりの変位の大きさが所定の大きさよりも大きい区間を検出する区間検出ステップと、
    前記区間検出ステップで検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算ステップと、
    前記交角計算ステップによって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  16. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出方法であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出ステップと、
    前記座標の時系列データから前記特定部位の単位時間当たりの変位の大きさが所定の大きさよりも大きい区間を検出する区間検出ステップと、
    前記区間検出ステップで検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の第1の交角を計算する第1の交角計算ステップと、
    前記記憶手段に記憶された代表速度ベクトルのうち、一つおきに現れた2つ代表速度ベクトルから代表速度ベクトル間の第2の交角を計算する第2の交角計算ステップと、
    前記第1の交角計算ステップによって計算された前記第1の交角が第1の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定ステップと、
    前記往復動作判定ステップで往復動作が行われたと判定され、さらに前記第2の交角計算ステップで計算された第2の交角が第2の閾値よりも小さい場合、前記特定部位の往復動作が反復して行われたと判定する反復動作判定ステップと
    を有することを特徴とするジェスチャ検出方法。
  17. コンピュータに、被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出させるジェスチャ検出プログラムであって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出機能と、
    前記速度ベクトル算出機能により求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出機能と、
    前記区間検出機能によって検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶機能と、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算機能と、
    前記交角計算機能によって計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定機能と
    を有することを特徴とするジェスチャ検出プログラム。
  18. コンピュータに、被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出させるジェスチャ検出プログラムであって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出機能と、
    前記速度ベクトル算出機能により求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出機能と、
    前記区間検出機能によって検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶機能と、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の第1の交角を計算する第1の交角計算機能と、
    前記記憶手段に記憶された代表速度ベクトルのうち、一つおきに現れた2つ代表速度ベクトルから代表速度ベクトル間の第2の交角を計算する第2の交角計算機能と、
    前記第1の交角計算機能によって計算された前記第1の交角が第1の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定機能と、
    前記往復動作判定機能によって往復動作が行われたと判定され、さらに前記第2の交角計算機能によって計算された第2の交角が第2の閾値よりも小さい場合、前記特定部位の往復動作が反復して行われたと判定する反復動作判定機能と
    を有することを特徴とするジェスチャ検出プログラム。
  19. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出装置であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出手段と、
    前記速度ベクトル算出手段で求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出手段と、
    前記区間検出手段で検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶手段と、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の交角を計算する交角計算手段と、
    前記交角計算手段で計算された前記交角が所定の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定手段と
    を備えることを特徴とするジェスチャ検出装置。
  20. 被写体の特定部位の座標の時系列データから、前記特定部位の動作を検出するジェスチャ検出装置であって、
    前記座標の時系列データから前記特定部位の速度ベクトルの時系列データを算出する速度ベクトル算出手段と、
    前記速度ベクトル算出手段で求まる速度ベクトルの大きさが所定の大きさよりも大きい区間を検出する区間検出手段と、
    前記区間検出手段で検出された区間に含まれる速度ベクトルから代表速度ベクトルを得、その得られた代表速度ベクトルを記憶手段に記憶する代表速度ベクトル記憶手段と、
    前記記憶手段に記憶された代表速度ベクトルのうち、連続した2つの代表速度ベクトルから代表速度ベクトル間の第1の交角を計算する第1の交角計算手段と、
    前記記憶手段に記憶された代表速度ベクトルのうち、一つおきに現れた2つ代表速度ベクトルから代表速度ベクトル間の第2の交角を計算する第2の交角計算手段と、
    前記第1の交角計算手段で計算された前記第1の交角が第1の閾値よりも大きい場合、前記特定部位の往復動作が行われたと判定する往復動作判定手段と、
    前記往復動作判定手段で往復動作が行われたと判定され、さらに前記第2の交角計算手段で計算された第2の交角が第2の閾値よりも小さい場合、前記特定部位の往復動作が反復して行われたと判定する反復動作判定手段と
    を備えることを特徴とするジェスチャ検出装置。

JP2004169332A 2004-06-08 2004-06-08 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置 Expired - Fee Related JP4172793B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004169332A JP4172793B2 (ja) 2004-06-08 2004-06-08 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
US11/143,719 US7650017B2 (en) 2004-06-08 2005-06-03 Gesture detecting method, gesture detecting apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004169332A JP4172793B2 (ja) 2004-06-08 2004-06-08 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置

Publications (2)

Publication Number Publication Date
JP2005352531A JP2005352531A (ja) 2005-12-22
JP4172793B2 true JP4172793B2 (ja) 2008-10-29

Family

ID=35448969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004169332A Expired - Fee Related JP4172793B2 (ja) 2004-06-08 2004-06-08 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置

Country Status (2)

Country Link
US (1) US7650017B2 (ja)
JP (1) JP4172793B2 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5061444B2 (ja) * 2005-09-20 2012-10-31 ソニー株式会社 撮像装置及び撮像方法
TWI346494B (en) * 2006-09-08 2011-08-01 High Tech Comp Corp Page movement controller and operating method thereof
US8059091B2 (en) * 2006-12-04 2011-11-15 Electronics And Telecommunications Research Institute Apparatus and method for constituting character using head motion
US8041006B2 (en) * 2007-04-11 2011-10-18 The Invention Science Fund I Llc Aspects of compton scattered X-ray visualization, imaging, or information providing
US20080253627A1 (en) * 2007-04-11 2008-10-16 Searete LLC, a limited liability corporation of Compton scattered X-ray visualization, imaging, or information provider using image combining
US20080253526A1 (en) * 2007-04-11 2008-10-16 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Geometric compton scattered x-ray visualizing, imaging, or information providing
US8837677B2 (en) 2007-04-11 2014-09-16 The Invention Science Fund I Llc Method and system for compton scattered X-ray depth visualization, imaging, or information provider
JP5183398B2 (ja) * 2008-09-29 2013-04-17 株式会社日立製作所 入力装置
CN102292689B (zh) * 2009-01-21 2016-08-03 汤姆森特许公司 利用脸部检测和热点运动控制媒体的方法
JP5295839B2 (ja) * 2009-03-30 2013-09-18 株式会社東芝 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
WO2010137157A1 (ja) * 2009-05-28 2010-12-02 株式会社東芝 画像処理装置、方法、プログラム
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
JP5187280B2 (ja) * 2009-06-22 2013-04-24 ソニー株式会社 操作制御装置および操作制御方法
JP5439977B2 (ja) * 2009-06-24 2014-03-12 富士ゼロックス株式会社 動作判定システム、動作判定装置およびプログラム
US8890657B2 (en) * 2009-10-30 2014-11-18 Symbol Technologies, Inc. System and method for operating an RFID system with head tracking
JP2011254366A (ja) * 2010-06-03 2011-12-15 Pfu Ltd オーバーヘッドスキャナ装置、画像取得方法、および、プログラム
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8953570B2 (en) 2010-11-23 2015-02-10 Symbol Technologies, Inc. Radio frequency identification system and related operating methods
WO2012080964A1 (en) * 2010-12-17 2012-06-21 Koninklijke Philips Electronics N.V. Gesture control for monitoring vital body signs
JP5840399B2 (ja) * 2011-06-24 2016-01-06 株式会社東芝 情報処理装置
KR101829459B1 (ko) * 2011-07-14 2018-02-14 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
JP5547139B2 (ja) 2011-07-29 2014-07-09 株式会社東芝 認識装置、方法及びプログラム
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
US9072929B1 (en) * 2011-12-01 2015-07-07 Nebraska Global Investment Company, LLC Image capture system
CN103218035B (zh) * 2012-01-19 2016-10-05 联想(北京)有限公司 一种手势输入方法及电子设备
EP2650754A3 (en) 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
JP2013250637A (ja) 2012-05-30 2013-12-12 Toshiba Corp 認識装置
KR101978967B1 (ko) 2012-08-01 2019-05-17 삼성전자주식회사 제스처의 방향에 기초하여 상기 제스처를 인식하는 제스처 인식 장치와 제스처 인식 방법
JP6007682B2 (ja) * 2012-08-31 2016-10-12 富士通株式会社 画像処理装置、画像処理方法及びプログラム
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9275480B2 (en) 2013-04-24 2016-03-01 Microsoft Technology Licensing, Llc Encoding of line pattern representation
US9317125B2 (en) * 2013-04-24 2016-04-19 Microsoft Technology Licensing, Llc Searching of line pattern representations using gestures
US9721362B2 (en) 2013-04-24 2017-08-01 Microsoft Technology Licensing, Llc Auto-completion of partial line pattern
BR112015028380A2 (pt) 2013-06-14 2017-07-25 Intercontinental Great Brands Llc video games interativos
WO2016009644A1 (ja) * 2014-07-15 2016-01-21 旭化成株式会社 入力デバイス、生体センサ、プログラム、コンピュータ読み取り可能な媒体及びモード設定方法
JP6350145B2 (ja) * 2014-09-09 2018-07-04 株式会社デンソーアイティーラボラトリ 顔向き検出装置及び車両用警告システム
WO2016101131A1 (en) * 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
US9799133B2 (en) 2014-12-23 2017-10-24 Intel Corporation Facial gesture driven animation of non-facial features
WO2016101124A1 (en) 2014-12-23 2016-06-30 Intel Corporation Sketch selection for rendering 3d model avatar
KR101754126B1 (ko) * 2015-06-10 2017-07-19 주식회사 브이터치 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
CN108509029B (zh) * 2018-03-09 2021-07-02 苏州佳世达电通有限公司 非接触式输入方法及非接触式输入系统
JP7020264B2 (ja) 2018-04-18 2022-02-16 富士通株式会社 動作判定プログラム、動作判定装置及び動作判定方法
CN111033508B (zh) * 2018-04-25 2020-11-20 北京嘀嘀无限科技发展有限公司 一种识别身体运动的系统和方法
JP2021511607A (ja) 2018-04-25 2021-05-06 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 顔の特徴点に基づく首振り動作認識のためのシステムおよび方法
JP6560801B1 (ja) * 2018-09-26 2019-08-14 株式会社Cygames プログラム、電子装置、及び方法
CN109753218A (zh) * 2018-12-25 2019-05-14 深圳融昕医疗科技有限公司 呼吸机的控制方法、装置、呼吸机及存储介质
CN111680618B (zh) * 2020-06-04 2023-04-18 西安邮电大学 基于视频数据特性的动态手势识别方法、存储介质和设备
US20220319019A1 (en) * 2021-03-31 2022-10-06 Nvidia Corporation Techniques to determine optical flow
CN116193243B (zh) * 2021-11-25 2024-03-22 荣耀终端有限公司 拍摄方法和电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612493A (ja) 1992-06-25 1994-01-21 Hitachi Ltd ジェスチャ認識方法およびユーザインタフェース方法
DE69626208T2 (de) * 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6154558A (en) * 1998-04-22 2000-11-28 Hsieh; Kuan-Hong Intention identification method
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2003169319A (ja) * 2001-11-30 2003-06-13 Mitsubishi Electric Corp 映像監視装置
US7321854B2 (en) * 2002-09-19 2008-01-22 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
US7391888B2 (en) * 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
WO2005104010A2 (en) * 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements

Also Published As

Publication number Publication date
JP2005352531A (ja) 2005-12-22
US7650017B2 (en) 2010-01-19
US20050271252A1 (en) 2005-12-08

Similar Documents

Publication Publication Date Title
JP4172793B2 (ja) ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
JP6306236B2 (ja) 奥行きセンサーの使用による装置のタッチフリー操作
JP5474202B2 (ja) 顔検出および画像測定に基づいて注視点を検出する方法および装置
US8879787B2 (en) Information processing device and information processing method
JP6755713B2 (ja) 追尾装置、追尾方法及びプログラム
JP6597235B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
EP2842075A1 (en) Three-dimensional face recognition for mobile devices
TWI496094B (zh) 手勢辨識模組及手勢辨識方法
CN109086727A (zh) 一种确定人体头部的运动角度的方法、装置及电子设备
Wang et al. Immersive human–computer interactive virtual environment using large-scale display system
Kratz et al. The $3 recognizer: simple 3D gesture recognition on mobile devices
Bhuyan et al. Trajectory guided recognition of hand gestures having only global motions
US10901496B2 (en) Image processing apparatus, image processing method, and program
JP7359577B2 (ja) ロボット教示装置及びロボットシステム
JP2005196567A (ja) 顔向き検出装置
TWI499938B (zh) 觸控系統
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP2007241833A (ja) 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体
JPH09179988A (ja) 手振り認識装置
JP4559375B2 (ja) 対象物位置追跡方法、装置、およびプログラム
JP2016167128A (ja) 情報処理装置、情報処理方法及びプログラム
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
JP2013218384A (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP3440644B2 (ja) 手動作認識装置
Siam et al. Human computer interaction using marker based hand gesture recognition

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080808

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080811

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees