JP2018032055A - ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体 - Google Patents

ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体 Download PDF

Info

Publication number
JP2018032055A
JP2018032055A JP2015003951A JP2015003951A JP2018032055A JP 2018032055 A JP2018032055 A JP 2018032055A JP 2015003951 A JP2015003951 A JP 2015003951A JP 2015003951 A JP2015003951 A JP 2015003951A JP 2018032055 A JP2018032055 A JP 2018032055A
Authority
JP
Japan
Prior art keywords
operation surface
virtual operation
display
unit
specific part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015003951A
Other languages
English (en)
Inventor
雅志 神谷
Masashi Kamiya
雅志 神谷
雄大 中村
Takehiro Nakamura
雄大 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015003951A priority Critical patent/JP2018032055A/ja
Priority to PCT/JP2015/079806 priority patent/WO2016113969A1/ja
Publication of JP2018032055A publication Critical patent/JP2018032055A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ハンドポインティングによるジェスチャー認識装置において、特定部位がディスプレイ上の特定の項目を選択しようとしているのか、ディスプレイ上の特定の位置をポインティングしようとしているのかを正確に認識することができる。【解決手段】特定部位をトラッキングすることで得られるトラッキング情報(DTR)から、特定部位(102)がディスプレイ上の特定の項目の選択を意図しているのかディスプレイ上の特定の位置に対するポインティングを意図しているのかを判定する。仮想操作面(BM)を定義し、仮想操作面(BM)に対応する操作領域の座標系(311)とディスプレイの座標系(302)の対応関係を利用して、撮像画像中に検出された特定部位に対応する、ディスプレイ上の位置を、ポインティング位置として認識する。【選択図】図2

Description

本発明は、ジェスチャー認識装置及び方法に関する。本発明はまた、ジェスチャー認識装置又は方法をコンピュータに実行させるためのプログラム、及び該プログラムを記録した記録媒体に関する。
近年、様々な機器において、ジェスチャーによって操作するジェスチャーUI(User Interface)の搭載が進んでいる。これまで、ジェスチャーUIはゲームエンターテインメントに適用されることが多かった。しかし、最近になって放送受信機、PC(Personal Computer)、カーナビゲーションシステムなどにも適用されるようになっている。このような機器の操作では、ユーザーの手の動きを利用したハンドジェスチャーUIが用いられることが多い。
ハンドジェスチャーUIでは、機器の操作の入力にユーザーの手全体の動作、手で形作った形状、指の動作などを利用する。このような動作、形状などを機器側で認識し、その認識の結果に応じた処理を実行する。指の動作を利用するものの一つとして、ハンドポインティングがある。これはユーザーの指差し動作を利用するものであり、特にディスプレイを有する情報表示機器において利用されている。ユーザーはディスプレイ上に表示された項目のうち、選択したい項目を指差す。機器はユーザーが指差したディスプレイ上の位置(以後、ポインティング位置と呼ぶ)を認識し、その認識の結果に応じて機器を制御する。例えば、選択された項目の詳細な情報、或いは、選択された項目に応じた次の操作画面を表示する。
このようなハンドポインティングは、リモコンなど操作のための機器を必要とせず、また、離れた位置にあるものを直接的に選択できるという点で優れている。更に、指差すという動作は多くの人にとって自然な動作であり、その動作を行うこと自体に抵抗がある人が少ないため、機器の操作方法として優れている。
ハンドポインティングを実現するためには、ユーザーの意図したポインティング位置を精度良く認識することが必要である。この認識精度が充分高くない場合、ユーザーは自身が意図した項目を選択できない事態が発生する。その結果、その機器の利便性が低下してしまう恐れがある。
ユーザーの意図したポインティング位置を精度良く認識するための方法として、複数台のカメラを利用するものがある。これは、複数台のカメラで撮像して得られた画像をもとに、ユーザーとカメラとの距離、指の角度などを認識することで、ポインティング位置を認識する(例えば、特許文献1参照)。また、距離センサーと呼ばれる、1台で距離測定可能なカメラを利用し、このカメラで撮像して得られた画像をもとに、ユーザーの手とカメラとの距離、角度などを認識する方法も存在する(例えば、特許文献2参照)。距離センサーの例として、照射した赤外光の反射光が到達するまでの時間を観測することで、物体との距離を測定するTOF(Time Of Flight)センサーと呼ばれるもの、及び特定の赤外光パターンを照射し、その照射パターンの歪みをカメラで観測することで距離を測定するものがある。
特開平5−324181号公報 特表2011−517357号公報
特許文献1では、2台のカメラを利用し、それらで撮像した映像からユーザーが指差している方向を推定し、その方向とディスプレイの法線との成す角からポインティング位置を認識している。この場合、ユーザーはあらかじめ定められた位置に立っていることを前提としている。この方法では、カメラを2台必要とするためシステムの規模が大きくなる。また、2台のカメラで撮像した画像間の同期をとる必要があり、高度な処理を必要とする。更に、ユーザーが定位置に立つ必要があるという制約がある。
特許文献2では、距離センサーを利用することで、1台のカメラでの認識を可能にしているが、一般にこのような距離センサーは、従来型の一般的なカメラ(距離センサーではなく、色情報を取得できるようなもの)に比べて高価なため、民生用の情報表示機器への適用は困難である。
本発明は上記問題を鑑みてなされたものであり、1台の一般的なカメラを利用することでユーザーのポインティング位置を精度良く認識することができる。
本発明に示すジェスチャー認識装置は、
撮像により順次得られる複数のフレームの撮像画像の各々から手の特定部位を検出する特定部位検出部と、
前記特定部位検出部で検出した前記特定部位を複数のフレームに亘りトラッキングするトラッキング部と、
前記トラッキング部によるトラッキングにより得られた特定部位の位置の変化を示すトラッキング情報を記憶するトラッキング情報記憶部と、
前記トラッキング情報記憶部に記憶されている前記トラッキング情報から、前記特定部位がディスプレイ上の特定の項目の選択を意図しているのか前記ディスプレイ上の特定の位置に対するポインティングを意図しているのかを判定する動作認識部と
を有するものである。
ジェスチャー認識装置が、
前記トラッキング情報から、仮想操作面の指定意図を認識し、該認識の結果に基づいて前記仮想操作面を定義する仮想操作面認識部と、
前記定義された前記仮想操作面に対応する撮像画像中の操作領域の座標系と前記ディスプレイの座標系の対応関係を示すマッピング情報を記憶するマッピング情報記憶部と、
前記対応関係を利用して、前記撮像画像中に検出された前記特定部位に対応する、前記ディスプレイ上の位置を、ポインティング位置として認識するポインティング位置認識部と
をさらに有していても良い。
本発明によれば、撮像画像中の特定部位の動きを、トラッキングすることで得られるトラッキング情報を用いることで、特定部位がディスプレイ上の特定の項目を選択しようとしているのか、ディスプレイ上の特定の位置をポインティングしようとしているのかを正確に認識することができる。
また、仮想操作面を定義することとすれば、仮想操作面に対応する撮像画像中の操作領域の座標系とディスプレイ座標系との対応関係に基づいて、ポインティング位置を認識することができるため、1台の一般的なカメラによって撮像された画像によってポインティング位置を精度良く認識することができる。
ハンドポインティング型のジェスチャー認識装置よるジェスチャー入力を概略的に示す図である。 本発明の実施の形態1に係るジェスチャー認識装置の構成を示すブロック図である。 本発明の実施の形態1〜4に係るジェスチャー認識装置で扱う、トラッキング情報の一例を示す図である。 (a)及び(b)は、本発明の実施の形態1〜4に係るジェスチャー認識装置で扱う、トラッキング情報の追記の一例を示す図である。 本発明の実施の形態1〜4に係るジェスチャー認識装置における、指先の静止判定方法を説明する図である。 本発明の実施の形態1〜4に係るジェスチャー認識装置で扱う、操作領域座標系、ディスプレイ座標系、及び撮像画像座標系、並びに各座標系における指先座標を示す図である。 (a)及び(b)は、本発明の実施の形態1に係るジェスチャー認識装置において、仮想操作面認識部が仮想操作面を指定する動作によって形成される閉領域の一例、及び仮想操作面の一例を示す図である。 (a)は、撮像画像中の操作領域を示す図、(b)は、撮像画像中の操作領域内の任意の点に投影される、3次元空間中の複数の点を示す図である。 (a)及び(b)は、本発明の実施の形態1に係るジェスチャー認識装置における、操作領域座標系とディスプレイ座標系との対応関係を説明する図である。 本発明の実施の形態1に係るジェスチャー認識装置における、撮像画像座標系と操作領域座標系とディスプレイ座標系との対応関係を示す図である。 本発明の実施の形態1に係るジェスチャー認識装置の、ハンドポインティング認識処理を示すフローチャートである。 本発明の実施の形態1に係るジェスチャー認識装置の、ハンドポインティング認識処理を示すフローチャートである。 本発明の実施の形態1に係るジェスチャー認識装置において、仮想操作面認識部が仮想操作面を指定する動作を認識する処理を示すフローチャートである。 本発明の実施の形態1の第1の変形例に係るジェスチャー認識装置において、ユーザーが仮想操作面を指定する動作を説明する図である。 発明の実施の形態1の第2の変形例に係るジェスチャー認識装置の構成を示すブロック図である。 発明の実施の形態1の第3の変形例に係るジェスチャー認識装置の構成を示すブロック図である。 本発明の実施の形態1の第4の変形例に係るジェスチャー認識装置において、ユーザーが仮想操作面を指定する動作を説明する図である。 本発明の実施の形態2に係るジェスチャー認識装置の構成を示すブロック図である。 本発明の実施の形態2に係るジェスチャー認識装置において仮想操作面補正部が仮想操作面を補正する方法を説明する図である。 (a)及び(b)は、本発明の実施の形態2の第1の変形例に係るジェスチャー認識装置において、ユーザーが仮想操作面を指定する動作を説明する図である。 (a)及び(b)は、本発明の実施の形態2の第1の変形例に係るジェスチャー認識装置において、ユーザーが仮想操作面を指定する動作を説明する図である。 本発明の実施の形態2の第1の変形例に係るジェスチャー認識装置において、ユーザーが仮想操作面を指定する動作を説明する図である。 本発明の実施の形態3に係るジェスチャー認識装置において、ユーザーの移動に応じて仮想操作面の位置を補正する動作を説明する図である。 (a)及び(b)は、本発明の実施の形態3に係るジェスチャー認識装置において、ユーザーの移動に応じて仮想操作面の位置を補正する動作を説明する図である。 本発明の実施の形態3に係るジェスチャー認識装置の構成を示すブロック図である。 本発明の実施の形態4に係るジェスチャー認識装置において、仮想操作面の位置をユーザーに確認させるための画像表示の例を示す図である。 本発明の実施の形態4に係るジェスチャー認識装置の構成を示すブロック図である。
実施の形態1.
図1は、本発明の実施の形態1のジェスチャー認識装置1と、ジェスチャー認識装置1に対しジェスチャーで操作を行うユーザーの手101を示す。ジェスチャー認識装置1は例えばテレビ受信機の一部を成すものであり、表示画面231は、受信した番組の画像の表示、テレビ受信機の操作のためのGUIの表示にも用いられる。
ジェスチャー認識装置1はカメラ10を備え、ユーザーの手101の撮像画像を取得する。ユーザーは、手101、特にその特定部位、例えば指先102を表示画面231上の任意の位置に向ける(ポインティングする)ことで、表示画面231上のGUIに対する操作を行う。例えば表示画面231上のGUIの項目(GUIボタン)に対しポインティングを行うことで、テレビ受信機に対する操作を行う。
ジェスチャー認識装置1はカメラ10によってユーザーの特定部位の動きを観察することで、ポインティングされた表示画面231上の位置(ポインティング位置)を認識し、その認識の結果に応じて機器の制御を行う。
図2は、実施の形態1におけるジェスチャー認識装置1の構成を表すブロック図である。図示のジェスチャー認識装置1は、カメラ10と、撮像制御部11と、撮像データ記憶部12と、特定部位検出部13と、トラッキング部14と、トラッキング情報記憶部15と、動作認識部16と、仮想操作面認識部17と、マッピング情報記憶部18と、ポインティング位置認識部19と、UI制御部20と、ディスプレイ表示制御部21と、表示情報記憶部22と、ディスプレイ23とを有する。上記のうち、特定部位検出部13と、トラッキング部14と、トラッキング情報記憶部15と、動作認識部16と、仮想操作面認識部17と、マッピング情報記憶部18と、ポインティング位置認識部19とで、ハンドポインティング認識部2が構成されている。
まず、各構成部の動作について説明する。
カメラ10は、動画撮影(連続した静止画の撮像)を行う。カメラ10は、ジェスチャー認識装置1本体に水平に取り付けられている。ここで、「水平に」とは撮像画面の水平方向が、ジェスチャー認識装置1本体の水平方向に一致するようにと言う意味である。
撮像制御部11は、カメラ10に撮像開始を指示する制御信号C11s、及び撮像の終了を指示する制御信号C11tを送信する。制御信号C11s及びC11tは、例えば予め定められたフレーム期間毎に、送信される。カメラ10は、制御信号C11s及びC11tに応じて、撮像の開始及び終了を行う。
撮像制御部11は、カメラ10による撮像で得られた複数のフレームの画像(撮像画像)を順次撮像制御部11に送信する。1枚の撮像画像をフレーム画像DFと呼ぶ。撮像制御部11は、撮像により得られた画像を受信して撮像データ記憶部12に送信する。
撮像データ記憶部12は、撮像制御部11からフレーム画像DFを受信して、フレーム番号FNとともに蓄積する。即ち、撮像データ記憶部12がフレーム画像DFを蓄積する際には、フレーム画像DFを構成する各画素の値だけではなく、フレーム番号FNをも蓄積する。
フレーム番号FNは、カメラ10が撮像したフレーム画像DF毎に割り振られるもので、最初に撮像したフレーム画像DFでのフレーム番号FNを「0」として、「1」、「2」、…といったように1ずつ増加した値とする。
撮像データ記憶部12に蓄積されたフレーム画像DF及びフレーム番号FNは、読み出されて、特定部位検出部13に送信される。
特定部位検出部13は、撮像データ記憶部12から送信されたフレーム画像DF及びフレーム番号FNを受信し、撮像データ記憶部12に新たなフレーム画像DFが蓄積されているかどうかを判定する。
特定部位検出部13が撮像データ記憶部12に新たなフレーム画像DFが蓄積されているかどうか判定する際は、前回ハンドポインティング認識処理(後述する)の対象となったフレーム画像DFのフレーム番号FNと比較し、認識処理の対象となったフレーム画像DFのフレーム番号FNよりも大きい値のフレーム番号のフレーム画像DFが存在する場合には、新たなフレーム画像DFが存在すると判断する。
特定部位検出部13は、撮像データ記憶部12に新たなフレーム画像DFが蓄積されていると判定したときは、新たなフレーム画像DFを解析して、画像中の指先(指の先端)を検出する。
指先の検出方法としては、色情報を用いる方法、及び形状情報を用いる方法が知られている。例えば、指先を表すテンプレート画像を用意し、撮像したフレーム画像DFとマッチングを行う方法、多数の指先画像を利用して指先を表す特徴を学習させた検出手段を作成し、撮像したフレーム画像DFに適用する方法などがある。本発明では、これらの検出方法のいずれを用いても良い。
特定部位検出部13は、検出した指先の位置(フレーム画像DF中の位置)を表す座標Pを取得する。以後、フレーム画像DFにおける指先の座標Pを「指先座標」と呼ぶ。指先座標Pはx座標Ptxとy座標Ptyとを含み、(Ptx,Pty)と表すこともある。x座標は、水平軸(x軸)方向の座標であり、y座標は垂直軸(y軸)方向の座標である。
なお、i番目のフレームの指先座標であることを明示するため、符号「Pt(i)」、「Pt(i)x」、「Pt(i)y」を用いる場合もある。以下で用いる他の符号についても同様である。
特定部位検出部13は、各フレーム画像DFの指先座標Pを、当該フレーム画像のフレーム番号FNとともにトラッキング部14に送信する。
なお、本実施の形態では、指先を検出して、その座標を検出することとしているが、本発明はこれに限定されず、他の箇所であっても良い。例えば、指の腹の部分、又は掌の中心を検出してその座標を検出するものであっても良い。要するに、手又は指の特定の部位を検出して、その座標を検出するものであれば良い。
トラッキング部14は、特定部位検出部13から指先座標P及びフレーム番号FNを受信し、複数のフレームに亘り指先のトラッキング(追跡)を行い、トラッキングの結果に基づいて得られた情報をトラッキング情報記憶部15に送信することで、トラッキング情報記憶部15にトラッキング情報DTRを記憶させ、或いはトラッキング情報記憶部15に記憶されているトラッキング情報DTRを更新させる。
トラッキング情報(追跡情報)DTRは、時間の経過に伴う指先の位置の変化(動き)を示す情報(移動軌跡情報)であり、例えば相連続する複数のフレームにおける指先座標P、従って指先座標の時系列で構成される。具体的には、トラッキング情報DTRは、図3に示すように、各フレーム画像DFで検出された指先座標(Ptx,Pty)と、そのフレーム番号FNとを関連付けて記述したものである。
指先のトラッキングの結果、あるフレームと次のフレームとで同じ指先が検出されると、新たな指先の位置を示す情報(指先座標)が追加される。例えば、あるフレーム画像の取得後のトラッキング情報DTRが図4(a)に示す如くであり、次のフレーム画像の取得後のトラッキング情報DTRは図4(b)に示す如くとなる。
トラッキングのため、トラッキング部14は、特定部位検出部13から指先座標Pとフレーム番号FNとを受信すると、トラッキング情報記憶部15に対し、トラッキング情報DTRを要求する制御信号C14aを送信し、これに応じてトラッキング情報記憶部15からトラッキング情報DTRが送信されると、これを受信する。
トラッキング情報記憶部15にトラッキング情報DTRが記憶されていない場合はそのことを示す情報が、トラッキング部14に送信される。その場合には、トラッキング部14は、特定部位検出部13から送信された指先座標Pとフレーム番号FNの組をトラッキング情報記憶部15に送信し、新たなトラッキング情報DTRとして記憶させる。
トラッキング情報記憶部15からトラッキング情報DTRが送信されたときは、トラッキング部14は、特定部位検出部13から送信された指先座標P及びフレーム番号FNと、トラッキング情報記憶部15から送信されたトラッキング情報DTR、特にそのうちの最も新しいフレームの指先情報Pとから、指先のトラッキング(追跡)を行い、トラッキングの結果に基づいてトラッキング情報記憶部15にトラッキング情報の更新を行わせる。
なお、トラッキング情報記憶部15から送信されるトラッキング情報のうち、トラッキング部14で利用するのは最新のフレーム(特定部位検出部13から送信された指先座標P及びフレーム番号FNのフレームの直前のフレーム)の情報のみであるので、最新のフレーム情報のみを送信するようにしても良い。
トラッキングのため、トラッキング部14は、あるフレームの画像から検出された指先の、当該画像中の位置と、当該あるフレームの次のフレームの画像から検出された指先の当該画像中の位置との間隔が予め定められた値Thmov未満である場合に、当該2つのフレームの画像において検出された指先が、同一の指先であると判定する。
具体的には、特定部位検出部13から送信された各フレームの指先座標が、前のフレームの指先座標と同じ指先を表すものであるか否かを判定する。
即ち、現在ハンドポインティング認識処理の対象となっているフレーム画像DFのフレーム番号FNを「i」とし、このフレーム画像DF(i)で検出された指先座標をPt(i)とし、一つ前のフレームのフレーム番号FNを「i−1」とし、そのフレーム画像DF(i−1)で検出された指先座標をPt(i-1)とし、指先座標Pt(i)で示される指先位置と、指先座標Pt(i-1)で示される指先位置との距離MPt(i)−Pt(i−1)が予め定められた値(閾値)Thmovよりも小さければ、それらの指先座標は同一の指先のものであると判定する。
即ちまず、上記の距離MPt(i)−Pt(i−1)を下記の式(1)で求める。

Figure 2018032055
式(1)で、
t(i)xは、Pt(i)のx座標、
t(i)yは、Pt(i)のy座標、
t(i−1)xは、Pt(i−1)のx座標、
t(i−1)yは、Pt(i−1)のy座標である。
次に、上記の距離が閾値未満か否かによる、同一性の判断を下記の式(2a)及び(2b)で行う。
Figure 2018032055
このように距離に基づく判定が必要であるのは、座標Pt(i-1)の指先と座標Pt(i)の指先とは同一でものであるとは限らないためである。例えば、座標Pt(i)の指先は右手の指先であり、座標Pt(i)の指先は左手の指先である場合がある。このような場合、2つのフレーム間で指先座標P間の差が大きくなることが多い。そこで、上記のように閾値Thmov以上であれば、同一の指先についての座標ではないと判定することができる。
相前後するフレーム間で指先座標Pが同一の指先を表すものであると判定した場合、
トラッキング部14は、特定部位検出部13から送信された指先座標Pt(i)と、前のフレームに同じ特定部位検出部13から送信された指先座標Pt(i−1)との対応付けを行う。この対応付けは、前のフレームに送信された指先座標の指先が、今回のフレームに送信された指先座標の位置に移動したものとして扱うことを意味する。即ち、座標Pt(i-1)から座標Pt(i)に指先が移動したと認識することを意味する。
トラッキング情報記憶部15は、トラッキング部14から指先座標Pとフレーム番号FNとを受信し、これらに基づいてトラッキング情報DTRを更新する。この更新においては、トラッキング部14から送信された指先情報Pとフレーム番号FNを、すでに記憶されているトラッキング情報DTRの末尾に追加する。
なお、トラッキング情報記憶部15は、検出された全ての指先座標Pとフレーム番号FNを記憶しなくても良い。例えば、予め定められた数だけ前のフレーム番号FNに関する指先座標P及びフレーム番号FNを自動的に削除してもよい。このようにすることで、トラッキング情報記憶部15に必要なメモリ容量が少なくて済む。
トラッキング部14は、相前後するフレームで、指先座標Pが同一の指先を示すものではないと判定したときは、トラッキング情報記憶部15にトラッキング情報DTRを削除することを指示する制御信号C14bを送り、さらに新たに検出された指先座標Pとフレーム番号FNの組をトラッキング情報記憶部15に送信する。
トラッキング情報記憶部15は、トラッキング部14から制御信号C14bを受信すると、これに応じてトラッキング情報DTRを削除する。
トラッキング情報記憶部15はさらに、トラッキング部14から新たに(現フレームについて)検出された指先座標P及びフレーム番号FNの組を新たなトラッキング情報DTRとして記憶する。
なお、上記のように、相前後するフレーム間で、指先座標が示す指先位置相互間の距離が閾値以上であれば直ちにトラッキング情報記憶部15のトラッキング情報DTRを削除する代わりに、相前後するフレーム間で指先座標が示す指先位置相互間の距離が閾値以上である状態が予め定められた、2以上の数のフレーム期間だけ続いた(2以上の数のフレームだけ繰り返された)ことを条件として、トラッキング情報記憶部15のトラッキング情報DTRを削除するようにしても良い。
トラッキング情報記憶部15はまた、動作認識部16から、トラッキング情報DTRを要求する制御信号C16aを受信すると、これに応じて、トラッキング情報DTRを動作認識部16に送信する。
トラッキング情報記憶部15はまた、仮想操作面認識部17から、トラッキング情報DTRを要求する制御信号C17aを受信すると、これに応じてトラッキング情報DTRを仮想操作面認識部17に送信する。
動作認識部16は、トラッキング情報記憶部15に対し、トラッキング情報DTRを要求する制御信号C16aを送信し、トラッキング情報記憶部15がこれに応じてトラッキング情報DTRを送信したら、これを受信する。
動作認識部16は、トラッキング情報記憶部15から、トラッキング情報DTRを受信し、受信した情報に基づいて、トラッキング情報記憶部15に新たな指先座標Pが記憶されているか否かを判定する。
新たな指先座標Pが記憶されているかどうかは、トラッキング情報DTRに含まれるフレーム番号FNの最新の値を参照することで可能である。
動作認識部16はまた、指先座標Pをポインティング位置認識部19に送信する。
動作認識部16はまた、ユーザーの指先102の動作が、「ポインティング」を意図したものであるか、又は「選択」を意図したものであるかを示す判定結果信号D16dをUI制御部20に送信する。ここで「選択」はディスプレイ上に表示されている特定の項目の選択を意味する。一方、「ポインティング」は、ディスプレイ上の特定の位置に対するポインティング(指し示す動作)を意味する。同じ位置に対する「ポインティング」が予め定められた時間以上続けられると「選択」を意図したものとして扱われる。
動作認識部16は、トラッキング情報記憶部15に記憶されているトラッキング情報から、指先がディスプレイ上の特定の項目の選択を意図しているのか、ディスプレイ上の特定の位置に対するポインティングを意図しているのかを判定する。
動作認識部16は、指先が予め定められた時間以上同じところに留まり続けた場合、その時点でポインティングされている位置に表示されているディスプレイ上の項目が選択されていると判定する。
同じところに留まり続けているか否かの判定に当たり、動作認識部16は、完全に同じところに指先が留まり続けていなくとも、あるフレームの画像における前記特定部位の位置が、1つの前のフレームの画像における特定部位の位置を中心とした予め定められた距離の範囲内にあれば、同じところに留まり続けていると判定する。
「選択」を意図した指先の動きであるかどうかを認識する方法について例を挙げると、指先が予め定められた時間以上(予め定められた数のフレーム期間以上)同じところに留まり続けた場合に、ユーザーはディスプレイ23に表示された特定の項目を「選択」しようとしていると認識する方法をとることができる。
しかし、ユーザーが特定の項目を選択したい時に、自身の指先を完全に静止させ、まったく同じところに留まらせることは人間には非常に困難であり、一般的には「手ぶれ」と呼ばれる現象が発生する。そこで、図5のように、ある閾値Thを定め、以下の式(3)で静止判定を行う。
Figure 2018032055
式(3)の閾値Thは、式(2a)及び式(2b)の閾値Thmovよりも小さい値に定められる。
式(3)の判定を、図5を参照して説明する。図5に示すように、ハンドポインティング認識処理中のフレーム画像DFにおいて検出された指先座標Pt(i)が、1つ前のフレーム画像DFにおける指先座標Pt(i−1)を中心とした半径Thの円の内側に存在すれば、静止していると見なす。
即ち、動作認識部16は、完全に同じところに指先が留まり続けていなくとも、1つ前のフレームの画像における指先座標を中心とした、予め定められた距離の範囲内への指先の移動であれば、同じところに留まり続けているものとして扱う。
このようにすることで、ユーザーの指先が多少動いてしまっていても、「選択」を認識することができる。
仮想操作面認識部17は、トラッキング情報記憶部15に記憶されているトラッキング情報DTRから、該トラッキング情報DTRで表されている指先の移動が、仮想操作面BMの指定を意図したものであるかを判断する。仮想操作面認識部17は、ユーザーによる仮想操作面BMの指定意図を認識した場合には、該認識の結果に基づいて仮想操作面BMを定義する。
その処理のため、仮想操作面認識部17は、トラッキング情報記憶部15に対し、トラッキング情報DTRを要求する制御信号C17aを送信し、トラッキング情報記憶部15がトラッキング情報DTRを送信したら、これを受信する。
そして、仮想操作面認識部17は、受信したトラッキング情報DTRからユーザーが仮想操作面BMを指定する動作を行ったかどうか、即ちユーザーが仮想操作面の指定を意図して指先を移動させたか否かを認識する。仮想操作面BMとは図6のように、ユーザーの周囲にある空間のうち、ユーザー自身が実際にハンドポインティングを行う領域を意味する。
仮想操作面BMを指定する動作を行ったかどうかの判定は例えば以下のように行われる。
まず、仮想操作面認識部17は、ユーザーが指先102によって閉曲線201を描いたかどうかを判定する。閉曲線201は、例えば図7(a)に示すように、指先102がある点202を通過した後、同じ点202に戻るまでの曲線である。同じ点に戻るとは、指先102の動きを撮像することで得られる撮像画像の画面(撮像画面)上で、同じ位置に戻ることであり、3次元空間において同じ位置に戻ることは必須ではない。任意の点に戻ったか否かは、撮像画像において、指先の軌跡を描く曲線が交差したか否かで判断される。閉曲線で囲まれた領域を閉領域203と言う。撮像画面を撮像画像と同じ符号DFで示す。
ユーザーが閉曲線を描く処理は、複数のフレーム期間にわたって行われるので、閉曲線を描いたか否の判定は、連続する複数のフレーム期間における撮像画像(フレーム画像)を解析する必要がある。
そのため、仮想操作面認識部17は、トラッキング情報DTRからフレーム番号FNの順に2つの指先座標を読み出し、相前後するフレームのフレーム画像における指先座標を結ぶ線分を生成する。これをフレーム番号FNの組を変えながら繰り返し行い、線分同士の交差を検出する。交差が発生した場合、ユーザーが指先によって閉曲線201を描いたと判定し、この時点までの線分を連結したとき生成される閉曲線201の内側領域を閉領域203と認定する。図8(a)には、そのように3次元空間に描かれる閉曲線201に対応する、撮像画面上の曲線を符号211で示す。曲線211は、撮像画像中での指先の軌跡を観念的に示すものであって、曲線211を含む一枚の画像が生成されることを意味しない。
仮想操作面認識部17は、次に生成された閉領域203から、閉曲線201が仮想操作面BMの指定を意図して描かれたものであるか否かを判定する。具体的には、生成された閉領域203の面積S203を算出し、さらに閉領域203を生成するのに要した時間T203を算出する。さらに、閉領域203の面積S203に対して閾値Thを設定するとともに、閉領域203を生成するのに要した時間T203に対して閾値Thを設定する。そして、下記の式(4a)及び(4b)が成立するか否かの判定を行う。
Figure 2018032055
式(4a)で用いる面積S203としては、撮像画像中の、閉領域203に対応する領域の面積が用いられる。
式(4a)及び(4b)がともに成立する場合に、ユーザーが仮想操作面BMの指定を意図したと認識する。
そして、図7(b)に示すように、その閉領域203に内接する矩形領域204を仮想操作面BMとして認識する。
ここで閉領域203に内接する矩形領域204とは、一方の対の辺が水平方向に延び、他方の対の辺が垂直方向に延びた矩形の領域であって、全体が閉領域203に含まれ、かつ面積が最大の領域である。ここで言う、「面積」も対応する撮像画像中での面積である。なお、上記のように、カメラ10は水平に取り付けられているので、撮像画像中の水平方向、垂直方向は、3次元空間中の水平方向、垂直方向と一致する。また、閉領域203をカメラ10の光軸10aに垂直に形成すれば、矩形領域204は、撮像画像中の矩形領域と相似となる。
以上のように、仮想操作面認識部17は、ユーザーが自身の指先の動きによって生成した閉領域203の面積が、予め定められた値(閾値)Th以上であり、且つ、指先の動きによって閉領域を生成するのに要した時間が、予め定められた値(閾値)Th以下である場合に、ユーザーが仮想操作面BMの指定を意図したと認識する。
これらの条件を課すことにより、ユーザーが偶発的に(即ち仮想操作面の指定を意図せずに)小さな閉領域203を生成してしまったり、長時間の指先移動を経て閉領域203が生成されてしまったりした場合に、それを無視することができる。
なお、上記の2つの条件(式(4a)及び(4b))のうち、一方のみを満たすこと場合に、ユーザーが仮想操作面BMの指定を意図したと認識することとしても良い。
以上のようにして3次元空間中に仮想操作面BMが定義されると、これに対応する領域が撮像画像中に定義される。この領域を操作領域と言い、符号AMで表す。図8(a)には、仮想操作面BMに対応する操作領域AMが示されている。図8(a)にはさらに、3次元空間中の閉曲線201、交点202、閉領域203に対応する閉曲線211、交点212、閉領域213が示されている。
3次元空間中のカメラ10から見て3次元空間中の特定の方向にあるすべての点、例えば図8(b)において、方向Drc上の複数の点Pta、Ptb、Ptcは、撮像画像中の同じ位置に投影される。従って、特定部位検出部13が指先102を検出する場合にも(さらには、検出された指先の位置に基づいてトラッキング部14、仮想操作面認識部17等で処理を行う際にも)、指先102がカメラ10から見て同じ方向にある限り、どの位置にあっても同じ位置にあるものとして扱われる。
従って、一旦仮想操作面BMが定義されると、ユーザーは、仮想操作面BM内に限らず、カメラ10から見て仮想操作面BMのある位置と同じ方向にある、仮想操作面BMの外部(カメラ10から見て仮想操作面BMの手前側又は奥側で)に指先102を位置させても、同じ効果を生じさせることができる。仮想操作面BMを含み、仮想操作面BMに指先102を位置させたのと同じ効果を生じさせる領域(カメラから見て仮想操作面BMと同じ方向にある領域)を操作可能領域BRと呼ぶ。
操作可能領域BRのうち、ユーザーが閉曲線を描くことによって定義した閉領域203に囲まれる領域は、ユーザーが平面或いは平面に近いと感じ、無理なく(自然な姿勢で)指先102を位置させることができる範囲内の領域である。従って、ユーザーがハンドポインティングのために指先102を移動させるのに便利な領域、或いはユーザーがハンドポインティングのために指先102を位置させることが多い領域である。本願ではそのような領域を仮想操作面BMと呼ぶこととしている。
仮想操作面認識部17は、以上のようにして仮想操作面BMを生成すると、生成した仮想操作面BMに対応する操作領域AMの情報に基づいて、マッピング情報MPDを生成し、マッピング情報記憶部18に送信する。操作領域AMは、仮想操作面BMに対応するので、操作領域AMの情報は、仮想操作面BMの情報でもある。
マッピング情報MPDは、操作領域AMの座標系と、ディスプレイ23の座標系との対応関係を示す情報である。マッピング情報MPDは、撮像画像の座標系上の座標を、ディスプレイ23の座標系上の座標に変換するために利用される。
以後、撮像画像の座標系300を「撮像画像座標系」、
仮想操作面BMの座標系301を「仮想操作面座標系」、
操作領域AMの座標系311を「操作領域座標系」、
ディスプレイ23の座標系302を「ディスプレイ座標系」、
操作領域座標系311上での指先の座標Aを「操作領域内指先座標」と呼び、
ディスプレイ座標系302上での指先の座標Dを「ディスプレイ上指先座標」と呼ぶこととする。
フレーム画像DFにおける指先座標Pは、撮像画像系300上での指先の座標である。
フレーム画像DFにおける指先座標Pを、「操作領域内指先座標」及び「ディスプレイ上指先座標」との区別のため、「撮像画像上指先座標」と言うこともある。
座標Aは、x座標Atx及びy座標Atyを含む。
座標Dは、x座標Dtx及びy座標Dtyを含む。
図6、図9(a)及び(b)、及び図10に、これらの座標系300、301、311、302、及び座標P、A、Dの関係を図示する。
図10は、撮像画像座標系300、操作領域座標系311、及びディスプレイ座標系302の関係を水平方向(x軸方向)に関して示す。
図6に示されるように、仮想操作面認識部17は、図6に示されるように、操作領域AMの左上の頂点を、操作領域座標系311の原点と定義する。
図9(a)に示すように、操作領域AMの
水平方向の辺AMxの長さ(水平方向の画素数)をLAxとし、
垂直方向の辺AMyの長さ(垂直方向の画素数)をLAyとする。
また、図9(b)に示すように、ディスプレイ23の表示画面231の水平方向の辺231xの長さ(水平方向の画素数)をLDxとし、
垂直方向の辺231yの長さ(垂直方向の画素数)をLDyとする。
さらに、撮像画像上指先座標Pのx座標をPtxとし、y座標をPtyとする。
さらに、操作領域座標系311の原点の、撮像画像座標系300における座標をPtx0とし、そのx座標をPtx0とし、y座標をPty0とする。
撮像画像中の任意の位置の、撮像画像上座標Ptx(Ptx,Pty)と、操作領域内座標A(=(Atx,Aty))との関係は、下記の式(5x)、(5y)で表される。
Figure 2018032055
次に撮像画像中の任意の位置の、操作領域内座標A(=(Atx,Aty))と、ディスプレイ上座標D(=(Dtx,Dty))の関係は、下記の式(6x)、(6y)で表される。
Figure 2018032055
式(5x)と式(6x)とを組合わせ、
式(5y)と式(6y)とを組合わせることで、
撮像画像中の任意の位置の、撮像画像上座標P(=(Ptx,Pty))と、ディスプレイ上座標D(=(Dtx,Dty))との関係を表す、下記の式(7x)、(7y)が得られる。
Figure 2018032055
式(7x)及び(7y)は、撮像画像上指先座標(Ptx,Pty)を、ディスプレイ上指先座標(Dtx,Dty)に変換する式として用いられる。
また、式(7x)及び(7y)の右辺の(Ptx−Ptx0)及び(Pty−Pty0)は、式(5x)及び(5y)で示すように、それぞれ操作領域AM内の座標Atx、Atyに等しく、式(7x)及び(7y)は、式(6x)及び(6y)と等価である。従って、式(7x)及び(7y)は、操作領域内指先座標(Ptx−Ptx0,Pty−Pty0)を、ディスプレイ上指先座標(Dtx、Dty)に変換するための式であるとも言える。
式(7x)及び(7y)で得られるディスプレイ上指先座標(Dtx,Dty)は、ディスプレイ上でのポイティング位置を表すものとして利用される。
式(7x)及び式(7y)の右辺の各変数のうち、LDx、及びLDyは既知であり、予めマッピング情報記憶部18に記憶されている。LAx、LAy、Ptx0、Pty0は、仮想操作面認識部17で算出される。
即ち、仮想操作面認識部17は、ユーザーが仮想操作面BMを指定する動作を行ったと認識すると、上記ように仮想操作面BMに対応する操作領域AMの左上の頂点の座標を仮想操作面座標系の原点の座標(Ptx0,Pty0)とし、原点の座標(Ptx0,Pty0)と、操作領域AMの水平方向のサイズLAx及び垂直方向のサイズLAyとを、マッピング情報MPDとしてマッピング情報記憶部18に送信する。
マッピング情報記憶部18は、仮想操作面認識部17からマッピング情報MPDを受信し、これを記憶する。マッピング情報記憶部18は、既に、これらの値を記憶していた場合、新たに受信した値で上書きする。
マッピング情報記憶部18はまた、記憶しているマッピング情報MPDを削除する。
マッピング情報記憶部18はまた、ポインティング位置認識部19からマッピング情報MPDを要求する制御信号C19aを受信し、これに応じて、マッピング情報MPDをポインティング位置認識部19に送信する。
ポインティング位置認識部19は、動作認識部16から指先座標Pを受信する。ポインティング位置認識部19はまた、マッピング情報記憶部18に対し、マッピング情報MPDを要求する制御信号C19aを送信し、マッピング情報記憶部18からマッピング情報MPDが送信されたら、これを受信する。
ポインティング位置認識部19は、操作領域座標系311とディスプレイ座標系302との対応関係を利用して、カメラ10で撮影した画像上に映る指先が、ディスプレイ上のどこを指しているかを認識する。
ポインティング位置認識部19は、仮想操作面認識部17が認識した仮想操作面BMに対応する操作領域AMの水平方向及び垂直方向の長さと、ディスプレイ23の表示画面231の水平方向の長さと垂直方向の長さとから求められる、水平方向の長さの比LDx/LAx及び垂直方向の長さの比LDy/LAyと、撮像画像座標系300における操作領域AMの原点座標(Ptx0,Pty0)とを利用し、上記した式(7x)及び(7y)で示すように、操作領域内指先座標(Ptx−Ptx0)及び(Pty−Pty0)に対し、それぞれ水平方向の長さの比LDx/LAx及び垂直方向の長さの比LDy/LAyを掛けることで、ディスプレイ23上のポインティング位置のx座標Dtx及びy座標Dtyを求める。
ポインティング位置認識部19はまた、ディスプレイ23上のポインティング位置の座標、即ちディスプレイ上指先座標(Dtx,Dty)を示す情報をUI制御部20に送信する。
UI制御部20は、動作認識部16から「選択」又は「ポインティング」を示す判定結果信号D16dを受信するとともに、ポインティング位置認識部19から、ディスプレイ上指先座標(Dtx,Dty)を受信し、この情報に応じたUIの制御を決定する。
例えば、動作認識部16から「選択」を示す判定結果信号D16dを受信した場合には、UI制御部20は、そのときポインティング位置認識部19から受信しているディスプレイ上指先座標(Dtx,Dty)で表されるディスプレイ23上の位置に表示されている項目が選択されたものと認識する。
そして、UI制御部20は、「選択」されたことを示す信号D20sととともに、選択された項目を表す情報をディスプレイ表示制御部21に対し送信する。例えば、選択前に表示されていた複数の項目に対し、それぞれ番号が割り振られており、ハンドポインティングによって選択された場合に、「選択」されたことを示す信号D20sと、選択された項目に割り振られた番号をディスプレイ表示制御部21に送信する。
一方、動作認識部16から「ポインティング」を示す判定結果信号D16dを受信した場合には、UI制御部20は、そのときポインティング位置認識部19から受信しているディスプレイ上指先座標(Dtx,Dty)で表されるディスプレイ23上の位置がポインティングされているものと認識する。
そして、UI制御部20は、「ポインティング」されていることを示す信号D20pととともに、ディスプレイ表示制御部21にポインティングされている位置を示す座標(Dtx,Dty)を送信する。
ディスプレイ表示制御部21は、UI制御部20から「選択」を意味する信号D20sと、選択された項目に割り振られた番号を受信すると、選択された項目に応じて、ディスプレイ23に表示するための情報を表示情報記憶部22から読み出し、ディスプレイ23に送信する。
ディスプレイ表示制御部21は、UI制御部20から「ポインティング」を意味する信号D20pと、ディスプレイ上指先座標(Dtx,Dty)とを受信すると、受信した座標(Dtx,Dty)で表されるディスプレイ上の位置にポインター(GUIのポインター)を表示するための情報を、表示情報記憶部22から読出し、ディスプレイ23に送信する。
ディスプレイ23は、ディスプレイ表示制御部21から受信した情報を表示する。なお、これらの情報が、他の情報に重畳する形で表示されるようにしても良い。
尚、上記の例では、ユーザーがハンドポインティングによって項目を選択した際、ディスプレイ23上に対応した情報を表示することとしているが、本発明はこのような構成に限定されず、例えば、選択した項目に応じて音を鳴らしたり、表示を点滅させたりしても良い。
次に、ハンドポインティング認識部2によるハンドポインティング認識処理の手順を、図11及び図12を参照して説明する。ここではカメラ10で撮像したフレーム画像DFにユーザーは1名のみが含まれているものとする。複数の人が含まれている場合には、先に指先を検出できた人物についてハンドポインティングを認識することとしても良く、全ての人物について同様にしてハンドポインティングを認識することとしても良い。
まず、特定部位検出部13は、撮像データ記憶部12に新たなフレーム画像DF、即ちハンドポインティング認識処理を受けていないフレーム画像DFが蓄積されているか否かを判定する(ST1)。撮像データ記憶部12に新たなフレーム画像DFを蓄積されていない場合(ST1でNO)には、ステップST1の処理を繰り返す。即ち、特定部位検出部13は、以降のハンドポインティグ認識処理を行わず、新たなフレーム画像DFが蓄積されるまで待機する。
蓄積されていると判定した場合(ST1でYES)、ステップST2に進む。
ステップST1で新たなフレーム画像DFが蓄積されていることを条件として、ステップST2以降の処理を行うこととしているので、ステップST2以降の処理は、新たなフレーム画像DFが撮像データ記憶部12に書き込まれる毎に、即ち、フレーム期間毎に行われる。
ステップST2で、特定部位検出部13は、撮像データ記憶部12から、新たなフレーム画像DFを受信する。
次のステップST3で、特定部位検出部13は、撮像データ記憶部12から受信したフレーム画像DFを解析して指先を検出し、その座標(指先座標)Pの取得を行う。
ステップST3の次のステップST4では、特定部位検出部13は、指先座標Pが検出されたか否かの判定を行う。
特定部位検出部13は、指先座標Pを検出した場合(ST4でYES)には、ステップST5に進む。
ステップST5では、特定部位検出部13は、検出した指先座標Pをトラッキング部14に送信し、ステップST6に進む。
ステップST4で、フレーム画像DFから指先が検出できなかった場合(ST4でNO)には、ステップST1に戻る。即ち、この場合には、以降のハンドポインティング認識処理は行わない。フレーム画像に指先が含まれておらず、検出できなかった場合も同様である。
ステップST6では、トラッキング部14は、トラッキング情報記憶部15に対してトラッキング情報DTRの送信を要求する。この要求は、制御信号C14aを送信することで行われる。
トラッキング情報記憶部15は、トラッキング情報DTRが記憶されていないときに、制御信号C14aを受信した場合には、「トラッキング情報DTRが記憶されていない」ことを示すデータを送り返す。
次にステップST7で、トラッキング部14は、上記の制御信号C14aに対するトラッキング情報記憶部15からの応答に基づいて、トラッキング情報DTRがトラッキング情報記憶部15に記憶されているか否かの判定を行う。
トラッキング情報DTRが記憶されていない場合(ST7でNO)、ステップST11に進む。
ステップST11では、トラッキング部14は、検出した指先座標Pをフレーム番号FNとともにトラッキング情報記憶部15に送信する。トラッキング情報記憶部15は送信された指先座標Pとフレーム番号FNを、トラッキング情報DTRとして記憶する。これにより新たなトラッキング情報DTRの蓄積が開始される。
ステップST7で、トラッキング情報記憶部15にトラッキング情報DTRが記憶されている場合(ST7でYES)、ステップST8に進む。
ステップST8で、トラッキング部14は、特定部位検出部13から送信された指先座標が、前のフレームに同じ特定部位検出部13から送信された指先座標と同じ指先を表すものであるか否かを判定する。この判定は、例えば上記の式(1)、(2a)及び(2b)によって行われる。
トラッキング部14は、今回検出した指先と1つ前のフレーム画像DFで検出した指先が同一のものであると認識した場合(ST8でYES)ステップST12に進む。
ステップST12では、トラッキング部14は、検出した指先座標Pとフレーム番号FNをトラッキング情報記憶部15に送信し、トラッキング情報記憶部15はその指先座標Pとフレーム番号FNを追加記憶する。これにより、今回検出された指先位置が一つ前のフレーム画像で検出された指先位置に対応付けられる。
即ち、トラッキング情報記憶部15において、図4(a)及び(b)に示すとおり、1つ前のフレームまでにトラッキング部14から受信した指先座標P及びフレーム番号FNが記憶されているので、当該すでに記憶されている指先座標Pを保持したまま、その情報に追加する形で指先座標Pとフレーム番号FNを記憶する。
トラッキング部14が、今回のフレーム画像DFで検出した指先と1つ前のフレーム画像DFで検出した指先が同一のものではないと認識した場合(ST8でNO)、ステップST9に進む。
ステップST9では、トラッキング部14はトラッキング情報記憶部15に対し、記憶しているトラッキング情報DTRを削除することを指示する制御信号C14bを送り、トラッキング情報記憶部15はその制御信号C14bに従って、記憶しているトラッキング情報DTRを削除する。
記憶していたトラッキング情報DTRの削除が完了すると、ステップST11に進む。
ステップST11又はステップST12の次にステップST13に進む。
ステップST13では、動作認識部16は、トラッキング情報記憶部15から、トラッキング情報DTRを受信し、トラッキング情報記憶部15に新たな指先座標Pが記憶されているか否かを判定する。
新たな指先座標Pを記憶していると判断した場合(ST13でYES)、ステップST14に進む。
ステップST14では、指先の位置が前フレームにおける位置から、予め定められた距離の範囲内に位置にあるか否かの判定を行う。この判定は、例えば上記の式(3)によって行われる。
予め定められた距離の範囲内にあれば(ST14でYES)、ステップST15に進み、カウント値Ncfを1だけ増加させる。
次にステップST16において、カウント値Ncfが予め定められた値Ncftに達した否かの判定を行う。
予め定められた値Ncftに達した場合(ST16でYES)、ステップST17に進み、動作認識部16は、「選択」を意図した指先の動作であるとの判定を行い、UI制御部20に対して「選択」を意図したものであるとの判定結果を示す判定結果信号D16dを送信するとともに、指先座標Pを、ポインティング位置認識部19に送信する。
次のステップST18では、ポインティング位置認識部19では、送信された判定結果信号D16d及び指先座標Pに応じて表示を切替える。即ち、選択された項目に応じた次の操作画面を表示する。例えば、選択された項目の詳細を表示する。
ステップST16で、予め定められた値Ncftに達していない場合(ST16でNO)、ステップST19に進む。
ステップST19では、動作認識部16は、「選択」を意図した動作でなく、「ポインティング」を意図した動作であるとの判定をする。そして、UI制御部20に対して「ポインティング」を意図したものであるとの判定結果を示す判定結果信号D16dを送信するとともに、指先座標Pをポインティング位置認識部19に送信する。
ステップST14で、前フレームの位置から所定範囲内ではないと判定された場合(ST14でNO)、ステップST19に進む。
ステップST18又はステップST19の次に、ステップST1に戻り、次のフレーム画像DFが書き込まれるのを待つ。
ステップST13で、動作認識部16は、トラッキング情報記憶部15が新たな指先座標Pを記憶していないと判断した場合(ST13でNO)、ステップST1に戻り、次のフレーム画像DFが書き込まれるのを待つ。
次に、仮想操作面認識部17がユーザーの仮想操作面BMを指定する動作を認識し、仮想操作面BMを認識する方法について、図13のフローチャートを参照して説明する。
図13の処理は、予め定められた周期で開始される。
最初にステップST31で、仮想操作面認識部17は、仮想操作面認識部17が制御信号C17aを送信し、これに対してトラッキング情報記憶部15からトラッキング情報DTRが送信されると、仮想操作面認識部17は、トラッキング情報DTRを受信する。
ステップST32以降で、仮想操作面認識部17は、受信したトラッキング情報からユーザーが仮想操作面BMを指定する動作を行ったかどうかを認識する。
まず、仮想操作面認識部17は、ユーザーが指先によって閉曲線201を描いたかどうかを判定する(ST32)。
ユーザーが指先によって閉曲線201を描いたと判定した場合(ST32でYES)、仮想操作面認識部17は、閉曲線201の内側領域を閉領域203と認定する。
次に、仮想操作面認識部17は、閉領域203の面積S203が閾値Th以上であるか否かの判定(ST33)、及び閉領域203を生成するのに要した時間T203が閾値Th以下であるか否かの判定(ST34)を行う。
ステップST33の判定条件、又はステップST34の判定条件のいずれかが満たされない場合(ST33でNO又はST34でNO)、仮想操作面認識部17は、仮想操作面BMの指定は行われていないと判断し、処理を終了する。
ステップST33の判定条件、及びステップST34の判定条件がともに満たされる場合(ST33でYESで、かつST34でYES)、仮想操作面認識部17は、生成された閉領域203が、仮想操作面BMを指定するものであると認識する(ST35)。
次に、仮想操作面認識部17はこの閉領域203(図7(b))に内接する矩形領域204を仮想操作面BMとして認識する(ST36)。
次に、仮想操作面認識部17は、上記のようにして定義された仮想操作面BMに対応する操作領域AMの左上の頂点を操作領域座標系311の原点とし、該原点の、撮像画像座標系300におけるx座標Ptx0及びy座標Pty0と、操作領域AMの水平方向の辺AMxの長さ(水平方向の画素数)LAxと、垂直方向の辺AMyの長さ(垂直方向の画素数)LAyとを、マッピング情報MPDとして、マッピング情報記憶部18に送信する(ST37)。
マッピング情報記憶部18は仮想操作面認識部17からマッピング情報LAx、LAy、Ptx0、Pty0を受信し、それらの値を記憶する。既に、これらの値を記憶していた場合、新たに受信した値で上書きする。
その後、ポインティング位置認識部19は、動作認識部16から指先座標Pを受信すると、マッピング情報記憶部18からマッピング情報LAx、LAy、Ptx0、Pty0を読み出す。これらの値と、既知であるLDx及びLDyを利用し、式(7x)、(7y)を適用することで、ディスプレイ上指先座標(Dtx,Dty)を認識することができる。その後、認識したディスプレイ上指先座標(Dtx,Dty)をUI制御部20に送信する。
尚、ユーザーは仮想操作面BM外(カメラから見て仮想操作面BMの上下又左右に外れた位置)に指先102を位置させる場合がある。これにはハンドポインティングを意図している場合と意図していない場合とがある。仮想操作面BM内に指先102が位置している場合には、下記の式(8x)及び(8y)がともに満たされる。逆に、仮想操作面BM外に指先102が位置している場合、式(8x)及び(8y)の少なくとも一方が不成立となる。従って、式(8x)、(8y)が成立するか否かで指先が仮想操作面BMの内部にあるか否かを判別することが可能である。
Figure 2018032055
式(8x)及び(8y)の少なくとも一方が不成立となる場合、動作認識部16は、指先102は仮想操作面BMの外部に位置しているものと判断し、ユーザーはハンドポインティングを行っていないとみなし、「選択」、「ポインティング」などの動作を認識しない。つまりポインティング位置認識部19はUI制御部20に対し、ディスプレイ上指先座標(Dtx,Dty)を送信しない。
尚、ユーザーにより仮想操作面BMが指定されていない場合、マッピング情報記憶部18にLAx、LAy、Ptx0、Pty0が記憶されていない。この場合、座標系の変換は行えないので次の通りにして、Dtx、Dtyを定める。
特定部位検出部13が最初に指先を検出したときの指先座標(Ptx0,Pty0)を、ディスプレイ23の中心座標(LDx/2,LDy/2)に対応付ける。即ち、特定部位検出部13が最初に指先を検出したときの指先座標(Ptx0,Pty0)に対応するディスプレイ上座標(Dtx0、,Dty0を)を下記の式(9x)及び(9y)のように定める。
Figure 2018032055
これ以降は指先の移動量に応じてディスプレイ上指先座標(Dtx,Dty)を求める。例えば、指先102が撮像画像座標系300において座標(Ptx,Pty)で表される位置に移動した場合、ディスプレイ上指先座標(Dtx,Dty)は、次の式(10x)及び(10y)で求められる。
Figure 2018032055
式(10x)によって求めたDtxがLDyよりも大きい、又は0よりも小さい場合、又は、式(10y)によって求めたDtyがLDyよりも大きい、又は0よりも小さい場合、即ち、下記の式(11x)及び(11y)のいずれかが不成立となる場合がある。
Figure 2018032055
これは、ディスプレイ上指先座標(Dtx,Dty)が、ディスプレイ23の範囲外となる場合である。この場合、ユーザーはハンドポインティングを行っていないものとして、「選択」、「ポインティング」などの動作を認識しない。つまりポインティング位置認識部19はUI制御部20に対し、ディスプレイ上指先座標(Dtx,Dty)を送信しない。
上記したジェスチャー認識装置1においては、ユーザーによるハンドポインティングを実施する仮想操作面BMを指定する動作を認識し、仮想操作面座標系301とディスプレイ座標系302との対応を予め認識することができるため、1台の一般的なカメラによって撮像された画像情報のみでディスプレイ上のポインティング位置であるディスプレイ上指先座標(Dtx,Dty)を認識することができる。
図7(a)及び(b)を参照して説明した方法では、指先で閉曲線201を描くことで、仮想操作面BMを指定する動作を認識するようにしているが、その他の動作によって仮想操作面BMを指定する動作を認識しても良い。例えば、図14のようにある位置120を基点として指先102を矢印121、122、123、124で示すように、上下左右に移動させる動作を認識してもよい。
ジェスチャー認識装置1を、図7(a)及び(b)に示される動作の代わりに、図14に示される動作で仮想操作面BMを指定するように構成しておいても良く、複数用いることとしても良く、図7(a)及び(b)に示される動作で仮想操作面BMを指定するか、図14に示される動作で仮想操作面BMを指定するかを選択可能なように構成しておいても良い。
図7(a)及び(b)を参照して説明した方法では、指先で閉曲線201を描くことで、仮想操作面BMを指定する動作を認識する。しかしながら、正確に同じ位置に戻ることが困難な場合も考えられる。そこで、指先で描かれる軌跡のうちの、任意の点に対する距離が予め定められた閾値以下の点に戻ったか否かで、閉曲線が描かれた否かを判断することとしても良い。そのため、指先で描かれる軌跡上の点相互間の距離D203に対し、閾値Th及びThを設定し、一旦下記の式(12a)が成立した後、下記の式(12b)が成立するか否かの判定を行う。
Figure 2018032055
式(12a)の閾値Thは式(12b)の閾値Thよりも大きく設定される。
式(12a)及び(12b)で用いる距離D203としては、最新のフレームのフレーム画像DF(i)における指先の座標Pt(i)で表される位置と、最新のフレームより前のフレームのフレーム画像DF(i−n)(nは1以上の整数)における指先の座標Pt(i−n)で表される位置との距離が用いられる。
式(12a)及び(12b)が満たされた場合、式(12a)及び(12b)を満たす最新のフレームのフレーム画像DF(i)における指先の座標Pt(i)で表される位置と、最新のフレームより前のフレームのフレーム画像DF(i−n)における指先の座標Pt(i−n)で表される位置とを線分で結ぶことで閉曲線201を完成させ、該閉曲線201で囲まれる領域を閉領域203と認定する。そして、認定された閉領域203に内接する矩形領域204を仮想操作面BMとして認識する。
式(12a)、及び(12b)に加えて式(4a)及び(4b)が全て成立する場合に、ユーザーが仮想操作面BMの指定を意図したと認識してもよい。
図13を参照して説明した方法では、仮想操作面認識部17が、指先の軌跡を常に監視することにより、閉曲線201を描いたことを認識し、仮想操作面BMを指定する動作を認識するようにしている。代わりに、予め定められた特定の動作(鍵となる動き)によってユーザーが明確に仮想操作面BMの指定開始及び終了を指示しても良い。例えば、手又は指を左右に5回振ることで仮想操作面BMの指定モードに入り、その後、ユーザーが閉曲線を描くことで、仮想操作面BMを指定しても良い。指定モードの終了は、閉領域が生成された時点としても良いし、開始時と同様に終了を意味する手又は指の動作を定義し、その動作が行われた時点としても良い。尚、開始を意味する動作(鍵動作)及び終了を意味する動作(鍵動作)はユーザーによって任意に定義することも可能である。このような定義を記憶しておく記憶部を別個に設け、仮想操作面認識部17がトラッキング情報とこの定義を照会することで、開始又は終了を認識することができる。このようにすることで、仮想操作面BMを指定するときの動作をユーザーが選択することができる。上記の別個の記憶部が図15に鍵動作記憶部24として示されている。
図15の構成では、上記のように、予め定められた特定の動作(鍵となる動き)によって仮想操作面BMの指定の開始及び終了を指示している。代わりに、手又は指の動作以外の特定の方法によってユーザーが明確に仮想操作面BMの指定開始及び終了を指示しても良い。例えば、図16に示すように、音声受信部としてのマイク25と、音声認識部26とを付加し、予め定められた特定の音声(鍵となる音声)、例えば、「仮想操作面指定開始」という言葉を発すると、これをマイク25で受信し、音声認識部26で認識して、その認識の結果を仮想操作面認識部17に伝える。仮想操作面認識部17が、音声認識部26の認識の結果を受け、これに応じて仮想操作面BMの指定モードに入り、その後、ユーザーが閉曲線を描くことで、仮想操作面BMを指定しても良い。指定モードの終了は、閉領域203が生成された時点としても良いし、ユーザーの「仮想操作面指定終了」という声を認識した時点としても良い。尚、開始を意味する音声及び終了を意味する音声はユーザーによって任意に定義することも可能である。このようにすることで、仮想操作面BMを指定するときの動作をユーザーが選択することができる。
図7(a)及び(b)に示した方法では、片手の指先によって仮想操作面BMを指定するようにしている。代わりに、両手の指先を用いても良い。例えば図17のように、両手101の指先102を頂点とした矩形領域を認識し、認識した矩形領域を仮想操作面BMとして認識しても良い。この場合、特定部位検出部13が2か所の指先を検出する。ユーザーが仮想操作面BMを指定しているかどうかの判定は、2箇所の指先102の位置関係(撮像画像中の位置関係)が所定の条件を満たすか否かに基づいて行っても良い。或いは、2箇所の指先102の位置関係が所定の条件を満たす状態が所定の時間(静止時間)以上続いたか否かに基づいて、ユーザーが仮想操作面BMを指定しているかどうかの判定を行っても良い。位置関係としては、2箇所の指先102が予め定められた距離以上離れているか否かを判定に用いることもできる。また、2箇所の指先が撮像画像の左上の予め定められた範囲内と右下の予め定められた範囲内とに存在するか否かを判定に用いることができる。このようにすることで、仮想操作面BMを指定するときの動作をユーザーが選択することができる。また、図7(a)及び(b)に示すように指先102を動かして閉領域203を形成する場合には、予め定められた大きさ以上の閉領域203を生成するため、指先102を大きく移動する必要があったが、図17に示す方法を用いれば、そのように、大きく移動する必要が無いので、ユーザーの負担が軽くなる。
実施の形態2.
実施の形態2のジェスチャー認識装置1は、ユーザーにより指定された仮想操作面BMをディスプレイ23のアスペクト比に一致させるように補正した上で認識するもので、仮想操作面BM上での指先の位置と、ディスプレイ23上での指先の位置をより正確に対応付けることが可能である。アスペクト比を対応させるための処理は、操作領域AMのアスペクト比をディスプレイ23のアスペクト比に合わせることで行われる。仮想操作面BMがカメラ10の光軸10aに対して垂直であれば、仮想操作面BMのアスペクト比は操作領域AMのアスペクト比に等しい。従って、操作領域AMのアスペクト比をディスプレイのアスペクト比に一致させることで、仮想操作面BMのアスペクト比もディスプレイのアスペクト比に一致させることができる。
図18は、実施の形態2に係るジェスチャー認識装置1における、ハンドポインティング認識処理に関係する構成を示すブロック図である。図18において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号を付す。図18に示されるジェスチャー認識装置1は、仮想操作面補正部27を備える点が、実施の形態1に係るジェスチャー認識装置1と異なる。
まず、図18に示される構成要素の動作のうち、実施の形態1と異なる点のみ説明する。
仮想操作面認識部17は、トラッキング情報記憶部15に対し、トラッキング情報DTRを要求する制御信号C17aを送信し、トラッキング情報記憶部15からトラッキング情報DTRが送信されたら、これを受信する。また、マッピング情報MPDを仮想操作面補正部27に送信する。
仮想操作面補正部27は、仮想操作面認識部17からマッピング情報MPDを受信し、受信したマッピング情報MPDで示される操作領域AMのアスペクト比ASが、ディスプレイ23のアスペクト比ASと一致するか否かを判定し、一致しない場合には、一致するように、操作領域AMを補正して、補正された操作領域と、ディスプレイとの対応関係を示すマッピング情報(補正マッピング情報)MPDcを生成し、補正マッピング情報MPDcをマッピング情報記憶部18に送信する。仮想操作面補正部27はこのように、操作領域AMのアスペクト比を補正することで、仮想操作面BMのアスペクト比を補正する。
マッピング情報記憶部18は、仮想操作面補正部27から補正マッピング情報MPDcを受信して記憶する。すでに、補正マッピング情報が記憶されている場合には、新しく受信した補正マッピング情報で上書きする。
マッピング情報記憶部18は、ポインティング位置認識部19から補正マッピング情報MPDcを要求する制御信号C19aを受信し、これに応じて補正マッピング情報MPDcを送信する。
ポインティング位置認識部19は、動作認識部16から指先座標Pを受信する。
ポインティング位置認識部19はまた、マッピング情報記憶部18に対し、補正マッピング情報MPDcを要求する制御信号C19aを送信し、マッピング情報記憶部18から補正マッピング情報MPDcが送信されたら、これを受信する。
以下、仮想操作面補正部27についてさらに詳しく説明する。
仮想操作面補正部27は、仮想操作面認識部17からマッピング情報MPDを受信すると、マッピング情報MPDの補正が必要かどうかを判定する。具体的には、仮想操作面認識部17によって認識された仮想操作面BM(図19(a))に対応する操作領域AM(図19(b))アスペクト比(縦横サイズの比)ASが、ディスプレイ23(図19(c))アスペクト比ASと一致するかどうかを判定する。
操作領域AMのアスペクト比ASは、下記の式(13)で表されるように、操作領域AMの水平方向の辺AMxの長さ(水平方向の画素数)LAxを垂直方向の辺AMyの長さ(垂直方向の画素数)LAyで割ることで得られる。
Figure 2018032055
操作領域AMの辺の長さLAx及びLAyとしては、仮想操作面認識部17により算出されたものが用いられる。
仮想操作面BMのアスペクト比ASは、下記の式(14)で表されるように、仮想操作面BMの水平方向の辺BMxの長さLBxを垂直方向の辺BMyの長さLByで割ることで得られる。
Figure 2018032055
上記のように、仮想操作面BMがカメラ10の光軸10aに垂直であれば、仮想操作面BMのアスペクト比ASは、操作領域AMのアスペクト比ASと同じであり、従って、操作領域AMのアスペクト比ASが補正されれば仮想操作面BMのアスペクト比ASも同じ値に補正される。
ディスプレイ23のアスペクト比ASは、下記の式(15)で表されるように、ディスプレイ23の水平方向の辺231xの長さ(水平方向の画素数)LDxを垂直方向の辺231yの長さ(垂直方向の画素数)LDyで割ることで得られる。
Figure 2018032055
ディスプレイ23の辺の長さLDx及びLDyかは既知であり、予めマッピング情報記憶部18に記憶されている。また、式(15)で求められるアスペクト比を前もって計算し、マッピング情報記憶部18に記憶しておくことしても良い。
算出されたアスペクト比ASがアスペクト比ASに一致すると判定された場合、仮想操作面補正部27は仮想操作面BMの補正を行わず、仮想操作面認識部17から受信したマッピング情報MPDをそのまま補正マッピング情報MPDcとしてマッピング情報記憶部18に送信する。
算出されたアスペクト比ASがアスペクト比ASに一致しないと判定された場合、操作領域AMの補正を行う。操作領域AMの補正は、操作領域AMを水平方向(x軸方向)に拡大又は縮小することで行われる。
操作領域AMを水平方向に拡大又は縮小することでアスペクト比を補正する場合、拡大又は縮小のために用いられる係数は、下記の式(16)で求められる。
Figure 2018032055
仮想操作面補正部27は、上記の式(16)で求められた係数aを用いて、操作領域AMを水平方向に拡大又は縮小する。
水平方向に拡大する処理は、図19(b)に示すように、補正前の操作領域AMbに領域215を付加する処理である。この場合、補正後の操作領域AMcは補正前の操作領域AMbに領域215を加えた領域である。このように、操作領域AMを補正することで、仮想操作面BMも同様に補正される。即ち、図19(a)に示されるように、補正前の仮想操作面BMbに領域205が付加されて、補正後の仮想操作面BMcとなる。
以上、操作領域AMを水平方向に拡大又は縮小する場合を説明したが、操作領域AMを垂直方向に拡大又は縮小することとしても良い。
以上のように、実施の形態2によれば、実施の形態1と同様に、ユーザーによるハンドポインティングを実施する仮想操作面BMを指定する動作を認識し、操作領域座標系311とディスプレイ座標系302との対応を予め認識することができるため、1台の一般的なカメラによって撮像された画像情報のみでディスプレイ上のポインティング位置であるディスプレイ上指先座標(Dtx,Dty)を認識することができる。
それに加えて、実施の形態2によれば、ユーザーにより指定された仮想操作面BMをディスプレイ23のアスペクト比に合わせて補正した上で認識できるので、仮想操作面BM上での指先の位置と、ディスプレイ23上での指先の位置をより正確に対応付けることが可能である。
アスペクト比が一致しない場合、例えばx軸方向の指先の移動に対してはディスプレイ23上の指先座標(Dtx,Dty)が大きく変化するが、同じだけy軸方向に指先を移動してもディスプレイ23上ではあまり指先座標(Dtx,Dty)が変化しないという問題が起こりうる。
実施の形態2のように構成すれば、この問題を解決することができる。
図18及び図19(a)〜(c)を参照して説明した構成では、仮想操作面BMのアスペクト比を変更している。代わりに、ユーザーが仮想操作面BMを指定する時点で、アスペクト比をディスプレイ23のアスペクト比に一致させるようにすることも可能である。例えば本ジェスチャー認識装置1において、図20(a)〜図21(b)、及び図22に示すように、ユーザーが目103でディスプレイ23を見て、ディスプレイ23の周囲に沿うように指先を移動させるようにしても良い。
例えば、最初に図20(a)に示すように、ディスプレイ23の表示画面231の左上隅2311を指さし(図示のように目103で見たときに指先102が左上隅2311に重なるようにし)、そのときの指先の位置(撮像画像上の位置)を仮想操作面BMの左上隅BM1とする。
次に図20(b)に示すように、ディスプレイ23の表示画面231の左下隅2312を指さし(図示のように目103で見たときに指先102が左下隅2312に重なるようにし)、そのときの指先の位置を仮想操作面BMの左下隅BM2とする。
次に図21(a)に示すように、ディスプレイ23の表示画面231の右下隅2313を指さし(図示のように目103で見たときに指先102が右下隅2313に重なるようにし)、そのときの指先の位置を仮想操作面BMの右下隅BM3とする。
最後に図21(b)に示すように、ディスプレイ23の表示画面231の右上隅2314を指さし(図示のように目103で見たときに指先102が右上隅2314に重なるようにし)、そのときの指先の位置を仮想操作面BMの右上隅BM4とする。
以上の処理で図22に示すように、仮想操作面BMの4隅BM1〜BM4の位置を定義することができ、4隅BM1〜BM4を定義することで仮想操作面BMが定義される。
このようにユーザーの指先の移動によって指定した仮想操作面BMにアスペクト比は、ディスプレイ23のアスペクト比と一致する。
上記のように、ユーザーにディスプレイ23の周囲に沿って指先を移動させるために、仮想操作面の認識処理の開始時に、「ディスプレイの周囲に沿って指先を移動させて下さい」と言ったメッセージをディスプレイ23に表示するようにしても良く、同じ内容の音声を、図示しない音声発生器で発生させても良い。要するに、ユーザーに、自身から見えているディスプレイの周囲に沿って指先を移動させるよう案内すればよい。
図18及び図19(a)〜(c)を参照して説明した構成では、では、実施の形態1と同様に、3次元空間中で、全体が閉領域203の内部に位置し、かつ面積が最大の矩形の領域を仮想操作面BMとして形成した上で、アスペクト比が、ディスプレイのアスペクト比と一致するように補正をしているが、全体が閉領域203の内部に位置し、アスペクト比がディスプレイのアスペクト比に一致し、かつ、面積が最大の矩形の領域を、仮想操作面BMとして形成することとしても良い。このようにして仮想操作面BMを形成すれば、仮想操作面の補正を省略することができる。
実施の形態3.
実施の形態3のジェスチャー認識装置1は、仮想操作面BMの設定後のユーザーの移動に応じて、指定された仮想操作面BMの位置を補正するもので、ユーザーが移動した場合にも、ユーザーが仮想操作面BMを再設定する必要が無く、且つ移動前と同じ位置感覚でポインティング機能を利用できるようにしたものである。
まず、本実施の形態3の要点を、図23並びに図24(a)及び(b)を用いて説明する。実施の形態3は、図23に示すように、ユーザーが仮想操作面BMを指定した後に移動した場合にも、ユーザーの移動量に合わせて指定済みの仮想操作面BMを移動させるものである。ユーザーの移動は、ユーザーの特定の部位、例えば顔の、撮像画像上における移動に基づいて検出する。図23には、ユーザーの顔が符号104で示され、図24(a)及び(b)には撮像画像上の顔が符号114で示されている。
図25は、実施の形態3に係るジェスチャー認識装置1の構成を示すブロック図である。図25において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号を付す。図25に示されるジェスチャー認識装置1は、顔検出部28及び仮想操作面補正部29を備える点が、実施の形態1に係るジェスチャー認識装置1と異なる。
まず、各構成部の動作について実施の形態1と異なる点を中心として説明する。
撮像データ記憶部12は、撮像制御部11からフレーム画像DFを受信して、フレーム番号FNとともに蓄積する。撮像データ記憶部12はまた、特定部位検出部13にフレーム画像DFとフレーム番号FNとを送信する。これに加えて、撮像データ記憶部12は、顔検出部28にフレーム画像DFを送信する。
マッピング情報記憶部18はさらに、仮想操作面補正部29からマッピング情報を要求する制御信号C29aを受信し、これに応じてマッピング情報MPDを仮想操作面補正部29に送信する。マッピング情報記憶部18はまた、仮想操作面補正部29から補正マッピング情報MPDを受信し、これを記憶する。
顔検出部28は、撮像データ記憶部12からフレーム画像DFを受信し、フレーム画像DFを解析して、顔114を検出する。フレーム画像DF中の顔114の例が図24(a)及び(b)に示されている。フレーム画像DFにおける顔114はユーザーの顔104に対応したものである。顔の検出は、一般に用いられている方法のいずれかで行い得る。
顔検出部28は、検出した顔の位置を示す座標(以後「顔座標」と呼ぶ)Pを、フレーム番号FNとともに、仮想操作面補正部29に送信する。図24(a)及び図24(b)は、相前後するフレーム画像DFの例であり、これらのフレーム画像DFにおける顔114の位置を示す座標が符号Pf(i−1)、Pf(i)で示されている。図示の例では、あるフレーム(前フレーム)において図24(a)に示すように、座標Pf(i−1)で示される位置にあった顔が、次のフレーム(現フレーム)では、図24(b)に示すように、座標Pf(i)で示される位置に移動している。座標Pf(i)のx座標及びy座標をPf(i)x及びPf(i)yで表し、座標Pf(i−1)のx座標及びy座標をPf(i−1)x及びPf(i−1)yで表す。
仮想操作面補正部29は、顔検出部28から顔座標Pを受信し、また、マッピング情報記憶部18からマッピング情報MPDを受信し、補正マッピング情報MPDdをマッピング情報記憶部18に送信する。
仮想操作面補正部29はまた、顔検出部28から供給された、各フレーム画像DFにおける顔座標Pを記憶する。この顔座標Pは顔が検出されるたびに更新されるものとする。
次に各構成部の作用について説明する。尚、ここでは本実施の形態3において重要な要素である、マッピング情報の補正を中心に説明する。
まず、顔検出部28は、撮像データ記憶部12からフレーム画像DFを受信し、このフレーム画像DFに対して顔検出処理を行う。顔検出が成功すると、顔検出部28は検出した顔の位置を示す顔座標Pを仮想操作面補正部29に送信する。
仮想操作面補正部29は、顔検出部28から受信した顔座標Pf(i)(=(Pf(i)x,Pf(i)y))と1つ前のフレーム画像DFにおける顔座標Pf(i−1)(=(Pf(i−1)x,Pf(i−1)y))とを比較し、x軸方向及びy軸方向の移動量MOV(i)x及びMOV(i)yを求める。移動量MOV(i)x及びMOV(i)yは下記の式(17x)及び(17y)で求められる。
Figure 2018032055
仮想操作面補正部29は、その後、マッピング情報記憶部18からマッピング情報MPDを受信する。受信したマッピング情報MPDのうち、操作領域座標系311の原点座標、即ち、操作領域座標系311の原点の、撮像画像座標系300におけるx座標Pt(i)x0、及びy座標Pt(i)y0を読み出し、これらの値に先程算出した顔の移動量MOV(i)x、MOV(i)yを加算する。加算の結果をPt(i+1)x0、及びPt(i+1)y0で表すとすると、この加算は下記の式(18x)及び(18y)で表される。
Figure 2018032055
仮想操作面補正部29は、上記の加算の結果を補正後の原点座標とし、補正後の原点座標を示す補正マッピング情報MPDdをマッピング情報記憶部18に送信する。
マッピング情報記憶部18は送信された補正マッピング情報MPDdを新たなマッピング情報MPDとして記憶する。即ち、記憶されていたマッピング情報を新たな補正マッピング情報で上書きする。
また、仮想操作面補正部29は、現在のフレーム画像における顔の位置を示す顔座標(Pf(i)x0,Pf(i)y0)を記憶する。この際、1つ前のフレーム画像DFにおける顔座標を現在のフレーム画像における顔座標で上書きする形で記憶する。
以上のように、操作領域AMの補正を行うことで、仮想操作面BMも補正される。
以上のように実施の形態3によれば、実施の形態1と同様に、ユーザーによるハンドポインティングを実施する仮想操作面BMを指定する動作を認識し、操作領域座標系311とディスプレイ座標系302との対応を予め認識することができるため、1台の一般的なカメラによって撮像された画像情報のみでディスプレイ上のポインティング位置であるディスプレイ上指先座標(Dtx,Dty)を認識することができる。
それに加えて、実施の形態3によれば、仮想操作面BMを指定した後でユーザーが移動した場合でも、ユーザーの移動に応じて、指定された仮想操作面BMの位置を補正することができる。このため、ユーザーは仮想操作面BMを再設定する必要が無く、且つ移動前と同じ位置感覚でポインティング機能を利用できる。
ユーザーが、座る位置を変えるなど、意識的に大きく移動する場合に限らず、姿勢の変化は常に起こりえる事象である。実施の形態3によればこのような場合にも仮想操作面BMを最適な位置に補正することが可能となる。
実施の形態4.
実施の形態4のジェスチャー認識装置1は、仮想操作面BMの指定後、ディスプレイ23上に、カメラ10による撮像画像に、仮想操作面BMの位置を示すマークを重畳させたフレーム画像400を本来の画像402に対し子画面として、或いは重畳して表示する。以下、仮想操作面BMの位置を示すマークを重畳させたフレーム画像400を確認用画像と呼ぶ。本来の画像402とは、ジェスチャー認識装置1がテレビ受信機の一部を成すものである場合、放送番組の画像を意味する。
確認用画像400を表示すれば、ユーザーは設定した仮想操作面BMをディスプレイ23上で確認しながらポインティングを行うことができるので、常に仮想操作面BM内でポインティングを行える。また仮想操作面BMが自分の意図どおりに指定できたかどうかを確認することもできる。
図26は、実施の形態4のジェスチャー認識装置1における表示の一例を示す。このように本実施の形態4では、確認用画像400がディスプレイ23上に、本来の画像402に対し、子画面として、或いは重畳して表示される。
また、図26に示されるように、この確認用画像400にはユーザーが設定した仮想操作面BMの輪郭を示す情報(図示の例では点線の枠)401が位置を示すマークとして重畳して表示される。
図27は、図26の表示を行うためのジェスチャー認識装置の構成を示す。図27に示されるジェスチャー認識装置は、テレビ受信機の一部を成すものである。テレビ受信機は、ジェスチャー認識装置のほか、放送受信部3を備えている。図27のジェスチャー認識装置は、概して図2のジェスチャー認識装置と同じであるが、確認用画像生成部30を備えており、図2のディスプレイ表示制御部21の代わりに、ディスプレイ表示制御部21bを備えている。
確認用画像生成部30は、撮像データ記憶部12からフレーム画像DFを受信し、仮想操作面認識部17から仮想操作面BMに対応する操作領域AMを示す情報DAMを受信する。
確認用画像生成部30は、仮想操作面BMに対応する操作領域AMを示す情報DAMから仮想操作面BMの輪郭を示す画像(図26の点線の枠401)を生成し、フレーム画像DFに重畳して、確認用画像D30を生成して、ディスプレイ表示制御部21bに供給する。
ディスプレイ表示制御部21bは表示情報記憶部22からの表示情報を受信するのみならず、確認用画像生成部30から確認用画像を受信し、放送受信部3から放送映像を受信する。
ディスプレイ表示制御部21bは、通常は、放送受信部3からの放送映像のみをディスプレイ23に表示させる。
ディスプレイ表示制御部21bはまた、確認用画像生成部30からの確認用画像D30を、放送映像に合成し、合成により得られた映像をディスプレイ23に供給して、ディスプレイ23に図26に示されるような映像を表示させることができる。合成に当たり、確認用画像D30を、放送映像に対して子画面として組み込んでも良く、放送映像に重畳しても良い。
ディスプレイ表示制御部21bはまた、実施の形態1と同様に、表示情報記憶部22からの表示情報を放送映像の代わりに、又は放送映像に重畳して表示させることもできる。
ディスプレイ表示制御部21bはさらに、表示情報記憶部22からの表示情報と、確認用画像生成部30からの確認用画像の双方を、放送映像に合成して、表示させることもできる。
どのようなモードで表示を行わせるかは、図示しない制御部からの制御信号によって制御される。
なお、図26では、仮想操作面BMの輪郭を示す点線の枠401がディスプレイに表示されるが、枠以外の形で仮想操作面BMの位置を示すようにしても良い。
実施の形態4によれば、実施の形態1と同様に、ユーザーによるハンドポインティングを実施する仮想操作面BMを指定する動作を認識し、操作領域座標系311とディスプレイ座標系302との対応を予め認識することができるため、1台の一般的なカメラによって撮像された画像情報のみでディスプレイ上のポインティング位置であるディスプレイ上指先座標(Dtx,Dty)を認識することができる。
それに加えて、実施の形態4によれば、ユーザーは自身の設定した仮想操作面BMの位置をディスプレイ上で確認することができる。従って、仮想操作面BMが自分の意図どおりに指定できたかどうかを確認することができる。また、仮想操作面BMをディスプレイ上で確認しながらポインティングを行うことができるので、ポインティングのための動作の際に、指先(或いは他の特定部位)が、仮想操作面BMから出てしまうのを防ぐことができる。例えば、指先(或いは他の特定部位)の現在の位置に対し、仮想操作面BMがもう少し右であるということをユーザーに対し適切なタイミングで知らせることができる。
仮想操作面BMはユーザーの周囲に存在する空間に指定されるものであるが、ユーザーの目にはっきり見えるものではない。そのため、一度仮想操作面BMを指定した後は、ユーザーは明確にどの位置でハンドポインティングを行えばいいか分からないという問題が存在する。実施の形態4におけるジェスチャー認識装置1によれば、このような問題を解決することができる。
なお、上記の確認用画像400は常にディスプレイ23上に表示していても良いが、仮想操作面BMを指定したタイミングで表示しても良い。このようにすることで、仮想操作面BMが意図したように形成されたことを確認することができる。それとともに、仮想操作面BMを指定したタイミング以外のときは、確認用画像400によってディスプレイ23に表示されている本来の情報402が見えづらくなるのを防ぐことができる。
また、上記の確認用画像400は常時は非表示としておいて、ユーザーの指先102が仮想操作面BM内又はその周辺に位置することが検出されたとき(例えば、予め定められた時間以上継続して仮想操作面BM又はその周辺に位置することが検出されたとき)に表示するようにしてもよい。このようにすることで、ユーザーがハンドポインティングを行うときは、仮想操作面BMをディスプレイ23に表示することで、ポイティングのための動作を確実に仮想操作面BM内で行えるようにすることができる。それとともに、ハンドポインティングを行わないときは、確認用画像400によってディスプレイ23に表示されている本来の情報402が見えづらくなるのを防ぐことができる。
以上本発明をジェスチャー認識装置として説明したが、上記のジェスチャー認識装置で実施されるジェスチャー認識方法もまた本発明の一部を成す。また、上記のジェスチャー認識装置の構成の一部又は全部、上記のジェスチャー認識方法で行われる処理の一部又は全部はプロセッサを備えたコンピュータに実行させることができる。従って、コンピュータに上記のジェスチャー認識装置の構成の一部又は全部、上記のジェスチャー認識方法で行われる処理の一部又は全部を実行させるためのプログラム、及び該プログラムを記録した、コンピュータで読み取り可能な記録媒体もまた本発明の一部を成す。
1 ジェスチャー認識装置、 2 ハンドポインティング認識部、 3 放送受信部、 10 カメラ、 11 撮像制御部、 12 撮像データ記憶部、 13 特定部位検出部、 14 トラッキング部、 15 トラッキング情報記憶部、 16 動作認識部、 17 仮想操作面認識部、 18 マッピング情報記憶部、 19 ポインティング位置認識部、 20 UI制御部、 21、21b ディスプレイ表示制御部、 22 表示情報記憶部、 23 ディスプレイ、 24 鍵動作記憶部、 25 マイク、 26 音声認識部、 27 仮想操作面補正部、 28 顔検出部、 29 仮想操作面補正部、 30 確認用画像生成部、 101 手、 102 指先、 103 目、 104 顔、 114 顔、 201 閉曲線、 202 交点、 203 閉領域、 211 閉曲線、 212 交点、 213 閉領域、 231 表示画面、 231x ディスプレイの水平方向の辺の長さ、 231y ディスプレイの垂直方向の辺の長さ、 300 撮像画像座標系、 301 仮想操作面座標系、 302 ディスプレイ座標系、 311 操作領域座標系、 AM 操作領域、 AMx 操作領域の水平方向の辺の長さ、 AMy 操作領域の垂直方向の辺の長さ、 A 操作領域内指先座標、 BM、BMb、BMc 仮想操作面、 DF フレーム画像、 D ディスプレイ上指先座標、 DTR、DTRd トラッキング情報、 FN フレーム番号、 P 指先座標。

Claims (24)

  1. 撮像により順次得られる複数のフレームの撮像画像の各々から手の特定部位を検出する特定部位検出部と、
    前記特定部位検出部で検出した前記特定部位を複数のフレームに亘りトラッキングするトラッキング部と、
    前記トラッキング部によるトラッキングにより得られた特定部位の位置の変化を示すトラッキング情報を記憶するトラッキング情報記憶部と、
    前記トラッキング情報記憶部に記憶されている前記トラッキング情報から、前記特定部位がディスプレイ上の特定の項目の選択を意図しているのか前記ディスプレイ上の特定の位置に対するポインティングを意図しているのかを判定する動作認識部と
    を有するジェスチャー認識装置。
  2. 前記トラッキング部は、あるフレームの撮像画像から検出された前記特定部位の、当該撮像画像中の位置と、次のフレームの撮像画像から検出された前記特定部位の、当該撮像画像中の位置との間隔が、予め定められた値未満である場合に、当該2つのフレームの撮像画像において検出された前記特定の部位が、同一の特定部位であると判定すること
    を特徴とする請求項1に記載のジェスチャー認識装置。
  3. 前記動作認識部は、前記特定部位が予め定められた時間以上同じところに留まり続けた場合、その時点でポインティングされている位置に表示されている前記ディスプレイ上の項目が選択されていると判定すること
    を特徴とする請求項1又は2に記載のジェスチャー認識装置。
  4. 前記動作認識部は、あるフレームの撮像画像における前記特定部位の位置が、1つの前のフレームの撮像画像における特定部位の位置を中心とした、予め定められた距離の範囲内にあれば、同じところに留まり続けていると判定する
    ことを特徴とする請求項3に記載のジェスチャー認識装置。
  5. 前記トラッキング情報から、仮想操作面の指定意図を認識し、該認識の結果に基づいて前記仮想操作面を定義する仮想操作面認識部と、
    前記定義された前記仮想操作面に対応する撮像画像中の操作領域の座標系と前記ディスプレイの座標系の対応関係を示すマッピング情報を記憶するマッピング情報記憶部と、
    前記対応関係を利用して、前記撮像画像中に検出された前記特定部位に対応する、前記ディスプレイ上の位置を、ポインティング位置として認識するポインティング位置認識部と
    をさらに有することを特徴とする請求項1から4のいずれか1項に記載のジェスチャー認識装置。
  6. 前記仮想操作面認識部は、定義された前記仮想操作面に対応する前記操作領域の大きさ及び前記撮像画像中の位置に基づいて、前記マッピング情報の少なくとも一部を生成して、前記マッピング情報記憶部に記憶させることを特徴とする請求項5に記載のジェスチャー認識装置。
  7. 前記仮想操作面認識部は、前記特定部位の動きによって閉領域が生成された時、その閉領域に内接する矩形領域を前記仮想操作面として認識する
    ことを特徴とする請求項5又は6に記載のジェスチャー認識装置。
  8. 前記仮想操作面認識部は、前記特定部位の動きによって生成された前記閉領域に対応する前記撮像画像中の対応する部分の面積が、予め定められた値以上である場合に、前記仮想操作面の指定の意図があったものと認識することを特徴とする請求項7に記載のジェスチャー認識装置。
  9. 前記仮想操作面認識部は、前記特定部位の動きによって前記閉領域を生成するのに要した時間が予め定められた値以下である場合に、前記仮想操作面の指定の意図があったものと認識することを特徴とする請求項7又は8に記載のジェスチャー認識装置。
  10. 前記ポインティング位置認識部は、
    前記撮像画像中の前記特定部位の位置を表す、前記操作領域の座標系の水平方向の座標に、前記操作領域の水平方向の長さに対する前記ディスプレイの水平方向の長さの比を掛けることで得られる水平方向の座標と、
    前記撮像画像中の前記特定部位の位置を表す、前記操作領域の座標系の垂直方向の座標に、前記操作領域の垂直方向の長さに対する前記ディスプレイの垂直方向の長さの比を掛けることで得られる垂直方向の座標とを、
    前記ポインティング位置を表す座標として認識する
    ことを特徴とする請求項5から9のいずれか1項に記載のジェスチャー認識装置。
  11. 前記仮想操作面認識部は、前記特定部位が予め定められた特定の動きをした場合に、それ以降の前記特定部位の動きは前記仮想操作面の指定を意図するものであると認識することを特徴とする請求項5から10のいずれか1項に記載のジェスチャー認識装置。
  12. 音声を受信する音声受信部と、
    前記音声受信部で受信した音声を認識する音声認識部をさらに有し、
    前記音声認識部は、予め定められた特定の音声が認識されたときに、そのことを前記仮想操作面認識部に通知し、
    前記仮想操作面認識部は、前記音声認識部からの通知に応じて、それ以降の前記特定部位の動きは前記仮想操作面の指定を意図するものであると認識する
    ことを特徴とする請求項5から10のいずれか1項記載のジェスチャー認識装置。
  13. 前記仮想操作面認識部は、両手の前記特定部位を検出し、当該両手の前記特定部位の位置関係に基づいて前記仮想操作面を定義することを特徴とする請求項5から12のいずれか1項に記載のジェスチャー認識装置。
  14. 前記仮想操作面認識部は、両手の前記特定部位の位置関係に基づいて前記仮想操作面の指定を意図するものであるか否かを判定することを特徴とする請求項13に記載のジェスチャー認識装置。
  15. 前記仮想操作面認識部は、前記両手の前記特定部位の位置関係が所定の条件を満たす状態が予め定められた時間以降続いたか否に基づいて前記仮想操作面の指定を意図するものであるか否かを判定する
    ことを特徴とする請求項14に記載のジェスチャー認識装置。
  16. 前記仮想操作面認識部が認識した前記仮想操作面に対応する前記操作領域のアスペクト比が、前記ディスプレイのアスペクト比と一致するように、前記操作領域を補正することで、前記仮想操作面を補正する仮想操作面補正部をさらに有することを特徴とする請求項5から15のいずれか1項に記載のジェスチャー認識装置。
  17. 前記仮想操作面認識部が、ユーザーに対し、自身の目で見て前記ディスプレイの周囲に沿うように前記特定部位を移動するよう案内し、該案内に応じてなされた前記特定部位の移動によって生成された閉領域を前記仮想操作面と定義することを特徴とする請求項5から15のいずれか1項に記載のジェスチャー認識装置。
  18. 前記撮像画像の各々における顔の位置を検出する顔検出部と、
    前記顔検出部によって検出された顔の位置の移動量に応じて前記仮想操作面の位置を補正する仮想操作面補正部をさらに有することを特徴とする請求項5から17のいずれか1項に記載のジェスチャー認識装置。
  19. 前記仮想操作面が定義された際、前記仮想操作面の位置を示す確認用画像を生成する確認用画像生成部と、
    前記確認用画像を、前記ディスプレイ上に表示させるディスプレイ表示制御部とを
    さらに有することを特徴とする請求項5から18のいずれか1項に記載のジェスチャー認識装置。
  20. 前記ディスプレイ表示制御部は、前記確認用画像を、前記ディスプレイ上に表示される別の画像に対し子画面として、又は重畳して表示させることを特徴とする請求項19に記載のジェスチャー認識装置。
  21. 撮像により順次得られる複数のフレームの撮像画像の各々から手の特定部位を検出する特定部位検出ステップと、
    前記特定部位検出ステップで検出した前記特定部位を複数のフレームに亘りトラッキングするトラッキングステップと、
    前記トラッキングステップによるトラッキングにより得られた特定部位の位置の変化を示すトラッキング情報をトラッキング情報記憶部に記憶させるトラッキング情報記憶ステップと、
    前記トラッキング情報記憶部に記憶されている前記トラッキング情報から、前記特定部位がディスプレイ上の特定の項目の選択を意図しているのか前記ディスプレイ上の特定の位置に対するポインティングを意図しているのかを判定する動作認識ステップと
    を有するジェスチャー認識方法。
  22. 前記トラッキング情報から、仮想操作面の指定意図を認識し、該認識の結果に基づいて前記仮想操作面を定義する仮想操作面認識ステップと、
    前記定義された前記仮想操作面に対応する撮像画像中の操作領域の座標系と前記ディスプレイの座標系の対応関係を示すマッピング情報をマッピング情報記憶部に記憶させるマッピング情報記憶ステップと、
    前記対応関係を利用して、前記撮像画像中に検出された前記特定部位に対応する、前記ディスプレイ上の位置を、ポインティング位置として認識するポインティング位置認識ステップと
    をさらに有することを特徴とする請求項21に記載のジェスチャー認識方法。
  23. 請求項21又は22に記載のジェスチャー認識方法の各ステップの処理をコンピュータに実行させるためのプログラム。
  24. 請求項23に記載のプログラムを記録した、コンピュータで読み取可能な記録媒体。
JP2015003951A 2015-01-13 2015-01-13 ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体 Pending JP2018032055A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015003951A JP2018032055A (ja) 2015-01-13 2015-01-13 ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体
PCT/JP2015/079806 WO2016113969A1 (ja) 2015-01-13 2015-10-22 ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015003951A JP2018032055A (ja) 2015-01-13 2015-01-13 ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2018032055A true JP2018032055A (ja) 2018-03-01

Family

ID=56405526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015003951A Pending JP2018032055A (ja) 2015-01-13 2015-01-13 ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体

Country Status (2)

Country Link
JP (1) JP2018032055A (ja)
WO (1) WO2016113969A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128917A (ja) * 2017-02-09 2018-08-16 株式会社Nttドコモ 入力システム
CN111652182A (zh) * 2020-06-17 2020-09-11 广东小天才科技有限公司 一种悬空手势识别的方法、装置、电子设备和存储介质
WO2021162119A1 (ja) * 2020-02-14 2021-08-19 知能技術株式会社 端末操作に用いられる学習済みモデル生成方法、学習済みモデル、プログラム、端末操作システム、および、端末操作プログラム
JP7240766B1 (ja) 2021-11-11 2023-03-16 Trouvez合同会社 非接触入力装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351089B2 (ja) 2019-03-18 2023-09-27 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7331462B2 (ja) * 2019-05-24 2023-08-23 京セラドキュメントソリューションズ株式会社 ロボットシステム、ロボット制御方法及び電子装置
CN111240482B (zh) * 2020-01-10 2023-06-30 北京字节跳动网络技术有限公司 一种特效展示方法及装置
CN114327229A (zh) * 2020-09-25 2022-04-12 宏碁股份有限公司 基于影像的手势控制方法与使用此方法的电子装置
JP2021015637A (ja) * 2020-11-05 2021-02-12 マクセル株式会社 表示装置
CN115116075A (zh) * 2021-03-19 2022-09-27 华为技术有限公司 一种识别点读文字的方法及电子设备
CN116627260A (zh) * 2023-07-24 2023-08-22 成都赛力斯科技有限公司 一种隔空操作方法、装置、计算机设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128917A (ja) * 2017-02-09 2018-08-16 株式会社Nttドコモ 入力システム
WO2021162119A1 (ja) * 2020-02-14 2021-08-19 知能技術株式会社 端末操作に用いられる学習済みモデル生成方法、学習済みモデル、プログラム、端末操作システム、および、端末操作プログラム
JP2021128643A (ja) * 2020-02-14 2021-09-02 知能技術株式会社 端末操作システム、および、端末操作プログラム
CN111652182A (zh) * 2020-06-17 2020-09-11 广东小天才科技有限公司 一种悬空手势识别的方法、装置、电子设备和存储介质
CN111652182B (zh) * 2020-06-17 2023-09-19 广东小天才科技有限公司 一种悬空手势识别的方法、装置、电子设备和存储介质
JP7240766B1 (ja) 2021-11-11 2023-03-16 Trouvez合同会社 非接触入力装置
JP2023071396A (ja) * 2021-11-11 2023-05-23 Trouvez合同会社 非接触入力装置

Also Published As

Publication number Publication date
WO2016113969A1 (ja) 2016-07-21

Similar Documents

Publication Publication Date Title
WO2016113969A1 (ja) ジェスチャー認識装置及び方法、並びにプログラム及び記録媒体
US10511778B2 (en) Method and apparatus for push interaction
CN102780893B (zh) 图像处理设备及其控制方法
KR102098277B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
CN109891189B (zh) 策划的摄影测量
US11635827B2 (en) Control device, display device, program, and detection method
US11367260B2 (en) Video synthesis device, video synthesis method and recording medium
JPWO2012117508A1 (ja) 情報処理装置、方法およびプログラム
US11625858B2 (en) Video synthesis device, video synthesis method and recording medium
TW201712524A (zh) 調焦成視訊部份檢視面積之資料處理裝置和方法,以及電腦程式和製品
JP2006277666A (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP2014233035A (ja) 情報処理装置、表示制御方法及びプログラム
JP2007025963A (ja) 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム
KR20150106823A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2017191492A (ja) 情報処理装置、情報処理方法および映像生成システム
JP2019061590A (ja) 情報処理装置、情報処理システム及びプログラム
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US11477433B2 (en) Information processor, information processing method, and program
WO2015111655A1 (ja) ヘッドマウントディスプレイ装置
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
US20220244788A1 (en) Head-mounted display
JP2017068763A (ja) 情報処理装置および位置情報取得方法
US20230222738A1 (en) Information processing apparatus, information processing method, and program
WO2018185830A1 (ja) 情報処理システム、情報処理方法、情報処理装置、及びプログラム