JP6589796B2 - ジェスチャ検出装置 - Google Patents

ジェスチャ検出装置 Download PDF

Info

Publication number
JP6589796B2
JP6589796B2 JP2016188446A JP2016188446A JP6589796B2 JP 6589796 B2 JP6589796 B2 JP 6589796B2 JP 2016188446 A JP2016188446 A JP 2016188446A JP 2016188446 A JP2016188446 A JP 2016188446A JP 6589796 B2 JP6589796 B2 JP 6589796B2
Authority
JP
Japan
Prior art keywords
gesture
line
sight
operator
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016188446A
Other languages
English (en)
Other versions
JP2018055264A (ja
Inventor
小西 敏之
敏之 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016188446A priority Critical patent/JP6589796B2/ja
Priority to PCT/JP2017/025867 priority patent/WO2018061413A1/ja
Priority to US16/332,898 priority patent/US20190236343A1/en
Publication of JP2018055264A publication Critical patent/JP2018055264A/ja
Application granted granted Critical
Publication of JP6589796B2 publication Critical patent/JP6589796B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

この明細書による開示は、操作者のジェスチャを検出するジェスチャ検出装置に関する。
従来、例えば特許文献1には、ジェスチャを検出する技術の一種として、操作者を撮影するカメラの画像データを用いることで、操作者の視線の向きと顔向きとを共に検知する認識装置が開示されている。この認識装置は、操作者の視線の向きと顔向きとの違いに基づき、操作者の意思を示すジェスチャが有ったと判定する。
特開2007‐94619号公報
さて、本開示の発明者は、特許文献1の技術を用いたジェスチャ検出装置について開発を行ってきた。具体的に、ジェスチャ検出装置は、表示画面にアイコン等の表示物を表示させる。操作者が表示物を目視しつつ顔向きを変化させるジェスチャを行うと、ジェスチャ検出装置は、視線方向と顔向きとの差分の拡大を検出して、ジェスチャが入力されたと判定する。こうしたジェスチャ検出装置であれば、操作者は、手を使うことなく、操作を入力できるようになる。
しかしながら、視線方向と顔向きとの差分の拡大に基づき、ジェスチャの有無を判定する処理だけでは、操作性が良好になり難かった。詳しく説明すると、操作者は、ジェスチャを行う際に、無意識的に、顔向きだけでなく視線も顔向きと同じ方向に動かしてしまう。その結果、視線方向と顔向きとの差分が拡大し難くなり、ジェスチャが有るとの判定が遅延し易くなっていた。こうした欠点を解消するため、視線方向と顔向きとの差分が小さい段階でジェスチャが有るとの判定をしてしまうと、表示画面から視線を外すような単なる視線移動が行われた場合でも、ジェスチャ検出装置は、ジェスチャが有ると誤判定する虞があった。
本開示は、上記問題点に鑑みてなされたものであり、その目的は、誤判定の低減と、ジェスチャの円滑な入力とが両立された操作感に優れるジェスチャ検出装置を提供することにある。
上記目的を達成するため、開示された第一の態様は、表示領域(50)に表示された対象表示物(51)を目視しつつ顔向きを変化させる操作者(U)のジェスチャを検出するジェスチャ検出装置であって、操作者を撮影する撮像部(10)の撮像画像(PI)から、操作者の視線方向を検出する視線検出部(31)と、撮像画像から操作者の顔向きを検出する顔向き検出部(32)と、視線方向と顔向きとの差分の拡大に加えて、顔向きの変化が開始される第一タイミング(tf)と視線方向の変化が開始される第二タイミング(tg)とを比較し、第一タイミングに対する第二タイミングの遅れに基づくことで、対象表示物に対するジェスチャの有無を判定するジェスチャ判定部(34)と、を備えるジェスチャ検出装置とされる。
本開示の発明者は、操作者が単なる視線移動を行う場合と、ジェスチャを行う場合とにおいて、顔向きの変化が開始される第一タイミングと、視線方向の変化が開始される第二タイミングとの間に差があることに着目した。詳記すると、単なる視線移動の場合、操作者は、視線方向の変化を先行させ、その後で顔向きを変化させる傾向がある。一方で、ジェスチャを行う場合、顔向きの変化が開始される第一タイミングは、視線方向の変化が開始される第二タイミングに対して、単純な視線移動よりも早くなる傾向がある。
こうした知見に基づくことにより、この態様によるジェスチャ判定部は、第一タイミングに対する第二タイミングの遅れを、ジェスチャの有無の判定に用いている。以上の判定基準の採用によれば、視線方向と顔向きとの差分が小さい段階でも、ジェスチャ判定部は、顔向き変化及び視線方向変化の各開始タイミングの違いから、ジェスチャの入力が有ると精度良く判定できる。その結果、誤判定を低減しつつ、ジェスチャの入力が円滑に受け付けられるようになるため、操作感の優れたジェスチャ検出装置が実現される。
尚、上記括弧内の参照番号は、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、技術的範囲を何ら制限するものではない。
第一実施形態によるジェスチャ検出装置を含む車載された構成の全体像を示すブロック図である。 ジェスチャを行う操作者Uの様子を表示領域の表示と共に示す図である。 運転席の周囲に設けられた複数の表示領域の配置を示す図である。 ジェスチャ及び視線移動の判定に用いられる判定テーブルを模式的に示す図である。 ジェスチャ検出装置にて実施されるジェスチャ検出処理の詳細を示す図である。 判定テーブルに基づき、ジェスチャが有ると直ちに判定される場合の操作者の動作を示す図である。 判定テーブルに基づくポイントの累積により、ジェスチャが有ると判定される場合の操作者の動作を示す図である。 判定テーブルに基づき、視線移動が有ると直ちに判定される場合の操作者の動作を示す図である。 判定テーブルに基づくポイントの累積により、視線移動が有ると判定される場合の操作者の動作を示す図である。 第二実施形態によるジェスチャ検出装置等の全体像を示すブロック図である。 第二実施形態による判定テーブルを模式的に示す図である。
以下、本開示の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。
(第一実施形態)
図1及び図2に示す本開示の第一実施形態によるジェスチャ検出装置100は、車両Aに搭載されている。ジェスチャ検出装置100は、運転者である操作者Uのジェスチャを検出する。ジェスチャは、表示領域50に表示されたアイコン51を目視しつつ、顔向きを上下(ピッチ)方向又は左右(ヨー)方向に変化させる操作者Uの動作である。ジェスチャ検出装置100は、操作者Uによるジェスチャの検出に基づき、目視されたアイコン51(図2のドット参照)と関連付けられた車載機器60を制御する。ジェスチャ検出装置100の機能によれば、操作者Uは、運転中に手を使うことなく、車両Aに搭載された車載機器60を操作可能となる。
ジェスチャ検出装置100は、カメラ10、複数の表示器40、及び複数の車載機器60と電気的に接続されている。
カメラ10は、操作者Uを撮影する撮像部である。カメラ10は、撮像素子及び投光部と、これらを制御する制御ユニット等とによって構成されている。カメラ10は、運転席側に撮像素子の撮像面を向けた姿勢で、車両Aの車室内に固定されている。カメラ10は、投光部によって近赤外光を投射された操作者Uの顔及びその周囲を、撮像素子によって繰り返し撮影することにより、多数の撮像画像PIを生成する。カメラ10は、生成した多数の撮像画像PIを、ジェスチャ検出装置100へ向けて逐次出力する。
複数の表示器40は、表示領域50に表示させた画像により、操作者Uに情報を提示するインターフェース機器である。各表示器40は、ジェスチャ検出装置100から取得する制御信号基づき、各表示領域50に種々の画像を表示させる。複数の表示器40には、図1及び図3に示すヘッドアップディスプレイ(HUD)41、センターインフォメーションディスプレイ(CID)42、及びマルチインフォメーションディスプレイ(MID)43等が含まれている。
HUD41は、制御信号に基づき生成した画像の光を、例えば車両Aのウインドシールド又はコンバイナ等に設定された表示領域50に投影する。表示領域50によって車室内側に反射された画像の光は、運転者に着座する操作者Uによって知覚される。操作者Uは、HUD41によって投影された画像の虚像を、車両Aの前景と重ねて視認することができる。以上により、HUD41は、アイコン51(図2参照)を含む画像を、表示領域50に表示させることができる。
CID42及びMID43は、例えば液晶ディスプレイ等であり、制御信号に基づき生成したアイコン51(図2参照)を含む画像を、表示領域50としての表示画面に表示させる。CID42は、例えば車室内にてセンタクラスタの上方に設置されている。MID43は、例えば運転席の正面に設置されている。CID42及びMID43の各表示画面は共に、運転席に着座する操作者Uから視認可能である。
複数の車載機器60は、図1に示すジェスチャ検出装置100からの、制御信号を取得することにより、制御信号に従った作動を行う。複数の車載機器60には、空調制御装置61、オーディオ装置62、及び電話機63等が含まれている。空調制御装置61は、車両Aに搭載された空調機器を制御する電子装置である。空調制御装置61は、操作者Uのジェスチャに基づき、空調機器の設定温度、風量、及び風向等を変更する。オーディオ装置62は、操作者Uのジェスチャに基づき、再生中のトラック及び音量等を変更する。電話機63は、操作者Uのジェスチャに基づき、連絡先の設定や設定した連絡先へ向けての電話の呼び出し等を行う。
ジェスチャ検出装置100は、カメラ10から取得する多数の撮像画像PIを解析する画像解析機能と、複数の表示器40及び複数の車載機器60を制御する制御機能とを備えた電気回路である。ジェスチャ検出装置100は、少なくとも一つのプロセッサ、RAM、及び記憶媒体等を含むマイクロコンピュータを主体に構成されている。記憶媒体は、例えばフラッシュメモリ等であり、プロセッサによる情報の読み取りが可能な非遷移的実体的記録媒体(non-transitory tangible storage medium)である。ジェスチャ検出装置100は、記憶媒体に記憶されたジェスチャ検出プログラムをプロセッサによって実行させることで、複数の機能ブロックを備える。ジェスチャ検出装置100には、視線検出部31、顔向き検出部32、目視表示判定部33、ジェスチャ判定部34、表示制御部35、及び機器制御部36等が構築される。
視線検出部31は、連続して撮影された一連の撮像画像PIから、操作者Uの視線方向を検出する。視線検出部31は、個々の撮像画像PIにおける操作者Uの目の位置を特定し、さらに目の輪郭と黒目の位置とを抽出する。視線検出部31は、目の輪郭内における黒目の位置から、操作者Uの視線方向を演算することで、操作者Uが目視又は注視している目視位置を特定する。加えて視線検出部31は、操作者Uが視線方向を変化させている場合に、個々の撮像画像PIにおける視線方向の変化の推移に基づき、視線方向の変化する角速度を、視線移動速度ωg(図6等参照)として検出する。
顔向き検出部32は、連続して撮影された一連の撮像画像PIから、操作者Uの顔向きを検出する。顔向き検出部32は、個々の撮像画像PIにおける操作者Uの両眼及び鼻等の位置と、顔の輪郭とを抽出する。顔向き検出部32は、顔の輪郭内における両眼及び鼻等の位置から、操作者Uの顔が向けられている方向を演算する。加えて顔向き検出部32は、操作者Uが顔向きを変化させている場合に、個々の撮像画像PIにおける顔向きの変化の推移に基づき、顔向きの変化する角速度を、顔向き移動速度ωf(図6等参照)として検出する。
目視表示判定部33は、視線検出部31にて検出された操作者Uの視線方向に基づき、操作者Uの目視位置が、各表示器40の表示領域50なのか、車両Aの外部の状況を確認する確認範囲LAなのか、又はこれら以外の範囲であるのかを判定する。確認範囲LAには、例えばウインドシールド及び左右のサイドウインドの各範囲、並びに電子ミラーシステムの各表示画面55等が含まれる。尚、電子ミラーシステムの表示画面55に替えて、バックミラー及びサイドミラーが確認範囲LAとされてもよい。
加えて目視表示判定部33は、アイコン51(図2参照)を表示している表示領域50を操作者Uが目視していると判定した場合、表示された複数のアイコン51のうちで操作者Uが目視状態としている一つのアイコン51をさらに判定する。また目視表示判定部33は、ジェスチャ判定部34にて後述する視線移動が有ったと判定された場合、操作者Uによる視線移動の移動先が確認範囲LAであるか否かをさらに判定する。目視表示判定部33は、視線移動の移動先が確認範囲LAであると判定した場合、視線移動の前(直前)にて操作者Uの目視対象となっていたアイコン51に対する目視状態の判定を維持する。以上により、操作者Uが周囲の環境把握のために表示領域50から確認範囲LAへと視線を一時的に外した場合でも、特定のアイコン51の選択状態は、維持される。
ジェスチャ判定部34は、目視表示判定部33によって目視状態と判定されている特定のアイコン51(図2参照)が有る場合に、当該アイコン51に対するジェスチャの有無を判定する。加えてジェスチャ判定部34は、表示領域50を目視していた操作者Uが当該表示領域50の外に目視位置を変更する視線移動の有無を判定する。ジェスチャ判定部34は、視線方向と顔向きとの差分が予め規定された角度閾値を超えて拡大したことを条件に、判定テーブル(図4参照)を用いて、ジェスチャ及び視線移動の有無を判定する。
ジェスチャ判定部34は、視線検出部31の検出結果に基づき、視線方向の変化が開始される視線変化タイミングtg(図6等参照)を特定する。ジェスチャ判定部34は、顔向き検出部32の検出結果に基づき、顔向きの変化が開始される顔向き変化タイミングtf(図6等参照)を特定する。ジェスチャ判定部34は、顔向き変化タイミングtfと視線変化タイミングtgとを比較し、顔向き変化タイミングtfに対する視線変化タイミングtgの遅れを算出する。視線方向の変化と顔向き変化との間の開始時間差(tf−tg)は、判定テーブル(図4参照)において、ジェスチャ及び視線移動の各有無を判定する判定基準として用いられている。
加えてジェスチャ判定部34は、顔向き検出部32にて検出された顔向きと、視線検出部31にて検出された視線方向との差分を算出する。さらにジェスチャ判定部34は、顔向き検出部32にて検出された顔向き移動速度ωfと視線検出部31にて検出された視線移動速度ωgとを比較し、顔向き移動速度ωf及び視線移動速度ωgの(角)速度差を算出する。視線方向の変化と顔向き変化との間の速度差(ωf−ωg)は、判定テーブル(図4参照)において、ジェスチャ及び視線移動の各有無を判定する判定基準として用いられている。
以上のジェスチャ判定部34にて用いられる判定テーブルの(図4参照)は、操作者Uによって行われる動作の態様がジェスチャと視線移動との間で異なっているという新たな知見に基づいて設定されている。詳記すると、単なる視線移動を行う場合、操作者Uは、視線方向の変化を先行させ、その後で顔向きを変化させる傾向がある。このとき、顔向き移動速度ωfよりも視線移動速度ωgが速くなり易い。一方で、ジェスチャを行う場合、顔向きの変化が開始される顔向き変化タイミングtfは、視線方向の変化が開始される視線変化タイミングtgに対して、視線移動を行う場合よりも早くなる傾向がある。このとき、顔向き移動速度ωfは、視線移動速度ωgよりも速くなり易い。こうした操作者Uの挙動の特性に基づき、判定テーブルは、設定されている。
ジェスチャ判定部34は、判定テーブル(図4参照)を用いることにより、顔向き変化タイミングtfに対する視線変化タイミングtgの遅れと、顔向き移動速度ωf及び視線移動速度ωgの差分とに基づき、ジェスチャ及び視線移動の各有無を判定する。ジェスチャ判定部34は、顔向き変化タイミングtfに対する視線変化タイミングtgの遅れがジェスチャ時間閾値を超え、且つ、顔向き移動速度ωfが視線移動速度ωgに対してジェスチャ速度閾値を超えて速い場合に、ジェスチャが有ると判定する。ジェスチャ時間閾値及びジェスチャ速度閾値は、予め規定された値である。判定テーブルにおける開始時間差T2,T3がジェスチャ時間閾値に相当し、速度差V2,V3がジェスチャ速度閾値に相当する。具体的に、開始時間差がT3以上且つ速度差がV2以上の場合、又は開始時間差がT2以上且つ速度差がV3以上の場合に、ジェスチャ判定部34は、ジェスチャが有ると判定する。
一方、ジェスチャ判定部34は、顔向き変化タイミングtfに対する視線変化タイミングtgの遅れが視線時間閾値未満であり、且つ、視線移動速度ωgに対する顔向き移動速度ωfの速さが視線速度閾値未満である場合に、視線移動が有ると判定する。視線時間閾値は、ジェスチャ時間閾値以下か、又はジェスチャ時間閾値よりも短い時間に予め設定されており、判定テーブル(図4参照)における開始時間差T1,T2に相当する。同様に、視線速度閾値は、ジェスチャ速度閾値以下か、又はジェスチャ速度閾値よりも遅い値に予め設定されており、判定テーブルにおける速度差V1,V2に相当する。
以上の設定により、開始時間差がT2未満且つ速度差がV1未満の場合、又は開始時間差がT1未満且つ速度差がV2未満の場合に、ジェスチャ判定部34は、視線移動が有ると判定する。加えて、顔向き変化タイミングtfよりも視線変化タイミングtgが早い場合、及び顔向き移動速度ωfよりも視線移動速度ωgが速い場合も、ジェスチャ判定部34は、視線移動が有ると判定する。
ジェスチャ判定部34は、ジェスチャ及び視線移動のいずれも無いと判定した場合に、視線検出部31及び顔向き検出部32にて検出される視線方向及び顔向きの新たな各情報に基づいて、ジェスチャ及び視線移動の各有無を再判定する。判定テーブル(図4参照)においてジェスチャ及び視線移動のいずれにも該当しない範囲には、ポイントが設定されている。ジェスチャ判定部34は、再判定を繰り返す場合、開始時間差及び速度差に該当するポイントを積算する。視線移動よりもジェスチャの動作に類似した動作が検出された場合、プラスのポイントが積算されていく。ジェスチャ判定部34は、累積したポイントの値が予め設定された上限ポイント閾値P1以上となった場合に、ジェスチャが有ると判定する。一方で、ジェスチャよりも視線移動の動作に類似した動作が検出された場合、マイナスのポイントが積算されていく。ジェスチャ判定部34は、累積したポイントの値が予め設定された下限ポイント閾値P2以下となった場合に、視線移動が有ると判定する。
こうした累積ポイントに基づく判定であれば、過去の判定にてジェスチャに類似した動作が検出されたという判定結果を導出していた場合、次回の再判定においては、ジェスチャ判定部34は、過去の判定結果を反映し、ジェスチャが有ると判定し易くなる。同様に、過去の判定にて視線移動に類似した動作が検出されたという判定結果を導出していた場合、次回の再判定においては、ジェスチャ判定部34は、過去の判定結果を反映し、視線移動が有ると判定し易くなる。
表示制御部35は、各表示器40へ向けて出力する制御信号を生成することで、各表示領域50の表示の態様を制御する。表示制御部35は、ジェスチャによる入力が可能な状態において、各表示器40の少なくとも一つの表示領域50に、複数のアイコン51を表示させる。加えて表示制御部35は、目視表示判定部33によって操作者Uが目視状態に有ると判定されている特定のアイコン51を、ハイライト等の方法によって強調表示させる。
加えて表示制御部35は、ジェスチャ判定部34によるジェスチャ及び視線移動の各有無の判定に連動して、各表示領域50の表示態様を連続的に遷移させる。具体的に、表示制御部35は、ジェスチャが有ると判定された場合に、ジェスチャが受け付けられたことを操作者Uに報知する第一表示態様に、表示領域50の表示を変更する。第一表示態様では、一例としてアイコン51を表示する表示領域50の四つの縁部が一旦ハイライトされたうえで、選択されたアイコン51の内容に情報が更新される。
また表示制御部35は、一つの表示領域50から他の一つの表示領域50への視線移動が有ると判定された場合に、視線移動が行われたことを操作者Uに報知する第二表示態様に、各表示領域50の表示を変更する。第二表示態様では、一例として視線移動先となる表示領域50の四つの縁部が一旦ハイライトされる。
さらに、表示制御部35は、ジェスチャ判定部34によって再判定が行われている期間にて、各表示領域50の表示を遷移表示態様に制御する。遷移表示態様では、一例としてアイコン51を表示する表示領域50の四つの縁部は、第一表示態様よりも薄くハイライトされた状態となる。加えて、視線移動の移動先の候補とされている他の表示領域50は、移動基となる表示領域50に最も近い一つの縁部を、第二表示態様よりも薄くハイライトされた状態となる。以上のように、第一表示態様及び第二表示態様の両方への遷移に対応した遷移表示態様によれば、ジェスチャが有ると判定された場合も、視線移動が有ると判定された場合も、各表示領域50のハイライトが段階的に強調されていくようになる。
機器制御部36は、各車載機器60へ向けて出力する制御信号を生成することで、各車載機器60の作動を制御する。機器制御部36は、ジェスチャ判定部34にてジェスチャが有ると判定された場合に、目視表示判定部33にて目視対象とされたアイコン51と関連付けられた制御が実行されるよう、制御信号の生成及び出力を実行する。
以上のジェスチャ検出装置100によって実施されるジェスチャ検出処理の詳細を、図5に基づき、図1〜図4を参照しつつ説明する。ジェスチャ検出処理は、例えば表示領域50にアイコン51が表示され、ジェスチャ操作の可能な入力モードがオン状態になったことに基づいて開始される。ジェスチャ検出処理は、ジェスチャ操作の可能な入力モードがオフ状態とされるまで、繰り返し開始される。
S101では、カメラ10から複数フレーム分の撮像画像PIを取得し、S102に進む。S102では、S101にて取得された撮像画像PIから、操作者Uの視線方向と視線移動速度ωgとを検出し、S103に進む。S103では、直前のS102にて検出された視線方向に基づき、表示領域50に表示されたアイコン51の目視が有るか否かを判定する。S103にて、アイコン51の目視が無いと判定した場合、S101に戻る。一方、S103にて、アイコン51の目視が有ると判定した場合、S104に進む。
S104では、S101にて取得された撮像画像PIから、操作者Uの顔向きと顔向き移動速度ωfとを検出し、S105に進む。S105では、直前のS102及びS104にて検出された視線方向と顔向きを示す各角度が、予め規定した各角度の角度閾値以上か否かを判定する。視線方向及び顔向きを示す各角度は、操作者の黒目の位置からS103にて判定したアイコン51へ向かう仮想軸線と、視線方向及び顔向きをそれぞれ示す各仮想軸線との間の角度である。S105にて、視線方向を示す角度及び顔向きを示す角度の少なくとも一方が角度閾値以上である場合、S108に進む。一方で、視線方向を示す角度及び顔向きを示す角度が共に角度閾値未満である場合、S106に進む。
S106では、直前のS102及びS104にて検出された視線方向と顔向きとの差分である角度差が角度閾値以上か否かを判定する。角度差は、視線方向を示す仮想軸線と顔向きを示す仮想軸線との間の角度である。S106にて、視線方向と顔向きとの角度差が角度閾値未満であると判定した場合、S107に進む。S107では、S103にて目視があるとされたアイコン51をハイライト表示の状態とし、S101に戻る。一方、S106にて、角度差が角度閾値以上であると判定した場合、S108に進む。
S108では、判定テーブルに基づくジェスチャ及び視線移動の有無の判定を行う。S108では、顔向き変化タイミングtf及び視線変化タイミングtgの開始時間差と、顔向き移動速度ωf及び視線移動速度ωgの速度差とを算出し、算出結果の判定テーブルへの当てはめを実施する。判定テーブルに基づき、ジェスチャ及び視線移動のいずれも無いと判定した場合、S109に進み、再判定処理に移行する。再判定処理への移行に伴い、S110にて、少なくとも一つの表示領域50の表示を遷移表示態様に変更し、S101に戻る。
S108にて、視線移動が有ると判定した場合、S111に進む。S111では、移動対象判定処理の実施によって視線移動の移動先を判定し、S112に進む。S112では、S112の判定結果に基づき、一つ又は複数の表示領域50の表示態様を設定する。S112にて、一つの表示領域50から他の一つの表示領域50への視線移動を判定した場合、S112では、他の一つの表示領域50の表示を第二表示態様に変更する。また、S111にて、確認範囲LAへの視線移動が行われたと判定した場合、S112では、移動基となる表示領域50の表示について、視線移動を実施する前の表示状態、即ち、特定のアイコン51を選択状態としている操作画面が保持される。そして、S112による表示制御の完了後、ジェスチャ検出処理を一旦終了する。
S108にて、ジェスチャが有ると判定した場合、S113に進む。S113では、検出されたジェスチャのタイプを判定し、S114に進む。S113では、一例として顔を上下に振るピッチ方向のジェスチャが行われたのか、又は顔を左右に振るロール方向のジェスチャが行われたのかを判定する。S114では、S113にて判定されたジェスチャに対応する表示に表示領域50を変更し、S115に進む。S114による表示変化は、ジェスチャへの応答表示であり、ジェスチャが受け付けられたことを操作者Uに報知する機能を有する。
S115では、S113にて判定されたジェスチャのタイプに対応した車載機器60の操作を実行する。S115では、選択状態にあったアイコン51に対応した制御信号を生成し、操作対象とされる車載機器60へ向けて生成した制御信号を出力する。S115による機器操作の完了後、ジェスチャ検出処理を一旦終了する。
ここまで説明した判定テーブルに基づく判定により、ジェスチャ及び視線移動の各有無が判定される具体例を、以下、図6〜図9に基づき、図1及び図4を参照しつつ順に説明する。
図6に示す操作者Uの挙動では、顔向き変化タイミングtf及び視線変化タイミングtgの間の開始時間差がT2〜T3の値となっている。加えて、顔向き移動速度ωf及び視線移動速度ωgの間の速度差がV3以上の値となっている。こうした操作者Uの挙動であれば、視線方向と顔向きとの角度差が角度閾値以上なった段階で、ジェスチャ判定部34は、判定テーブルに基づいてジェスチャが有ると判定する。この場合では、開始時間差及び速度差の両方にジェスチャ特有の特徴が顕著に現れているため、角度閾値が小さい値に設定されていても、ジェスチャの誤判定は、低減される。
図7に示す操作者Uの挙動では、顔向き変化タイミングtf及び視線変化タイミングtgの間の開始時間差がT3以上の値となっている。加えて、顔向き移動速度ωf及び視線移動速度ωgの間の速度差がV1〜V2の値となっている。このようにジェスチャに類似した操作者Uの挙動が検出された場合、ジェスチャ判定部34は、判定テーブルに基づき、「+2」ポイントを加算したうえで、再判定処理に移行する。そして、累積ポイントが上限ポイント閾値P1以上となった段階で、ジェスチャ判定部34は、ジェスチャが有ると判定する。以上のように、操作者Uの挙動の経過を鑑みることにより、ジェスチャ判定部34は、ジェスチャと判別し難い挙動に対して、ジェスチャが有るという判定を、より短時間で行うことができる。
図8に示す操作者Uの挙動では、視線変化タイミングtgが顔向き変化タイミングtfに対して先行している。その結果、顔向き変化タイミングtf及び視線変化タイミングtgの間の開始時間差は、T1未満の値となっている。また、視線移動速度ωgは、顔向き移動速度ωfよりも速い値を示している。その結果、顔向き移動速度ωf及び視線移動速度ωgの間の速度差は、V1未満の値となっている。こうした操作者Uの挙動であれば、視線方向と顔向きとの角度差が角度閾値以上なった段階で、ジェスチャ判定部34は、判定テーブルに基づいて視線移動が有ると判定する。この場合では、開始時間差及び速度差の両方に視線移動特有の特徴が顕著に現れているため、角度閾値が小さい値に設定されていても、視線移動の誤判定は、低減される。
図9に示す操作者Uの挙動では、顔向き変化タイミングtf及び視線変化タイミングtgの間の開始時間差がT2〜T3の値となっている。一方で、視線移動速度ωgは、顔向き移動速度ωfよりも速い値を示している。このように視線移動に類似した操作者Uの挙動が検出された場合、ジェスチャ判定部34は、判定テーブルに基づき、「−1」ポイントを積算したうえで、再判定処理に移行する。そして、累積ポイントが下限ポイント閾値P2以下となった段階で、ジェスチャ判定部34は、視線移動が有ると判定する。以上のように、操作者Uの挙動の経過を鑑みることにより、ジェスチャ判定部34は、視線移動と判別し難い挙動に対して、視線移動が有るという判定を、より短時間で行うことができる。
ここまで説明した第一実施形態では、操作者Uの挙動に係る新たな知見に基づき、ジェスチャ判定部34は、顔向き変化タイミングtfに対する視線変化タイミングtgの遅れ、即ち、開度時間差を、ジェスチャの有無の判定に用いている。以上の判定基準の採用によれば、視線方向と顔向きとの角度差が小さい段階でも、ジェスチャ判定部34は、顔向き変化及び視線方向変化の各タイミングの違いから、ジェスチャの入力が有ると精度良く判定し得る。その結果、誤判定を低減しつつ、ジェスチャの入力が円滑に受け付けられるようになる。したがって、操作感の優れたジェスチャ検出装置100が実現される。
加えて第一実施形態では、操作者Uの挙動に係る新たな知見に基づき、ジェスチャ判定部34は、顔向き移動速度ωf及び顔向き移動速度ωfの速度差を、ジェスチャの有無の判定にさらに用いている。こうした判定基準のさらなる採用によれば、視線方向と顔向きとの角度差が小さい段階でも、ジェスチャ判定部34は、開始時間差及び速度差を組み合わせて、ジェスチャの入力が有ると精度良く判定できる。以上によれば、誤判定をさらに低減しつつ、ジェスチャの入力は、さらに素早く且つ高精度に検出される。
また第一実施形態では、開始時間差及び速度差のそれぞれに多段階の閾値を設けた判定テーブルを用いて、ジェスチャ判定部34は、ジェスチャ及び視線移動の各有無を判定している。このような判定テーブルを用いて操作者Uの挙動を判別する形態であれば、ジェスチャ判定部34は、ジェスチャ及び視線移動の各有無を、高速に判定することができる。
また第一実施形態のジェスチャ判定部34は、ジェスチャ及び視線移動のいずれも無いと判定した場合に、新たな情報に基づいて再判定処理を行う。そして、ジェスチャ判定部34は、ポイントを累積させる処理により、操作者Uの挙動の推移を鑑みて、ジェスチャの有り判定及び視線移動の有り判定を行うことができる。以上によれば、ジェスチャ判定部34は、ジェスチャと明確に判別し難いジェスチャに似た動作に対しても、過去の判定結果を反映させることで、より早いタイミングでジェスチャが有ると判定できる。同様に、ジェスチャ判定部34は、視線移動と明確に判別し難い視線移動に似た動作に対しても、過去の判定結果を反映させることで、より早いタイミングで視線移動が有ると判定できる。
さらに第一実施形態では、ジェスチャ判定部34によって再判定が行われているときに、各表示領域50の表示は、第一表示態様及び第二表示態様の両方への遷移に対応した遷移表示態様とされている。以上によれば、操作者Uの曖昧な動作によって再判定の期間が生じた場合でも、各表示領域50の表示は、判定が確定するまでの間に、段階的に切り替わっていく。その結果、操作者Uは、自らの挙動に対応して変化する表示により、いっそう良好な操作感を得ることができる。
加えて第一実施形態によれば、視線移動の移動先が確認範囲LAである場合、視線移動の前に操作者Uの目視対象となっていたアイコン51への目視状態の判定が維持される。その結果、操作者Uが周囲の走行環境の把握のために表示領域50から確認範囲LAへと視線を外した場合でも、特定のアイコン51の選択状態は、維持される。以上によれば、操作中であった表示領域50の表示が保持されるため、操作者Uは、確認範囲LAから表示領域50へと視線を戻した後で、ジェスチャによる車載機器60の操作を速やかに再開できる。
尚、第一実施形態において、カメラ10が「撮像部」に相当し、アイコン51が「対象表示物」に相当する。また、顔向き変化タイミングtfが「第一タイミング」に相当し、視線変化タイミングtgが「第二タイミング」に相当し、顔向き移動速度ωfが「第一速度」に相当し、視線移動速度ωgが「第二速度」に相当する。
(第二実施形態)
図10及び図11に示す本開示の第二実施形態は、第一実施形態の変形例である。第二実施形態によるジェスチャ検出装置200は、車両Aに搭載された表示装置の一つであるコンビネーションメータ140と接続されている。第二実施形態では、第一実施形態のジェスチャ検出装置100(図1参照)の一部の機能が、コンビネーションメータ140によって果たされている。また第二実施形態の判定テーブルは、第一実施形態よりも簡素化されている。以下、第二実施形態によるジェスチャ検出装置200等の詳細を、順に説明する。
ジェスチャ検出装置200は、ジェスチャ検出プログラムの実行により、第一実施形態と実質同一の視線検出部31、顔向き検出部32、目視表示判定部33、及びジェスチャ判定部34を構築する。一方で、表示制御部35及び機器制御部36(図1参照)に相当する機能部は、ジェスチャ検出装置200には構築されない。
コンビネーションメータ140は、MID43及び制御回路を含む車両用の表示装置である。制御回路は、少なくとも一つのプロセッサ、RAM、及び記憶媒体等を含むマイクロコンピュータを主体に構成されている。コンビネーションメータ140は、プロセッサによる表示制御プログラムの実行により、表示制御部235及び機器制御部236を構築する。
表示制御部235は、第一実施形態の表示制御部35(図1参照)に相当する機能部である。表示制御部235は、ジェスチャ及び視線移動の判定結果をジェスチャ判定部34から取得する。表示制御部235は、取得した判定結果に基づき、MID43の表示に加えて、HUD41及びCID42の各表示を制御する。
機器制御部236は、第一実施形態の機器制御部36(図1参照)に相当する機能部である。機器制御部236は、ジェスチャによる操作の対象とされている車載機器60と、選択状態にあるアイコン51(図2参照)に関連する具体的な制御内容とを設定する。機器制御部236は、表示制御部235にて取得された判定結果に基づき、各車載機器60を操作する制御を実行する。
第二実施形態の判定テーブルには、第一実施形態と実質同一のジェスチャ時間閾値及び視線時間閾値、即ちT1〜T3が設定されている。一方で、判定テーブルには、ジェスチャ速度閾値及び視線速度閾値、即ち、第一実施形態のV1〜V3(図4参照)は、設定されていない。こうした判定テーブルに基づくことにより、ジェスチャ判定部34は、S108(図5参照)に相当する処理にて、開始時間差だけに基づき、ジェスチャ及び視線移動の各有無を判定する。
具体的に、ジェスチャ判定部34は、開始時間差がT1未満である場合に、視線移動が有ると判定する。ジェスチャ判定部34は、開始時間差がT3以上である場合に、ジェスチャが有ると判定する。さらにジェスチャ判定部34は、開始時間差がT1以上且つT3未満である場合に、再判定処理(図5 S107参照)に移行させる。再判定処理では、開始時間差がT1以上且つT2未満である場合に、累積ポイントが減算されていく。一方で、開始時間差がT2以上且つT3未満である場合には、累積ポイントが加算されていく。以上により、ジェスチャ判定部34は、図10の判定テーブルを用いた場合でも、累積ポイントを利用してジェスチャ及び視線移動の各有り判定を行うことができる。
ここまで説明した第二実施形態でも、開始時間差を判定基準に用いることで、第一実施形態と同様の効果を奏し、誤判定を低減とジェスチャの円滑な入力の両立が可能となる。加えて、ジェスチャ検出装置200は、ジェスチャ及び視線移動の検出結果を、装置外部の表示制御部235及び機器制御部236に提供する形態であってもよい。さらに、第二実施形態のように、判定基準として速度差が用いられなくても、ジェスチャ判定部34は、従来よりも高精度にジェスチャ及び視線移動を検出できる。
(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
上記第一実施形態では、開始時間差及び速度差のそれぞれについて段階的に複数の閾値を設定し、複数の閾値群を組み合わせることにより、判定テーブルが規定されていた。そして、ジェスチャ判定部は、ジェスチャ及び視線移動の各有無を判定テーブルに基づき判定していた。しかし、開示時間差及び速度差を用いていれば、ジェスチャ判定部の実施する判定処理の具体的な手法は、適宜変更されてよい。一例として、ジェスチャ判定部は、機械学習によって予め規定された識別器を用いることにより、ジェスチャ及び視線移動の有無を判定可能である。識別器は、開始時間差、又は開始時間差及び速度差の両方を入力として与えられることにより、ジェスチャ及び視線移動の有無の判定結果を出力できる。
上記実施形態のジェスチャ判定部は、ジェスチャ及び視線移動のいずれも無いと判定した場合、再判定を実施していた。しかし、ジェスチャ判定部は、再判定を実施せずに、ジェスチャ検出処理を一旦終了させてもよい。加えて上記実施形態の再判定では、操作者Uの挙動の推移が鑑みられることにより、ジェスチャ又は視線移動の有り判定が行われ易かった。しかし、再判定にてジェスチャ及び視線移動の有り判定が行われる条件は、最初の判定と同一であってもよい。即ち、ジェスチャ判定部は、累積ポイントに基づくジェスチャ及び視線移動の判定を実施しなくてもよい。
上記実施形態では、HUD、CID、及びMIDという三つの表示器を用いることにより、複数の表示領域を通じた操作者への情報提供が可能にされていた。しかし、表示領域の数及び大きさ等は、適宜変更可能である。加えて、ジェスチャのためのアイコンの形態、表示位置、及び表示数等も、運転席の周囲に規定される表示領域の数及び大きさ等に応じて適宜変更されてよい。また、表示領域の表示を実現する表示器の具体的な構成も、上記実施形態の構成に限定されない。さらに、表示制御部は、再判定中において各表示領域の表示を遷移表示態様にする制御を実施しなくてもよい。
上記実施形態では、車両Aの周囲を確認するために確認範囲LAに視線移動を行った場合には、特定のアイコンの選択状態が維持されていた。しかし、こうした処理は実施されなくてもよく、表示領域から目視位置が外れたことに基づき、特定のアイコンの選択状態は、一旦解除されてもよい。
上記実施形態では、マイクロコンピュータを主体としたジェスチャ検出装置の電子回路がジェスチャ検出プログラムを実行していた。しかし、ジェスチャ検出プログラム及び当該プログラムに基づくジェスチャ検出方法を実行する具体的な構成は、上記実施形態の構成とは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせであってよい。例えば、車両Aに搭載されたナビゲーション装置の制御回路が、ジェスチャ検出装置として機能してもよい。さらに、操作者を撮影するカメラの制御ユニットが、ジェスチャ検出装置として機能してもよい。
上記実施形態では、車両Aに搭載されるジェスチャ検出装置に本開示の特徴部分を適用した例を説明したが、ジェスチャ検出装置は、車載される態様に限定されない。例えば、携帯端末、パーソナルコンピュータ、及び医療用機器といった種々の電子機器の入力インターフェースとして採用されるジェスチャ検出装置に、本開示の特徴部分は適用可能である。
A 車両、U 操作者、10 カメラ(撮像部)、31 視線検出部、32 顔向き検出部、33 目視表示判定部、34 ジェスチャ判定部、35,235 表示制御部、50 表示領域、51 アイコン(対象表示物)、100,200 ジェスチャ検出装置、LA 確認範囲、PI 撮像画像、T1 閾値(視線時間閾値)、T3 閾値(ジェスチャ時間閾値)、V3 閾値(ジェスチャ速度閾値)、tf 顔向き変化タイミング(第一タイミング)、tg 視線変化タイミング(第二タイミング)、ωf 顔向き移動速度(第一速度)、ωg 視線移動速度(第二速度)

Claims (11)

  1. 表示領域(50)に表示された対象表示物(51)を目視しつつ顔向きを変化させる操作者(U)のジェスチャを検出するジェスチャ検出装置であって、
    前記操作者を撮影する撮像部(10)の撮像画像(PI)から、前記操作者の視線方向を検出する視線検出部(31)と、
    前記撮像画像から前記操作者の顔向きを検出する顔向き検出部(32)と、
    視線方向と顔向きとの差分の拡大に加えて、顔向きの変化が開始される第一タイミング(tf)と視線方向の変化が開始される第二タイミング(tg)とを比較し、前記第一タイミングに対する前記第二タイミングの遅れに基づくことで、前記対象表示物に対する前記ジェスチャの有無を判定するジェスチャ判定部(34)と、
    を備えるジェスチャ検出装置。
  2. 前記顔向き検出部は、前記操作者が顔向きを変化させる角速度を第一速度(ωf)として検出し、
    前記視線検出部は、前記操作者が視線方向を変化させる角速度を第二速度(ωg)として検出し、
    前記ジェスチャ判定部は、視線方向及び顔向きの差分の拡大と前記第一タイミングに対する前記第二タイミングの遅れとに加えて、前記第一速度と前記第二速度との差分に基づくことで、前記ジェスチャの有無を判定する請求項1に記載のジェスチャ検出装置。
  3. 前記ジェスチャ判定部は、前記第一速度が前記第二速度に対して予め規定されたジェスチャ速度閾値(V3)を超えて速い場合に、前記ジェスチャが有ると判定する請求項2に記載のジェスチャ検出装置。
  4. 前記ジェスチャ判定部は、
    視線方向と顔向きとの差分が拡大したとき、前記第二速度に対する前記第一速度の速さがジェスチャ速度閾値(V3)よりも遅い視線速度閾値(V1)未満であるか、又は前記第一速度よりも前記第二速度が速い場合に、前記操作者の視線移動があったと判定する請求項3に記載のジェスチャ検出装置。
  5. 前記ジェスチャ判定部は、前記第一タイミングに対する前記第二タイミングの遅れが予め規定されたジェスチャ時間閾値(T3)を超えた場合に、前記ジェスチャが有ると判定する請求項1〜4のいずれか一項に記載のジェスチャ検出装置。
  6. 前記ジェスチャ判定部は、
    視線方向と顔向きとの差分が拡大したとき、前記第一タイミングに対する前記第二タイミングの遅れが前記ジェスチャ時間閾値よりも短い視線時間閾値(T1)未満であるか、又は前記第一タイミングよりも前記第二タイミングが早い場合に、前記操作者の視線移動があったと判定する請求項5に記載のジェスチャ検出装置。
  7. 前記ジェスチャ判定部は、前記ジェスチャ及び前記視線移動のいずれも無いと判定した場合に、視線方向及び顔向きの新たな各情報に基づいて、前記ジェスチャ及び前記視線移動の有無を再判定する請求項4又は6に記載のジェスチャ検出装置。
  8. 前記ジェスチャ判定部は、過去の判定にて前記操作者の動作が前記視線移動よりも前記ジェスチャの動作に類似していたという判定結果を導出していた場合、前記再判定では過去の判定結果を反映し、前記ジェスチャが有ると判定し易くなる請求項7に記載のジェスチャ検出装置。
  9. 前記ジェスチャ判定部は、過去の判定にて前記操作者の動作が前記ジェスチャよりも前記視線移動の動作に類似していたという判定結果を導出していた場合、前記再判定では過去の判定結果を反映し、前記視線移動が有ると判定し易くなる請求項7又は8に記載のジェスチャ検出装置。
  10. 前記ジェスチャ判定部によって前記ジェスチャが有ると判定された場合に前記表示領域の表示を第一表示態様に制御し、前記視線移動が有ると判定された場合に前記表示領域の表示を第二表示態様に制御する表示制御部(35)、をさらに備え、
    前記表示制御部は、前記ジェスチャ判定部によって前記再判定が行われている期間にて、前記第一表示態様及び前記第二表示態様の両方への遷移に対応した遷移表示態様に前記表示領域の表示を制御する請求項7〜9のいずれか一項に記載のジェスチャ検出装置。
  11. 車両(A)に搭載されるジェスチャ検出装置であって、
    前記視線検出部にて検出された視線方向に基づき、前記操作者が目視している前記対象表示物を判定する目視表示判定部(33)、をさらに備え、
    前記目視表示判定部は、
    前記ジェスチャ判定部にて前記視線移動が有ると判定された場合に、前記視線移動の移動先が前記車両の外部の状況を確認する確認範囲(LA)であるか否かをさらに判定し、
    前記視線移動の移動先が前記確認範囲であると判定した場合に、この視線移動の前に前記操作者の目視対象となっていた前記対象表示物に対する目視状態の判定を維持する請求項4,6〜10のいずれか一項に記載のジェスチャ検出装置。
JP2016188446A 2016-09-27 2016-09-27 ジェスチャ検出装置 Expired - Fee Related JP6589796B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016188446A JP6589796B2 (ja) 2016-09-27 2016-09-27 ジェスチャ検出装置
PCT/JP2017/025867 WO2018061413A1 (ja) 2016-09-27 2017-07-18 ジェスチャ検出装置
US16/332,898 US20190236343A1 (en) 2016-09-27 2017-07-18 Gesture detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016188446A JP6589796B2 (ja) 2016-09-27 2016-09-27 ジェスチャ検出装置

Publications (2)

Publication Number Publication Date
JP2018055264A JP2018055264A (ja) 2018-04-05
JP6589796B2 true JP6589796B2 (ja) 2019-10-16

Family

ID=61760500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016188446A Expired - Fee Related JP6589796B2 (ja) 2016-09-27 2016-09-27 ジェスチャ検出装置

Country Status (3)

Country Link
US (1) US20190236343A1 (ja)
JP (1) JP6589796B2 (ja)
WO (1) WO2018061413A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6922686B2 (ja) * 2017-11-20 2021-08-18 トヨタ自動車株式会社 操作装置
JP7147255B2 (ja) * 2018-05-11 2022-10-05 トヨタ自動車株式会社 画像表示装置
JP7073991B2 (ja) 2018-09-05 2022-05-24 トヨタ自動車株式会社 車両用周辺表示装置
WO2020223944A1 (zh) * 2019-05-09 2020-11-12 深圳大学 生理机能评估系统和方法
US20220397975A1 (en) * 2021-06-09 2022-12-15 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus, and computer program for touch stabilization

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP4622702B2 (ja) * 2005-05-27 2011-02-02 株式会社日立製作所 映像監視装置
JP2007094618A (ja) * 2005-09-28 2007-04-12 Omron Corp 通知制御装置および方法、記録媒体、並びに、プログラム。
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
JP6292054B2 (ja) * 2013-11-29 2018-03-14 富士通株式会社 運転支援装置、方法、及びプログラム
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US10254544B1 (en) * 2015-05-13 2019-04-09 Rockwell Collins, Inc. Head tracking accuracy and reducing latency in dynamic environments

Also Published As

Publication number Publication date
WO2018061413A1 (ja) 2018-04-05
US20190236343A1 (en) 2019-08-01
JP2018055264A (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6589796B2 (ja) ジェスチャ検出装置
US10205869B2 (en) Video processing apparatus, control method, and recording medium
KR101459441B1 (ko) 차량 내 손가락 사이점을 이용한 사용자 인터페이스 조작 시스템 및 방법
JP6316559B2 (ja) 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
JP5505434B2 (ja) 脇見判定装置
KR101490908B1 (ko) 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법
JP2010184600A (ja) 車載用ジェスチャースイッチ装置
JP2007329784A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
KR101438615B1 (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
EP3098692A1 (en) Gesture device, operation method for same, and vehicle comprising same
WO2015001606A1 (ja) 撮像システム
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP2014149640A (ja) ジェスチャ操作装置及びジェスチャ操作プログラム
JP6342874B2 (ja) 画像認識装置
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP5136948B2 (ja) 車両用操作装置
JP5912177B2 (ja) 操作入力装置、操作入力方法及び操作入力プログラム
KR20150027608A (ko) 제스처 기반의 원격 조작 시스템 및 그 조작 방법
JP2006327526A (ja) 車載機器の操作装置
US20230143429A1 (en) Display controlling device and display controlling method
JP7163649B2 (ja) ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
JP2016157457A (ja) 操作入力装置、操作入力方法及び操作入力プログラム
WO2016185678A1 (ja) 死角表示装置及び死角表示方法
CN116915944A (zh) 显示控制装置、显示装置及车辆
JP6371589B2 (ja) 車載システム、視線入力受付方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R151 Written notification of patent or utility model registration

Ref document number: 6589796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees