JP6316559B2 - 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム - Google Patents

情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム Download PDF

Info

Publication number
JP6316559B2
JP6316559B2 JP2013188625A JP2013188625A JP6316559B2 JP 6316559 B2 JP6316559 B2 JP 6316559B2 JP 2013188625 A JP2013188625 A JP 2013188625A JP 2013188625 A JP2013188625 A JP 2013188625A JP 6316559 B2 JP6316559 B2 JP 6316559B2
Authority
JP
Japan
Prior art keywords
detection
user
detected
unit
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013188625A
Other languages
English (en)
Other versions
JP2015055999A (ja
Inventor
晋太郎 高田
晋太郎 高田
孝志 松原
孝志 松原
森 直樹
直樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2013188625A priority Critical patent/JP6316559B2/ja
Priority to CN201480010315.2A priority patent/CN105009032B/zh
Priority to US14/769,896 priority patent/US9696814B2/en
Priority to EP14844118.1A priority patent/EP3046006A4/en
Priority to PCT/JP2014/061742 priority patent/WO2015037268A1/ja
Publication of JP2015055999A publication Critical patent/JP2015055999A/ja
Application granted granted Critical
Publication of JP6316559B2 publication Critical patent/JP6316559B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • B60K35/10
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • B60K2360/11
    • B60K2360/146
    • B60K2360/1464
    • B60K2360/21
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Description

本発明は、例えば、車両内に設けられた車載機器を身振り手振りで操作する情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラムに関する。
車両内における車載機器の操作は現状では画面のタッチ操作やジョグダイアル、ハンドルに取り付けられたスイッチ操作などが広く普及している。また、操作の対象となる車載機器はセンターディスプレイに設置されたナビや空調、オーディオに加えて近年では車のフロントガラスに情報を投影するHead Up Display(HUD)が普及しようとしている。このような背景のもと、車載機器の操作は直感的な操作が可能であることや、操作の手間が減ること、操作の際に視線を外す時間が減るという観点などからジェスチャーによる操作が導入されつつある。
例えば、特許文献1には、カメラがスイッチ操作部を表示する画像表示装置に向けた運転者の手の動きを撮影し、その画像情報に基づいてその操作がスイッチ操作部に対する操作であると判断された場合に、スイッチ操作部が操作されたことを示す応答表示をするコンピュータにおいて、センサが操作開始のスタート動作と操作終了の終了動作を検出するし、その検出信号でカメラを撮影開始、撮影終了とする技術が開示されている。
また、特許文献2には、電気機器に対する動作として、制御部が、撮像部が撮像した画像に基づいてユーザの視線方向や動作を検知し、検知したユーザの視線方向や動作に応じて電気機器の状態を制御する処理を行う技術が開示されている。
特開2010−184600号公報 特開2007−034515号公報
しかしながら前述した特許文献1に開示された技術では、ジェスチャーを検出するためにスタートの動作を必要とするため、迅速でシームレスな操作ができない。また、ジェスチャーの終了時にも終了の動作が必要であり、操作の手間が増してしまう。また、ドライバーが車外の歩行者やドライバーへ向けて行ったハンドジェスチャーと、車内の機器(例えばHUDの表示内容)を操作することを意図して行ったジェスチャーとを混同して認識してしまい、機器の誤操作・誤動作を引き起こす。
また、特許文献2に開示された技術では、視線方向を検知するため、ジェスチャーの誤認識による機器の誤操作・誤動作を引き起こすことは軽減され得る。しかしながら、視線はピンポイントでその方向が定まるため、機器に対して正確な方向に視線を向けなければ、機器が動作しない場合があるという問題があった。
本発明は、上記に鑑みてなされたものであって、機器の誤認識を軽減しつつ、機器に対して正確な方向に視線を向けなくとも、その機器を操作することが可能なジェスチャー検出装置、ジェスチャー検出方法、およびジェスチャー検出プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる情報処理装置は、ユーザの動作を検出する情報処理装置であって、撮像部によって撮像された画像からユーザの動作と前記ユーザの顔方向とを検出する検出部と、前記ユーザの顔方向と、記憶部にあらかじめ記憶された前記情報処理装置の位置情報とに基づいて、前記検出部が検出した動作が前記情報処理装置に対する操作であるか否かを判定する検出動作判定部と、前記検出動作判定部が、前記検出部が検出した動作が前記情報処理装置に対する操作であると判定した場合に、前記動作を表示部に反映させる表示内容制御部と、を備えることを特徴とする情報処理装置として構成される。
また、本発明にかかる情報処理装置は、ユーザの動作を検出する情報処理装置であって、撮像部によって撮像された画像からユーザの動作を検出する検出部と、前記ユーザの視線方向と視距離とに基づいて、前記ユーザの注視領域を算出する注視領域算出部と、表示部に前記情報処理装置の虚像を表示し、表示された虚像の領域である虚像領域を算出する虚像領域算出部と、前記注視領域算出部が算出した前記注視領域と、前記虚像領域算出部が算出した前記虚像領域とに基づいて、前記検出部が検出した動作が前記情報処理装置に対する操作であるか否かを判定する検出動作判定部と、前記検出動作判定部が、前記検出部が検出した動作が前記情報処理装置に対する操作であると判定した場合に、前記動作を表示部に反映させる表示内容制御部と、を備えることを特徴とする情報処理装置として構成される。
また、本発明にかかる情報処理装置は、ユーザの動作を検出する情報処理装置であって、ユーザを撮像する撮像部によって撮像された画像からユーザの動作を検出する第1の検出部と、外部を撮像する外部撮像部によって撮像された外部画像から移動体を検出する第2の検出部と、前記ユーザの視線方向と視距離とに基づいて、前記ユーザの注視領域を算出する注視領域算出部と、前記第2の検出部が検出した前記移動体の位置を算出する移動体位置算出部と、前記注視領域と、前記移動体の位置とに基づいて、前記第1の検出部が検出した動作が前記情報処理装置に対する操作であるか否かを判定する検出動作判定部と、前記検出動作判定部が、前記検出部が検出した動作が前記情報処理装置に対する操作であると判定した場合に、前記動作を表示部に反映させる表示内容制御部と、を備えることを特徴とする情報処理装置として構成される。
また、本発明は、上記情報処理装置で実行されるジェスチャー検出方法、およびジェスチャー検出プログラムとしても把握される。
本発明によれば、機器の誤認識を軽減しつつ、機器に対して正確な方向に視線を向けなくとも、その機器を操作することが可能となる。
本発明の第一実施例における車載機システムの構成図(視線方向判別)である。 本発明の第一実施例における車載機システムの構成図(顔方向判別)である。 本発明の第一実施例におけるジェスチャー検出時の動作フローである(視線方向判別)。 ナビが置かれている位置を含む周辺領域を拡張した判別領域の例を示す図である。 本発明の第一実施例におけるジェスチャー検出時の動作フローである(顔方向判別)。 本発明の第一実施例におけるジェスチャー検出時の動作フローである(視線、顔をそらした場合)。 ジェスチャー検出時のドライバーの視線方向を図示したものである。 ジェスチャー検出時のドライバーの視線方向を図示したものである。 ジェスチャー検出時のドライバーの視線方向を図示したものである。 本発明の第二実施例における車載機システムの構成図である。 左目と右目の各視線方向の交点からドライバーの視距離を算出する例を示す図である。 本発明の第二実施例におけるジェスチャー検出時の動作フローである(視線方向)。 本発明の第二実施例におけるジェスチャー検出時の動作フローである(顔方向)。 ドライバーの注視領域とHUD虚像位置の関係を図示したものである。 ドライバーの注視領域とHUD虚像位置の関係を図示したものである。 本発明の第三実施例における車載機システムの構成図である。 本発明の第三実施例におけるジェスチャー検出時の動作フローである(視線方向)。 本発明の第三実施例におけるジェスチャー検出時の動作フローである(顔方向)。 ドライバーの注視領域と歩行者や他車との位置関係を図示したものである。 ドライバーの注視領域と歩行者や他車との位置関係を図示したものである。
以下に添付図面を参照して、本発明にかかる情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラムの実施の形態を詳細に説明する。
(第一実施例)
図1Aは、本実施例におけるジェスチャー検出装置101を搭載した車載機システムの構成図である。本車載機システムはジェスチャー検出装置101を含む車載機102と、表示装置103と、入力装置104とを有して構成されている。
入力装置104は、視線検出装置105とカメラ106を備え、視線検出装置105は、カメラ106が撮像した画像からドライバーの左右それぞれの眼球の黒目の方向を識別し視線方向の情報を出力するものである。視線検出装置105は、一例としては、赤外線を照射するLED(Light Emitting Diode)と赤外光のみを取得するIR(Infrared)カメラから構成される。表示装置103は、ナビ画面107とHead Up Display(HUD)108を有して構成され、HUD108は車のフロントガラスに様々な情報を投影し、表示するものである。
車載機102は、ジェスチャー検出装置101と、車載機制御部114と、表示内容制御部115とを有している。車載機制御部114は、車載機自体の動作の制御を行い、表示内容制御部115は表示装置103に表示する内容の制御、具体的には表示する情報の内容や表示する映像のレイアウトの決定、ドライバーに表示内容を認識させる像(虚像)の位置の決定や、ユーザから指示された操作の結果を反映した内容の表示などを行う。車載機制御部114は、例えば、CPU(Central Processing Unit)等の演算装置から構成される。また、表示内容制御部115は、HUD108に表示する情報をジェスチャー検出装置101に送信する。また、車載機102は、カーナビゲーションとしての基本的な機能を実行するものとする。
ジェスチャー検出装置101は、ジェスチャー検出制御部109と、視線方向算出部110と、動作検出部111と、機器位置情報記録部112と、検出動作判定部113とを有して構成される。ジェスチャー検出制御部109は、ジェスチャーを検出し、その検出結果が機器を操作したかどうか判定するまでの一連の動作を制御する。視線方向算出部110は、視線検出装置105から得られた左右それぞれの眼球の方向情報を基に、ドライバーが車室内におけるどの方向に視線を向けているかを算出する。動作検出部111は、カメラ106から得られた動画像情報からドライバーの動きがあらかじめ規定された動作パターンと一致しているかどうかを判別し、規定の動作を認識検出する。機器位置情報記憶部112は、車室内において、ナビ画面107とHUD108がどこに設置されているか、3次元の座標で記憶する。検出動作判定部113は、動作検出部111、視線方向算出部110、機器位置情報記録部112からの情報を入力情報とし、動作検出部111で検出されたドライバーの動作が機器を操作することを意図して行われた動作かどうかを判定する。
図2Aの動作フローを用いて、ドライバーが機器を操作することを意図して行ったジェスチャーを検出する処理(ジェスチャー検出処理)の処理手順ついて詳細に説明する。なお、以下に示す視線方向の検出処理や顔方向の検出処理については、例えば、特開2012−187190号公報に記載されている方法を用いることができる。
まず、車載機102の電源が投入されるなどして、ドライバーのジェスチャーの検出を開始する。例えば、動作検出部111は、カメラ106の入力映像から、ドライバーがあらかじめ規定された動作(機器を操作するためのジェスチャーとして登録したもの)を行ったか否かを判別し(S201)、規定の動作が検出されたと判別しない場合(S201:No)、検出を続ける。一方、動作検出部111が、規定の動作が検出されたと判別した場合(S201:Yes)、視線方向算出部110は、視線検出装置105から得られたドライバーの眼球の方向を基にして、ジェスチャーが検出された際のドライバーの視線方向を算出する。
次に、検出動作判定部113は、視線方向算出部110が算出したドライバーの視線方向と、機器位置情記録部112に記録されたナビ画面107の位置情報とから、ドライバーの視線がナビ画面107以外の方向を向いていたか否かを判別する(S202)。具体的には、検出動作判定部113は、ドライバーの頭部の3次元における座標と、ナビ画面の3次元の座標を読み出して、検出した視線方向のベクトルが、頭部からナビ画面に向けた方向と一致しているかどうかを判別する。図3Aのように、検出動作判定部113は、視線方向がナビ画面の方向を向いていたと判別した場合(S202:No)、検出したドライバーの動作は、ナビ画面に表示された内容を操作することを意図したジェスチャーであると判別し、検出したジェスチャーと対応する操作の内容を車載機制御部114に送信する。車載機制御部114は、ジェスチャー検出装置101から受信した操作の種類に応じた処理を行い、その処理結果を反映した表示内容を表示内容制御部115が表示装置103に表示を行う(S203)。
一方、検出動作判定部113が、視線方向がナビ画面以外の方向を向いていたと判別した場合(S202:Yes)、ドライバーの視線方向と、機器位置情記録部112に記録されたHUD108の位置情報とから、ドライバーの視線がHUDを向いていたかどうかを判別する(S204)。具体的には、検出動作判定部113は、ドライバーの頭部の3次元における座標と、HUDの3次元の座標を読み出して、検出した視線方向のベクトルが、頭部からHUDに向けた方向と一致しているかどうかを判別する。図3Bのように、検出動作判定部113が、視線方向がHUDの方向を向いていなかったと判別した場合(S204:No)、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、検出した動作の結果を棄却する(S205)。
一方、検出動作判定部113が、図3Cのようにドライバーの視線方向がHUDの方向を向いていたと判別した場合(S204:Yes)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、検出したジェスチャーと対応する操作の内容を車載機制御部114に送信する。車載機制御部114は、ジェスチャー検出装置101から受信した操作の種類に応じた処理を行い、その処理結果を反映した表示内容を表示内容制御部115が表示装置103に表示を行う(S206)。その後、ジェスチャーの検出を続けない場合(S207:Yes)は、本処理を終了する。
なお、本構成においてはドライバーの視線を検知する視線検出装置105および、視線方向算出部110を使用したが、図1Bに示すように、これらとともにあるいはこれらの代わりに、カメラ106の入力映像からドライバーの顔の方向を検知する顔方向検出装置1051を用いて顔方向の情報を出力し、顔方向検出部1101を用いて、ドライバーの顔方向を視線方向の代わりとする構成としても良い。これによって、視線検出装置105を省いた構成を実現でき、部品数とコストの削減を図ることができる。なお、入力映像からドライバーの顔の方向を検知する手法については、例えば、顔方向検出部1101が、顔の特徴部位(目、鼻、口など)を抽出し、その特徴部位が中心から対称となっているか否か、あるいはこれらの特徴部位が非対象となっている程度によって顔の方向やその程度を判定したり、顔画像の陰影の濃度によって顔の方向やその程度を判定する等、様々な技術を用いることが可能である。
また、本構成における一連の動作において、ドライバーの視線がうまく検出できなかった場合(両眼が示す視線方向が同一方向でなく交わることが無い、ドライバーの目が手やサングラスなどで覆われている、などの状況)は、検出動作判定部113は、動作検出部111が検出した動作検出結果を全て、棄却するような構成としてもよい。これによって、ドライバーの視線がうまく検出できないような状況においても、ドライバーが機器を操作することを意図してない動作が、ジェスチャーとして誤認識されることを防ぐことができる。
さらには、視線方向が上手く検知できない場合は、前述した顔方向検出部1101を用いて、視線方向の代わりに顔方向を用いる構成としてもよい。具体的には、検出動作判定部113は、HUDの方向を見ているか否かについて、顔方向が、HUDが存在する領域に向いているか否かによって判別し、ナビを見ているか否かは、ナビが存在する領域を水平方向に拡張した判別領域R(拡張領域)内に対してドライバーの顔方向が向いているか否かによって判別を行う。具体的には、検出動作判定部113は、図2Bに示すように、ナビが置かれている位置を含む周辺領域を拡張した判別領域として判別の対象とし、図2Cに示す手順によって、視線が検出できない場合を考慮してジェスチャー検出処理を行うことも可能である。例えば、ナビが存在する領域に対して、横方向に一定の割合で判別する領域を拡張する。拡張する割合は、一般的にユーザがナビを注視している際の顔向きが示す方向が拡張した領域に含まれるように拡張し、拡張した領域を判別領域とする。図2Cに示すジェスチャー検出処理において、ステップS201〜S207については、図2Aに示した処理と同様であるため、ここではその説明を省略している。
図2Cに示すように、動作検出部111が、規定の動作が検出されたと判別した場合(S201:Yes)、視線方向算出部110は、視線検出装置105から得られたドライバーの眼球の方向を基にして、ドライバーの視線が検出可能であったか否かを判定する(S1101)。
そして、視線方向算出部110が、ドライバーの視線が検出可能であったと判定した場合(S1101;Yes)、S202に進む一方、ドライバーの視線が検出可能でなかったと判定した場合(S1101;No)、検出動作判定部113は、顔方向算出部1101が算出したドライバーの顔方向と、上述した拡張領域とから、ドライバーの顔が拡張領域以外の方向を向いていたか否かを判別する(S1102)。具体的には、検出動作判定部113は、ドライバーの顔の3次元における座標と、拡張領域の座標を読み出して、検出した顔方向のベクトルが、顔からナビ画面に向けた方向と一致しているかどうかを判別する。
検出動作判定部113は、視線方向における判定と同様に、顔方向が拡張領域の方向を向いていたと判別した場合(S1102:No)、検出したドライバーの動作は、ナビ画面に表示された内容を操作することを意図したジェスチャーであると判別し、以降S203と同様の処理を行う(S1103)。
一方、検出動作判定部113が、顔方向がナビ画面以外の方向を向いていたと判別した場合(S1102:Yes)、ドライバーの顔方向と、機器位置情記録部112に記録されたHUD108の位置情報とから、ドライバーの顔がHUDを向いていたかどうかを判別する(S1104)。具体的には、検出動作判定部113は、ドライバーの顔の3次元における座標と、HUDの3次元の座標を読み出して、検出した顔方向のベクトルが、顔からHUDに向けた方向と一致しているかどうかを判別する。
検出動作判定部113は、視線方向における判定と同様に、顔方向がHUDの方向を向いていなかったと判別した場合(S1104:No)、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、以降S205と同様の処理を行う(S1105)。
一方、検出動作判定部113が、ドライバーの視線方向がHUDの方向を向いていたと判別した場合(S1104:Yes)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、以降S206と同様の処理を行う(S1106)。
このように、視線方向が正しく検出できない場合においても、ドライバーが機器を操作することを意図してない動作が、ジェスチャーとして誤認識されることを防ぐことができ、かつ、操作を意図した動作をジェスチャーとして検知することができる。
また、本構成ではHUD108の位置情報は機器位置情報記録部112に保存されているものとしたが、HUDの表示位置や、表示領域は動的に変化するものとし、表示内容制御部115からHUDの表示位置と表示領域の情報を逐次受け取り、機器位置情報記録部112の情報を更新するような構成としてもよい。これによって、HUDに表示する内容が動的に変化するような場合においても、より正確にドライバーがHUDに視線を向けているかどうかを判別することができる。
例えば、図2Bでは、拡張領域が、ナビが存在する領域を水平方向に拡張した判別領域Rである前提で説明したが、例えば、ハンドル位置(右ハンドルまたは左ハンドル)等のドライバーとナビとの相対的な位置によって、あるいはドライバーの利き目によって拡張領域をR’のように右側または左側にずらして設定してもよい。さらには、ドライバーの身長が高い場合には、拡張領域をR”のように高く設定したり、これとは逆に、ドライバーの身長が低い場合には低く設定することも可能である。このように、ドライバーとナビとの相対的な位置やドライバーの特徴に応じて拡張領域を設定することによって、機器の誤認識を軽減しつつ、ドライバーにとってより容易な操作を可能とすることができる。また、このような拡張領域を、ドライバーごとに設定してもよい。この場合、ドライバーが複数いる場合(例えば、車両をシェアして利用する場合等)であっても、ドライバーごとに拡張領域を設定することができる。
また、図2Cに示したS1101において視線が検出されなかった場合(S1101;No)、検出動作判定部113がその回数をカウントしておき、ある期間内に一定の回数となった場合、あるいは連続して一定の回数となった場合、その後はS1101〜S1106の処理を先に行うこととしてもよい。この場合、視線方向が検出されない可能性の高い処理を省略して顔方向を判定するので、ジェスチャーを検出するまでの処理を短縮することができる。
また、本構成では表示装置103がHUD108およびナビ画面107を有し、入力装置104が視線検出装置105や顔検出装置1051、およびカメラ106を有している前提で説明したが、必ずしもこのような構成である必要はなく、例えば、視線検出装置105や顔検出装置1051を車載器102に設ける等、適宜構成を変更することも可能である。すなわち、ジェスチャー検出装置401が、視線方向や顔方向を検出するための情報を取得することができれば、本システムを様々な形態で構成することができる。
以上のように、ドライバーの規定の動作を検出した際に、ドライバーの視線方向をもとに、検出した動作が機器を操作することを意図した動作かどうか判定を行うことで、ドライバーが車内の機器を操作することを意図して行ったジェスチャーのみを検出し、それ以外の動作(例えば車外へ向けたハンドジェスチャーなど)は機器を操作するジェスチャーとして検出しないジェスチャー検出装置を提供することができ、車内における車載機器の直感的な操作、操作の手間の短縮、迅速でシームレスな操作を実現することができる。
なお、本実施例で記述したジェスチャー検出装置は、ナビ画面とHUDに表示された内容を操作することに限定するものでなく、それ以外の空調やオーディオ機器、メーターパネルに表示された内容に対しても適用することができる。さらには、車載機器に搭載することに限定するものではなく、ジェスチャーによって機器の表示内容や状態を操作できるもの、例えば、デジタルサイネージやインタラクションホワイトボード、テレビなどの機器へ搭載することも可能である。この場合、本発明を適用することで、ユーザが機器を操作することを意図しない動作を、誤ってジェスチャーであると認識してしまう事態を防ぐことが可能となる。
(第二実施例)
上述した第一実施例では、ドライバーの視線方向や顔方向を検出することにより、ナビ画面やHUDに表示された内容を操作することを意図したジェスチャーであるか否かを判別することとした。しかし、ドライバーの視線方向や顔方向がナビ画面やHUD方向に向いていなくとも、HUDの虚像の方向を見て操作を行う場合も存在する。そこで、そのような場合に備え、以下では、ドライバーがHUDの虚像の方向を見て操作を行う場合のジェスチャー検出処理について説明する。
図4Aは本実施例におけるジェスチャー検出装置401を搭載した車載機システムの構成図である。本車載機システムはジェスチャー検出装置401を含む車載機402と、表示装置103、入力装置104とから構成されている。また、車載機402は、ジェスチャー検出装置401と車載機制御部114と表示内容制御部115とを有し、ジェスチャー検出装置401は、視線方向・視距離算出部4011と、注視領域算出部4012と、第一実施例とは異なる検出動作判定部4013と、HUD虚像位置算出部4011とを有している点で、第一実施例のジェスチャー検出装置101とは異なっている。以下では、第一実施例と同一の構成要素には同一の符号を付してその説明を省略している。
視線方向・視距離算出部4011は、視線検出装置105から得られた左右それぞれの眼球の方向情報を基に、ドライバーが車室内におけるどの方向に視線を向けているか算出するとともに、図4Bに示すように、左目と右目の各視線方向の交点からドライバーの視距離を算出する。注視領域算出部4012は、視線方向・視距離算出部4011から得られたドライバーの視線方向と視距離から、ドライバーが注視している領域の3次元の空間座標を算出する。
検出動作判定部4013は、第一実施例における処理と同様の処理を行うほか、動作検出部111、視線方向・視距離算出部4011、注視領域算出部4012、HUD虚像位置算出部4014、機器位置情報記録部112からの情報を入力情報とし、動作検出部111で検出されたドライバーの動作が機器を操作することを意図して行われた動作かどうかを判定する。HUD虚像位置算出部4014は、HUD108に表示された内容の虚像が、どの領域に表示されているか、表示内容制御部409から得られた情報を基に3次元の座標で算出する。
図5Aの動作フローを用いて、本実施例におけるジェスチャー検出処理の処理手順ついて詳細に説明する。
まず、車載機の電源が投入されるなどして、ドライバーのジェスチャーの検出を開始する。動作検出部111が、カメラ106の入力映像から、ドライバーがあらかじめ規定された動作(機器を操作するためのジェスチャーとして登録したもの)を行ったか否かを判別し(501)、規定の動作が検出されないと判別した場合(S501:No)、検出を続ける。一方、動作検出部111が、規定の動作が検出されたと判別した場合(S501:Yes)、視線方向・視距離算出部4011は、視線検出装置105から得られたドライバーの眼球の方向を基にして、ジェスチャーが検出された際のドライバーの視線方向と視距離を算出する。
次に、検出動作判定部4013は、視線方向・視距離算出部4011が算出したドライバーの視線方向と、機器位置情記録部112に記録されたナビ画面107の位置情報とから、第一実施例の場合と同様に、ドライバーの視線がナビ画面107以外の方向を向いていたか否かを判別する(S502)。検出動作判定部4013は、視線方向がナビ画面の方向を向いていたと判別した場合(S502:No)、検出したドライバーの動作は、ナビ画面に表示された内容を操作することを意図したジェスチャーであると判別し、検出したジェスチャーと対応する操作の内容を車載機制御部114に送信し、以降第一実施例の場合と同様の処理を行う(S503)。
一方、検出動作判定部4013が、視線方向がナビ画面以外の方向を向いていたと判別した場合(S502:Yes)、ドライバーの視線方向と、機器位置情記録部112に記録されたHUD108の位置情報とから、第一実施例の場合と同様に、ドライバーの視線がHUDを向いていたか否かを判別する(S504)。検出動作判定部4013が、視線方向がHUDの方向を向いていなかったと判別した場合(S504:No)、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、第一実施例の場合と同様の処理を行う(S505)。
一方、検出動作判定部4013が、第一実施例の場合と同様に、ドライバーの視線方向がHUDの方向を向いていたと判別した場合(S504:Yes)、注視領域算出部405は、視線方向・視距離算出部4011から得られた情報をもとに、ドライバーが注視している領域の3次元の座標を算出する(S506)。また、HUD虚像位置算出部406は、HUDに表示された内容の虚像の位置を表示内容制御部409から得られた情報をもとに、虚像の3次元の座標を算出する(S507)。
次に、検出動作判定部4013は、ドライバーの注視領域の中に、HUDの虚像が含まれているか否かを判別する(S508)。図6Aのように、ドライバーの注視領域602の中に表示領域603に表示されたHUD虚像601が含まれていないと判別した場合(S508:No)、検出動作判定部4013は、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、検出した動作の結果を棄却する(S509)。
一方、図6Bのように、検出動作判定部4013は、ドライバーの注視領域の中にHUDの虚像が含まれていたと判別した場合(S508:YES)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、検出したジェスチャーと対応する操作の内容を車載機制御部408に送信し、第一実施例の場合と同様の処理を行う(S510)。その後、ジェスチャーの検出を続けない場合(S511:Yes)は、本処理を終了する。
なお、本構成においてはドライバーの視線と視距離を検知する視線検出装置105および、視線方向・視距離検出部4011を使用したが、これらとともにあるいはこれらの代わりに、第一実施例の場合と同様に、カメラ106の入力映像からドライバーの顔方向を検知する顔方向検出装置1051や顔方向算出部1101を用いて、ドライバーの顔方向を視線方向の代わりとする構成としても良い。この場合、S508における判別処理は顔方向の先にHUDの虚像が表示されているかどうかを判別するような構成とする。これによって、視線検出装置105を省いた構成を実現でき、部品数とコストの削減を図ることができる。
例えば、図5Bに示すように、第一実施例の場合と同様に、動作検出部111が、規定の動作が検出されたと判別した場合(S501:Yes)、視線方向・視距離検出部4011は、視線検出装置105から得られたドライバーの眼球の方向を基にして、ドライバーの視線が検出可能であったか否かを判定する(S2101)。
そして、視線方向・視距離検出部4011が、ドライバーの視線が検出可能であったと判定した場合(S2101;Yes)、S502に進む一方、ドライバーの視線が検出可能でなかったと判定した場合(S2101;No)、検出動作判定部4013は、図1Bに示した顔方向算出部1101が算出したドライバーの顔方向と、HUDの虚像の表示領域とから、ドライバーの顔がその表示領域以外の方向を向いていたか否かを判別する(S2102)。具体的には、検出動作判定部4013は、ドライバーの顔の3次元における座標と、表示領域の座標を読み出して、検出した顔方向のベクトルが、顔からHUDに向けた方向と一致しているかどうかを判別する。
検出動作判定部4013は、視線方向における判定と同様に、顔方向が表示領域の方向を向いていたと判別した場合(S2102:No)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、以降S503と同様の処理を行う(S2103)。
一方、検出動作判定部4013が、顔方向がHUDの虚像の表示領域以外の方向を向いていたと判別した場合(S2102:Yes)、第一実施例の場合と同様に、ドライバーの顔方向と、機器位置情記録部112に記録されたHUD108の位置情報とから、ドライバーの顔がHUDを向いていたかどうかを判別し(S2104)、顔方向がHUDの方向を向いていなかったと判別した場合(S2104:No)、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、以降S505と同様の処理を行う(S2105)。
一方、検出動作判定部4013が、ドライバーの視線方向がHUDの方向を向いていたと判別した場合(S2104:Yes)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、第一実施例の場合と同様に、以降S510、S511に進む。
このように、第二実施例で視線方向が正しく検出できない場合においても、ドライバーが機器を操作することを意図してない動作が、ジェスチャーとして誤認識されることを防ぐことができ、かつ、操作を意図した動作をジェスチャーとして検知することができる。
また、第一実施例の場合と同様に、例えば、ハンドル位置(右ハンドルまたは左ハンドル)等のドライバーとナビとの相対的な位置によって、あるいはドライバーの利き目によってHUDの虚像の表示領域を右側または左側にずらして設定してもよい。さらには、ドライバーの身長が高い場合には、HUDの虚像の表示領域を高く設定したり、これとは逆に、ドライバーの身長が低い場合には低く設定することも可能である。また、このようなHUDの虚像の表示領域を、ドライバーごとに設定してもよい。
また、第一実施例の場合と同様に、図5Bに示したS2101において視線が検出されなかった場合(S1101;No)、検出動作判定部4013がその回数をカウントしておき、ある期間内に一定の回数となった場合、あるいは連続して一定の回数となった場合、その後はS2101〜S2105の処理を先に行うこととしてもよい。
また、本構成における一連の動作において、ドライバーの視線がうまく検出できなかった場合(両眼が示す視線方向が同一方向でなく交わることが無い、ドライバーの目が手やサングラスなどで覆われている、などの状況)は、第一実施例の場合と同様に、検出動作判定部4013は、動作検出部111が検出した動作検出結果を全て、棄却するような構成としてもよく、視線方向が上手く検知できない場合は、前述した顔方向検出部を用いて、視線方向の代わりに顔方向を用いる構成としてもよい。
また、本構成ではHUD108の位置情報は機器位置情報記録部112に保存されているものとしたが、第一実施例の場合と同様に、HUDの表示位置や、表示領域は動的に変化するものとし、表示内容制御部115からHUDの表示位置と表示領域の情報を逐次受け取り、機器位置情報記録部112の情報を更新するような構成としてもよい。
また、本構成では表示装置103がHUD108およびナビ画面107を有し、入力装置104が視線検出装置105や顔検出装置1051、およびカメラ106を有している前提で説明したが、第一実施例の場合と同様に、ジェスチャー検出装置401が、視線方向や顔方向を検出するための情報を取得することができれば、本システムを様々な形態で構成することができる。
以上のように、ドライバーの規定の動作を検出した際に、ドライバーの視線方向や注視領域とHUDの虚像の表示位置をもとに、検出した動作が機器を操作することを意図した動作かどうか判定を行うことで、第一実施例の場合と同様に、ドライバーが車内の機器を操作することを意図して行ったジェスチャーのみを検出し、それ以外の動作(例えば車外へ向けたハンドジェスチャーなど)は機器を操作するジェスチャーとして検出しないジェスチャー検出装置を提供することができ、車内における車載機器の直感的な操作、操作の手間の短縮、迅速でシームレスな操作を実現することができる。
なお、本実施例で記述したジェスチャー検出装置は、ナビ画面とHUDに表示された内容を操作することに限定するものでなく、第一実施例の場合と同様に、それ以外の空調やオーディオ機器、メーターパネルに表示された内容に対しても適用することができる。
(第三実施例)
第一実施例、第二実施例では、車外の状況にかかわらず、ドライバーの視線方向や顔方向を検出することにより、ナビ画面やHUDに表示された内容を操作することを意図したジェスチャーであるか否かを判別することとした。しかし、実際には、ドライバーは、人や他の車両の動き等、車外の状況に影響を受けることも多い。そこで、そのような場合に備え、以下では、ドライバーが車外の状況に影響を受けた場合におけるジェスチャー検出処理について説明する。
図7は本実施例におけるジェスチャー検出装置701を搭載した車載機システムの構成図である。本車載機システムは、ジェスチャー検出装置701を含む車載機702と、表示装置103、入力装置703とから構成されている。また、車載機702は、ジェスチャー検出装置701と車載機制御部114と表示内容制御部115とを有し、ジェスチャー検出装置701は、第二実施例とは異なる検出動作判定部7011と、車外認識部(移動体位置算出部)7012とを有している点で、第二実施例のジェスチャー検出装置401とは異なっている。また、入力装置703は、車外用カメラ7031を備えている点で、第二実施例の入力装置104とは異なっている。以下では、第二実施例と同一の構成要素には同一の符号を付してその説明を省略している。
検出動作判定部7011は、動作検出部111、視線方向・視距離算出部4011、注視領域算出部4012、車外認識部7012、機器位置情報記録部112からの情報を入力情報とし、動作検出部111で検出されたドライバーの動作が機器を操作することを意図して行われた動作かどうかを判定する。
車外認識部7012は、車外用カメラ7031から得られた車外の映像から、歩行者や他車等の車外部の移動体が存在するかどうかを認識し、検出した物体の3次元の座標を算出する。例えば、あらかじめ認識対象となる物体の映像データを保持しておき、入力された映像内に一致する物が存在するかどうかを判定するパターンマッチング処理などを行う。なお、本実施例では、移動体の例として歩行者や他車を例に説明しているが、自転車、自動二輪車等、他の移動体も含まれるものとする。
図8Aの動作フローを用いて、本実施例におけるジェスチャー検出処理の処理手順ついて詳細に説明する。
まず、車載機の電源が投入されるなどして、ドライバーのジェスチャーの検出を開始する。動作検出部111が、カメラ106の入力映像から、ドライバーがあらかじめ規定された動作(機器を操作するためのジェスチャーとして登録したもの)を行ったか否かを判別し(S801)、規定の動作が検出されないと判別した場合(S801:No)、検出を続ける。一方、動作検出部111が、規定の動作が検出されたと判別した場合(S801:Yes)、視線方向・視距離算出部4011は、視線検出装置105から得られたドライバーの眼球の方向を基にして、ジェスチャーが検出された際のドライバーの視線方向と視距離を算出する。
次に、検出動作判定部7011は、視線方向・視距離算出部4011が算出したドライバーの視線方向と、機器位置情記録部112に記録されたナビ画面107の位置情報とから、第二実施例の場合と同様に、ドライバーの視線がナビ画面107を向いていたか否かを判別する(S802)。検出動作判定部7011は、視線方向がナビ画面の方向を向いていた場合(S802:No)、検出したドライバーの動作は、ナビ画面に表示された内容を操作することを意図したジェスチャーであると判別し、検出したジェスチャーと対応する操作の内容を車載機制御部709に送信し、以降第二実施例の場合と同様の処理を行う(S803)。
一方、検出動作判定部7011が、視線方向がナビ画面以外の方向を向いていたと判別した場合(S802:Yes)、ドライバーの視線方向と、機器位置情記録部112に記録されたHUD108の位置情報とから、第二実施例の場合と同様に、ドライバーの視線がHUDを向いていたか否かを判別する(S804)。検出動作判定部7011が、視線方向がHUDの方向を向いていなかったと判定した場合(S804:No)、検出動作判定部7011は、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、第一実施例の場合と同様の処理を行う(S805)。
一方、検出動作判定部7011が、第二実施例の場合と同様に、ドライバーの視線方向がHUDの方向を向いていたと判定した場合(S804:Yes)、注視領域算出部405は、視線方向・視距離算出部4011から得られた情報をもとに、ドライバーが注視している領域の3次元の座標を算出する(S806)。また、車外認識部7012は、車外用カメラ7031から得られた映像から、車外の歩行者や他車等の移動体が存在するかどうかを認識し、検出した物体の位置を3次元の座標で算出する(S807)。
次に、検出動作判定部7011は、ドライバーの注視領域の中に、歩行者や他車等の移動体が含まれているか否かを判別する(S808)。図9Aのように、ドライバーの注視領域903の中に歩行者や他車等の移動体が含まれていたと判別した場合(S808:No)、検出動作判定部7011は、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、検出した動作の結果を棄却する(S809)。
一方、図9Bのように、検出動作判定部7011は、ドライバーの注視領域の中に歩行者や他車等の移動体が含まれていなかったと判別した場合(S808:Yes)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、検出したジェスチャーと対応する操作の内容を車載機制御部709に送信し、第二実施例の場合と同様の処理を行う(S810)。その後、ジェスチャーの検出を続けない場合(S811:Yes)は、本処理を終了する。
なお、本構成においてはドライバーの注視領域内に車外の歩行者や他車等の移動体が含まれているかどうかの判定を行ったが、代わりに注視領域を算出せずにドライバーの視線方向の先に歩行者や他車等の移動体が存在するかどうかの判定を行うような構成としてもよい。これによって、ドライバーの注視領域を算出する必要がなくなり、注視領域がうまく取得できないような場合でも、検出した動作の判定を行うことができる。
また、本構成においてはドライバーの視線と視距離を検知する視線検出装置105および、視線方向・視距離検出部4011を使用したが、これらとともにあるいはこれらの代わりに、第二実施例の場合と同様に、カメラ106の入力映像からドライバーの顔の方向を検知する顔方向検出装置1051や顔方向算出部1101を用いて、ドライバーの顔方向を視線方向の代わりとする構成としても良い。この場合、S808における判別処理は顔方向の先に歩行者や他車等の移動体が存在しているかどうかを判別するような構成とする。これによって、視線検出装置105を省いた構成を実現でき、部品数とコストの削減を図ることができる。
例えば、図8Bに示すように、第二実施例の場合と同様に、動作検出部111が、規定の動作が検出されたと判別した場合(S801:Yes)、視線方向・視距離検出部4011は、視線検出装置105から得られたドライバーの眼球の方向を基にして、ドライバーの視線が検出可能であったか否かを判定する(S3101)。
そして、視線方向・視距離検出部4011が、ドライバーの視線が検出可能であったと判定した場合(S3101;Yes)、S802に進む一方、ドライバーの視線が検出可能でなかったと判定した場合(S3101;No)、検出動作判定部7011は、図1Bに示した顔方向算出部1101が算出したドライバーの顔方向と、車外の歩行者や他車等の移動体の表示領域とから、ドライバーの顔がその表示領域以外の方向を向いていたか否かを判別する(S3102)。具体的には、検出動作判定部7011は、ドライバーの顔の3次元における座標と、表示領域の座標を読み出して、検出した顔方向のベクトルが、顔から車外の歩行者や他車等の移動体に向けた方向と一致しているかどうかを判別する。
検出動作判定部7011は、視線方向における判定と同様に、顔方向が表示領域の方向を向いていたと判別した場合(S3102:No)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、以降S803と同様の処理を行う(S3103)。
一方、検出動作判定部7011が、顔方向が車外の歩行者や他車等の移動体の表示領域以外の方向を向いていたと判別した場合(S3102:Yes)、第二実施例の場合と同様に、ドライバーの顔方向と、機器位置情記録部112に記録されたHUD108の位置情報とから、ドライバーの顔がHUDを向いていたかどうかを判別し(S3104)、顔方向がHUDの方向を向いていなかったと判別した場合(S3104:No)、検出したドライバーの動作は、機器を操作することを意図した動作では無いと判別し、以降S805と同様の処理を行う(S3105)。
一方、検出動作判定部7011が、ドライバーの視線方向がHUDの方向を向いていたと判別した場合(S3104:Yes)、検出したドライバーの動作は、HUDに表示された内容を操作することを意図したジェスチャーであると判別し、第二実施例の場合と同様に、以降S810、S811に進む。
このように、第三実施例で視線方向が正しく検出できない場合においても、ドライバーが機器を操作することを意図してない動作が、ジェスチャーとして誤認識されることを防ぐことができ、かつ、操作を意図した動作をジェスチャーとして検知することができる。
また、第二実施例の場合と同様に、例えば、ハンドル位置(右ハンドルまたは左ハンドル)等のドライバーとナビとの相対的な位置によって、あるいはドライバーの利き目によってHUDの虚像の表示領域を右側または左側にずらして設定してもよい。さらには、ドライバーの身長が高い場合には、HUDの虚像の表示領域を高く設定したり、これとは逆に、ドライバーの身長が低い場合には低く設定することも可能である。また、このようなHUDの虚像の表示領域を、ドライバーごとに設定してもよい。
また、第二実施例の場合と同様に、図8Bに示したS3101において視線が検出されなかった場合(S3101;No)、検出動作判定部7011がその回数をカウントしておき、ある期間内に一定の回数となった場合、あるいは連続して一定の回数となった場合、その後はS3101〜S3105の処理を先に行うこととしてもよい。
また、本構成における一連の動作において、ドライバーの視線がうまく検出できなかった場合(両眼が示す視線方向が同一方向でなく交わることが無い、ドライバーの目が手やサングラスなどで覆われている、などの状況)は、第二実施例の場合と同様に、検出動作判定部7011は、動作検出部111が検出した動作検出結果を全て、棄却するような構成としてもよく、視線方向が上手く検知できない場合は、前述した顔方向検出部を用いて、視線方向の代わりに顔方向を用いる構成としてもよい。
また、本構成ではHUD108の位置情報は機器位置情報記録部112に保存されているものとしたが、第二実施例の場合と同様に、HUDの表示位置や、表示領域は動的に変化するものとし、表示内容制御部115からHUDの表示位置と表示領域の情報を逐次受け取り、機器位置情報記録部112の情報を更新するような構成としてもよい。
また、本構成では表示装置103がHUD108およびナビ画面107を有し、入力装置104が視線検出装置105や顔検出装置1051、およびカメラ106を有している前提で説明したが、第二実施例の場合と同様に、ジェスチャー検出装置401が、視線方向や顔方向を検出するための情報を取得することができれば、本システムを様々な形態で構成することができる。
以上のように、ドライバーの規定の動作を検出した際に、ドライバーの視線方向や注視領域とHUDの虚像の表示位置をもとに、検出した動作が機器を操作することを意図した動作かどうか判定を行うことで、第一実施例の場合と同様に、ドライバーが車内の機器を操作することを意図して行ったジェスチャーのみを検出し、それ以外の動作(例えば車外へ向けたハンドジェスチャーなど)は機器を操作するジェスチャーとして検出しないジェスチャー検出装置を提供することができ、車内における車載機器の直感的な操作、操作の手間の短縮、迅速でシームレスな操作を実現することができる。
なお、本実施例で記述したジェスチャー検出装置は、ナビ画面とHUDに表示された内容を操作することに限定するものでなく、第一実施例の場合と同様に、それ以外の空調やオーディオ機器、メーターパネルに表示された内容に対しても適用することができる。
また、上述した第一実施例〜第三実施例では、ドライバーの視線方向や顔方向を検知してナビやHUDに対する操作であるか否かを判別したが、日差しや対向車の照明等による眩しさから、ドライバーが一瞬だけ目をそらしてしまう場合も存在する。そのような場合に備え、例えば、視線方向算出部や視線方向・視距離算出部、または検出動作判定部が、算出したドライバーの視線方向や顔方向、視距離の座標データを、1秒毎に機器位置情記録部112に時系列に蓄積して記録しておき、検出動作判定部が視線方向や顔方向、視距離が、ナビ画面やHUDの方向、距離でないと判定した場合であっても、その直前あるいは直後の視線方向や顔方向、視距離がナビ画面やHUDの方向、距離である場合には、上述した理由によってドライバーが視線や顔をナビ画面やHUDの方向から外したと判断し、その間の操作はナビ画面やHUDに対する操作として続行させることとしてもよい。
例えば、第一実施例において、図2Dに示すように、検出動作判定部113が、視線方向がナビ以外に向いていたと判定した場合(S202;No)であっても、機器位置情報記憶部112に記録された直前の視線方向がナビ以外に向いていたか否かを判定し(S2021)、機器位置情報記憶部112に記録された直前の視線方向がナビに向いていたと判定した場合(S2021;No)、S203に進んで検出した動作をナビへの操作として反映させたり、検出動作判定部113が、顔方向がナビ以外に向いていたと判定した場合(S1102;No)であっても、機器位置情報記憶部112に記録された直前の顔方向がナビ以外に向いていたか否かを判定し(S11021)、機器位置情報記憶部112に記録された直前の顔方向がナビに向いていたと判定した場合(S11021;No)、S1103に進んで検出した動作をナビへの操作として反映することとしてもよい。第二実施例、第三実施例についても同様に処理することができる。このように、日差しや対向車の照明等による眩しさから、ドライバーが一瞬だけ目をそらした場合であっても、正しくナビやHUDに対する操作を行うことができる。
なお、上述した各実施例における処理はプログラムによって実行され、これらのプログラムは、上述した各部(例えば、視線方向判定部、動作検出部、検出動作判定部等の各部)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記記録媒体から各プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、視線方向判定部、動作検出部、検出動作判定部等の各部が主記憶装置上に生成されるようになっている。
さらに、上述した各実施例では特に説明していないが、上述した各プログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、FD、CD−R、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録して提供したり、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供したり、配布するように構成しても良い。上述した各プログラムを、ROM等に予め組み込んで提供するように構成することももちろん可能である。
101、401、701 ジェスチャー検出装置
102、402、702 車載機
103 表示装置
104 入力装置
105 視線検出装置
1051 顔検出装置
106 カメラ
107 ナビ画面
108 Head Up Display(HUD)
109 ジェスチャー検出制御部
110 視線方向算出部
1101 顔方向算出部
111 動作検出部
112 機器位置情報記録部
113、4013、7011 検出動作判定部
114 車載機制御部
115 表示内容制御部
302 HUD
303 フロントガラス
4011 視線方向・視距離算出部
4012 注視領域算出部
4014 HUD虚像位置算出部
601 HUD虚像
602、903 ドライバー注視領域
603、904 HUD表示領域
7012 車外認識部
7031 車外用カメラ
901 歩行者
902 他車。

Claims (6)

  1. ユーザの動作を検出する情報処理装置であって、
    撮像部によって撮像された画像からユーザの動作と前記ユーザの顔方向と前記ユーザの視線方向とを検出する第1の検出部と、
    外部を撮像する外部撮像部によって撮像された外部画像から移動体を検出する第2の検出部と、
    前記第2の検出部が検出した前記移動体の位置を算出する移動体位置算出部と、
    所定のガラスに投影して虚像を表示する表示装置と、
    前記第1の検出部で検出された前記ユーザの顔方向と前記ユーザの視線方向と、を用いて、前記ユーザの注視領域を算出する注視領域算出部と、
    前記表示装置によって表示された虚像の領域である虚像領域を算出する虚像領域算出部と、
    前記注視領域算出部が算出した前記注視領域が、前記虚像領域算出部が算出した前記虚像領域に含まれており、且つ前記移動体位置算出部が算出した前記移動体の位置が前記注視領域に含まれていない場合、前記第1の検出部が検出したユーザの動作が前記情報処理装置に対する操作であると判定する検出動作判定部と、
    前記検出動作判定部が、前記第1の検出部が検出した動作が前記情報処理装置に対する操作であると判定した場合に、前記ユーザの動作を前記表示装置に反映させる表示内容制御部と、
    を備えることを特徴とする情報処理装置。
  2. 前記検出動作判定部は、前記第1の検出部により、前記ユーザの視線が検出されなかった場合、または前記ユーザの視線が連続して検出されなかった場合には、その回数をカウントし、その回数が所定値に達した場合、前記顔方向による判定を前記視線方向による判定よりも先に実行する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示内容制御部は、前記ユーザと前記情報処理装置との相対的な位置、または前記ユーザの特徴によって前記虚像の表示領域を定める、
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記検出動作判定部は、前記顔方向の座標データを時系列に蓄積して記憶部に記録し、前記第1の検出部が検出した動作が前記情報処理装置に対する操作でないと判定した場合であっても、前記記憶部に記憶されている直前または直後の顔方向が前記情報処理装置の方向である場合には、前記第1の検出部が検出した動作は前記情報処理装置に対する操作であると判定する、
    ことを特徴とする請求項1に記載の情報処理装置。
  5. ユーザの動作を検出するジェスチャー検出方法であって、
    撮像部によって撮像された画像からユーザの動作と前記ユーザの顔方向と前記ユーザの視線方向とを検出する第1の検出ステップと、
    前記第1の検出ステップで検出された前記ユーザの顔方向と前記ユーザの視線方向と、を用いて、前記ユーザの注視領域を算出する注視領域算出ステップと、
    外部を撮像する外部撮像部によって撮像された外部画像から移動体を検出する第2の検出ステップと、
    前記第2の検出ステップで検出された前記移動体の位置を算出する移動体位置算出ステップと、
    所定のガラスに投影して虚像を表示する表示装置によって表示された虚像の領域である虚像領域を算出する虚像領域算出ステップと、
    前記注視領域算出ステップにおいて算出された前記注視領域が、前記虚像領域算出ステップにおいて算出された前記虚像領域に含まれており、且つ前記移動体位置算出ステップで算出された前記移動体の位置が前記注視領域に含まれていない場合、前記第1の検出ステップにおいて検出されたユーザの動作が情報処理装置に対する操作であると判定する検出動作判定ステップと、
    前記検出動作判定ステップにおいて、前記第1の検出ステップにおいて検出した動作が前記情報処理装置に対する操作であると判定した場合に、前記ユーザの動作を前記表示装置に反映させる表示内容制御ステップと、
    を含むことを特徴とするジェスチャー検出方法。
  6. コンピュータに、
    撮像部によって撮像された画像からユーザの動作と前記ユーザの顔方向と前記ユーザの視線方向とを検出する第1の検出ステップと、
    前記第1の検出ステップで検出された前記ユーザの顔方向と前記ユーザの視線方向と、を用いて、前記ユーザの注視領域を算出する注視領域算出ステップと、
    外部を撮像する外部撮像部によって撮像された外部画像から移動体を検出する第2の検出ステップと、
    前記第2の検出ステップで検出された前記移動体の位置を算出する移動体位置算出ステップと、
    所定のガラスに投影して虚像を表示する表示装置によって表示された虚像の領域である虚像領域を算出する虚像領域算出ステップと、
    前記注視領域算出ステップにおいて算出された前記注視領域が、前記虚像領域算出ステップにおいて算出された前記虚像領域に含まれており、且つ前記移動体位置算出ステップで算出された前記移動体の位置が前記注視領域に含まれていない場合、前記第1の検出ステップにおいて検出されたユーザの動作が情報処理装置に対する操作であると判定する検出動作判定ステップと、
    前記検出動作判定ステップにおいて、前記第1の検出ステップにおいて検出した動作が前記情報処理装置に対する操作であると判定した場合に、前記ユーザの動作を前記表示装置に反映させる表示内容制御ステップと、
    を実行させることを特徴とするジェスチャー検出プログラム。
JP2013188625A 2013-09-11 2013-09-11 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム Active JP6316559B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013188625A JP6316559B2 (ja) 2013-09-11 2013-09-11 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
CN201480010315.2A CN105009032B (zh) 2013-09-11 2014-04-25 信息处理装置和姿势检测方法
US14/769,896 US9696814B2 (en) 2013-09-11 2014-04-25 Information processing device, gesture detection method, and gesture detection program
EP14844118.1A EP3046006A4 (en) 2013-09-11 2014-04-25 Information processing device, gesture detection method, and gesture detection program
PCT/JP2014/061742 WO2015037268A1 (ja) 2013-09-11 2014-04-25 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013188625A JP6316559B2 (ja) 2013-09-11 2013-09-11 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム

Publications (2)

Publication Number Publication Date
JP2015055999A JP2015055999A (ja) 2015-03-23
JP6316559B2 true JP6316559B2 (ja) 2018-04-25

Family

ID=52665393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013188625A Active JP6316559B2 (ja) 2013-09-11 2013-09-11 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム

Country Status (5)

Country Link
US (1) US9696814B2 (ja)
EP (1) EP3046006A4 (ja)
JP (1) JP6316559B2 (ja)
CN (1) CN105009032B (ja)
WO (1) WO2015037268A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013224962A1 (de) * 2013-12-05 2015-06-11 Robert Bosch Gmbh Anordnung zum Erstellen eines Bildes einer Szene
JP6331402B2 (ja) * 2014-01-14 2018-05-30 株式会社デンソー 移動体検出装置および移動体検出方法
US10067341B1 (en) 2014-02-04 2018-09-04 Intelligent Technologies International, Inc. Enhanced heads-up display system
US20160231812A1 (en) * 2015-02-06 2016-08-11 The Eye Tribe Aps Mobile gaze input system for pervasive interaction
US10921896B2 (en) 2015-03-16 2021-02-16 Facebook Technologies, Llc Device interaction in augmented reality
CN106327680B (zh) * 2015-06-19 2019-05-31 昆达电脑科技(昆山)有限公司 自动贩卖机
JPWO2017038241A1 (ja) * 2015-08-28 2018-06-14 富士フイルム株式会社 機器操作装置、機器操作方法、及び電子機器システム
CN110825237B (zh) 2016-04-20 2024-02-23 日产自动车株式会社 信息显示方法和显示控制装置
CN107728482A (zh) * 2016-08-11 2018-02-23 阿里巴巴集团控股有限公司 控制系统、控制处理方法及装置
EP3361352B1 (en) 2017-02-08 2019-06-05 Alpine Electronics, Inc. Graphical user interface system and method, particularly for use in a vehicle
CN107219921B (zh) 2017-05-19 2019-09-27 京东方科技集团股份有限公司 一种操作动作执行方法及其系统
DE102017216737A1 (de) * 2017-09-21 2019-03-21 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Senden von Informationen von einem ersten Verkehrsteilnehmer an einen zweiten Verkehrsteilnehmer sowie zum Empfangen von Informationen, die von einem ersten Verkehrsteilnehmer an einen zweiten Verkehrsteilnehmer gesendet worden sind
EP3797345A4 (en) * 2018-05-22 2022-03-09 Magic Leap, Inc. TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM
WO2020019231A1 (en) * 2018-07-26 2020-01-30 Bayerische Motoren Werke Aktiengesellschaft Apparatus and method for use with vehicle
WO2020037681A1 (zh) * 2018-08-24 2020-02-27 太平洋未来科技(深圳)有限公司 视频生成方法、装置及电子设备
JP6907250B2 (ja) * 2019-01-18 2021-07-21 矢崎総業株式会社 車両用表示装置
WO2020170916A1 (ja) * 2019-02-22 2020-08-27 パナソニックIpマネジメント株式会社 状態検知装置及び状態検知方法
DE112019007195T5 (de) 2019-04-12 2022-03-31 Mitsubishi Electric Corporation Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
JP7247901B2 (ja) * 2020-01-07 2023-03-29 トヨタ自動車株式会社 移動体制御装置、移動体制御方法、およびプログラム
JP7354056B2 (ja) * 2020-05-27 2023-10-02 本田技研工業株式会社 車両制御システム、及び車両制御方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (ja) * 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
US20060210111A1 (en) * 2005-03-16 2006-09-21 Dixon Cleveland Systems and methods for eye-operated three-dimensional object location
JP2007034515A (ja) 2005-07-25 2007-02-08 Sony Computer Entertainment Inc 電気機器の制御装置、電気機器の制御方法、電気機器の制御プログラム及び電気機器の制御システム
JP4622794B2 (ja) * 2005-10-07 2011-02-02 株式会社デンソー 画面移動型表示装置
JP2008157661A (ja) * 2006-12-21 2008-07-10 Denso It Laboratory Inc ナビゲーション装置
JP4826506B2 (ja) * 2007-02-27 2011-11-30 日産自動車株式会社 視線推定装置
CN101311882A (zh) * 2007-05-23 2008-11-26 华为技术有限公司 视线跟踪人机交互方法及装置
JP5207513B2 (ja) * 2007-08-02 2013-06-12 公立大学法人首都大学東京 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
JP4702437B2 (ja) * 2008-11-25 2011-06-15 トヨタ自動車株式会社 車両用表示装置
JP2010127673A (ja) * 2008-11-26 2010-06-10 Calsonic Kansei Corp 車両用入力装置
JP2010184600A (ja) 2009-02-12 2010-08-26 Autonetworks Technologies Ltd 車載用ジェスチャースイッチ装置
JP2010215194A (ja) * 2009-03-19 2010-09-30 Hyundai Motor Co Ltd 車載機器の操作装置
JP5150610B2 (ja) * 2009-12-03 2013-02-20 本田技研工業株式会社 注視判定装置
JP5316430B2 (ja) * 2010-01-13 2013-10-16 株式会社デンソー 車両用ヘッドアップディスプレイ装置及びその製造方法
JP2012022589A (ja) * 2010-07-16 2012-02-02 Hitachi Ltd 商品選択支援方法
JP5626039B2 (ja) 2011-03-09 2014-11-19 富士通株式会社 視線検出装置及び視線検出方法
JP2013019964A (ja) * 2011-07-07 2013-01-31 Panasonic Corp 車両用画像表示装置
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
US9383579B2 (en) * 2011-10-12 2016-07-05 Visteon Global Technologies, Inc. Method of controlling a display component of an adaptive display system
US20130187845A1 (en) 2012-01-20 2013-07-25 Visteon Global Technologies, Inc. Adaptive interface system

Also Published As

Publication number Publication date
JP2015055999A (ja) 2015-03-23
EP3046006A4 (en) 2017-08-02
US9696814B2 (en) 2017-07-04
EP3046006A1 (en) 2016-07-20
US20160004321A1 (en) 2016-01-07
CN105009032B (zh) 2017-10-03
WO2015037268A1 (ja) 2015-03-19
CN105009032A (zh) 2015-10-28

Similar Documents

Publication Publication Date Title
JP6316559B2 (ja) 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
JP6232759B2 (ja) 情報処理装置、接近対象物通知方法及びプログラム
EP2974909A1 (en) Periphery surveillance apparatus and program
US20170269684A1 (en) Vehicle display device
US20140136054A1 (en) Vehicular image system and display control method for vehicular image
US11741630B2 (en) Vehicle system with no-control operation
WO2018061413A1 (ja) ジェスチャ検出装置
WO2015001606A1 (ja) 撮像システム
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP4789885B2 (ja) インタフェース装置、インタフェース方法及びインタフェースプログラム
CN109415018B (zh) 用于数字后视镜的方法和控制单元
KR20210120398A (ko) 차량에 탑재된 CMS 사이드 디스플레이(Camera Monitoring System Side Display)를 이용하여 영상을 디스플레이하는 전자 장치 및 그 동작 방법
JP2017097608A (ja) 画像認識装置
WO2017022262A1 (ja) 作業機械の周囲監視装置
TWI636395B (zh) 基於深度值之手勢操作方法及其系統
JP6700502B2 (ja) 車両用表示制御装置および表示制御方法
JP6234701B2 (ja) 車両用周囲モニタ装置
WO2013114871A1 (ja) 運転支援装置及び運転支援方法
JP7163649B2 (ja) ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
CN110015292B (zh) 车辆控制装置及车辆控制方法
JP2009110065A (ja) 運転支援装置
JPWO2018167815A1 (ja) 表示制御装置及び表示制御方法
KR20150056235A (ko) 헤드업 디스플레이 장치 및 그 디스플레이 방법
JP2024018746A (ja) データ処理装置及びデータ処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180328

R150 Certificate of patent or registration of utility model

Ref document number: 6316559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150