JP2017027604A - 車両の乗員の視線方向を推定する方法および装置、ならびに車両の乗員に特有の頭部動作増強パラメータを決定する方法および装置 - Google Patents

車両の乗員の視線方向を推定する方法および装置、ならびに車両の乗員に特有の頭部動作増強パラメータを決定する方法および装置 Download PDF

Info

Publication number
JP2017027604A
JP2017027604A JP2016145108A JP2016145108A JP2017027604A JP 2017027604 A JP2017027604 A JP 2017027604A JP 2016145108 A JP2016145108 A JP 2016145108A JP 2016145108 A JP2016145108 A JP 2016145108A JP 2017027604 A JP2017027604 A JP 2017027604A
Authority
JP
Japan
Prior art keywords
head
occupant
movement
eye
eccentricity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016145108A
Other languages
English (en)
Other versions
JP6768390B2 (ja
Inventor
ハンス−ヨアヒム・ビーク
Bieg Hans-Joachim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2017027604A publication Critical patent/JP2017027604A/ja
Application granted granted Critical
Publication of JP6768390B2 publication Critical patent/JP6768390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】観察者の視線方向をより正確に推定する方法及び装置並びに車両の乗員に特有の頭部動作増強パラメータを決定する方法及び装置を提供する。
【解決手段】方法は、車両100の乗員102の視線方向130を推定する方法であって、最新の頭部動作の角速度に関するセンサデータ120を使用して、乗員の頭部114の最新の頭部動作が終了する頭部固定位置を検出する検出ステップと、乗員の視線方向を推定するために、頭部固定位置と、対象を注視する場合に人の特有の頭部動作パターンの関数である頭部動作増強パラメータとを組み合わせる組合せステップとを含む。
【選択図】図1

Description

本発明は、独立請求項の前提部分に記載の方法または装置に関する。本発明は、さらにコンピュータプログラムに関する。
観察者である人の視線方向の推定は種々異なる技術システムで使用される。例えば、論文「ドライバの注意力のビデオに基づいた監視および走行支援システムの調整」(イルメナウ工科大学、2010年)において、最新の頭部の向きに依存して車両のドライバの視線方向を推定する方法を的確に記述している。この推定を利用して、ドライバがまだ道路に視線を向けているかどうか、交通状況に注意深く従っているかどうかを検出し、必要に応じて、走行支援システム、例えば警告システムの動作を調整する。
観察者の目の動きを測定することによって、観察者の視線方向をより正確に推定することができる。目の動きは、ビデオに基づいたヘッドトラッキングシステムおよび/またはアイトラッキングシステム、すなわち、観察者の頭部および/または目の動きの追跡システムを使用して測定することができる。これらのシステムは、一般にまず一義的な顔の特徴に基づいて観察者の頭部動作を推定する。第2ステップでは、観察者の目および目の特徴、例えば瞳孔、強膜または角膜反射が検出される。これらの特徴を使用して、目の回転を推定し、観察者の視線方向をより正確に推定する。
例えば、国際公開第01/52722号パンフレットは、使用者の視線方向を検出するための装置を記載しており、この装置は、使用者の目に向けて光線を生成するように配置された光源と、目において反射された光線を検出するための検出器とを備える。
国際公開第01/52722号パンフレット
論文「ドライバの注意力のビデオに基づいた監視および走行支援システムの調整」(イルメナウ工科大学、2010年)(Trefflich, Benjamin. Videogestutzte Uberwachung der Fahreraufmerksamkeit und Adaption von Fahrerassistenzsystemen. Diss. Ilmenau, Techn. Univ., Diss., 2010, 2010.)
このような背景を考慮して、ここで説明する方式では、車両の乗員の視線方向を推定する方法およびこの方法を使用した装置、車両の乗員に特有の頭部動作増強パラメータを決定する方法およびこの方法を使用した装置、および独立請求項に記載の適切なコンピュータプログラムを説明する。従属請求項に記載の措置により、独立請求項に記載の装置の有利な構成および改良が可能である。
ここで説明する構成では、観察者の頭部動作と目の動きとの関係に関する情報に基づいて、観察者の視線方向を推定することが可能である。
この新しい構成は、人が向きを変える動作は頭部動きおよび目の動きを含むという事実を利用しており、対象を注視する場合のこれら2つの動きの既知の関係、すなわち、一方では経時変化、他方では2つの動きの相違を利用する。
ここで提案する方式によって、目の回転に関する情報が提供されておらず、視線方向の推定のために頭部の向きに関する情報しか提供されていない場合に、観察者の視線方向をより正確に推定することが可能になる。このようにしてセンサデータの隙間を埋めることができ、ヘッドトラッキングシステムまたはアイトラッキングシステムの信頼性が高められる。
ここで説明した構成により可能となる視線方向の推定では、検出範囲が制限されていることによってセンサデータが不十分な周辺環境においても、観察者の視線方向変化の推定の確実性が改善される。
車両の乗員の視線方向を推定する方法を説明する。この方法は、
最新の頭部動作の角速度に関するセンサデータを使用して、乗員の最新の頭部動作が終了する頭部固定位置を検出するステップと;
乗員の視線方向を推定するために、頭部固定位置と、対象を注視する場合のその乗員に特有の頭部動作パターンの関数である頭部動作増強パラメータとを組み合わせる組合せステップと
を含む。
この方法は、道路を走行する車両で実施することができる。乗員は、車両のドライバであってもよい。推定したい乗員の視線方向は、少なくとも2つの位置データを使用して、例えば3次元空間におけるベクトルを用いて示すことができ、最新の頭部動作の終了時に、乗員が乗員を包囲する環境のどの範囲を注視したかについての情報を提供することができる。
最新の頭部動作は、ヨー軸または横軸(ピッチ軸)を中心とした頭部の回転動作であってもよい。この場合、回転もしくは旋回動作は、動作の大きさに応じた角度をなす。頭部固定位置は、乗員が頭部動作の終了後に頭部を再び安定的に保持した時点における頭部の位置または向きを表してもよい。車両の光学センサによって検出され、電気信号の形式で供給された画像情報を、頭部動作の角速度に関するセンサデータとして用いてもよい。
頭部動作パターンは、対象を注視するために目の回転および補足的な頭部回転を行う場合の人の癖または傾向を表してもよい。頭部動作パターンは数式によって記述することもできる。頭部動作パターンを数学的に決定する場合に、注視する際に特有の目の回転および補足的な特有の頭部回転との比率を生成するために、頭部動作パターンの関数として頭部動作増強パラメータを形成してもよい。この場合、頭部動作増強パラメータとして、調整可能な値が設けられる。この値は、目の回転と頭部の回転の比率と異なる他の大きさの関数であってもよい。
この方法は、例えば制御装置において、ソフトウェアまたはハードウェアで実行してもよいし、ソフトウェアとハードウェアとからなる混合形式で実行してもよい。
一実施形態では、検出ステップで、センサデータが、頭部休止位置と頭部固定位置との間に形成される角度における角速度を表してもよい。この場合、検出された頭部動作の角速度を表すセンサデータから頭部固定位置が検出される。ここで説明した方式のこのような実施形態では、現在の車両において既に設けられていることの多いセンサ装置によって簡単に検出される動作を、視線方向を推定するという形でさらに使用できるという利点をもたらす。すなわち、休止位置と頭部固定位置との間に形成される角度におけるこの動きは、既に供給されているセンサ信号値から決定することもでき、したがって、ここで提案した方式を実施するためにはわずかな数値的または回路技術的な手間しか必要としない。
別の実施形態によれば、この方法は、最新の頭部動作の角度の関数として、複数の頭部動作増強パラメータの内から頭部動作増強パラメータを選択する選択ステップを含む。このようにして、保存された値を使用してコンピュータ容量を節約することができる。
さらにこの方法は、車両の光学センサのインターフェイスを介して乗員の最新の頭部動作の角速度についてのセンサデータを読み取る読取ステップを含む。このようにして、常に更新しながら最新のセンサデータを供給することができる。
さらに車両の乗員に特有の頭部動作増強パラメータを決定する方法を説明する。この方法は、
目の偏心度が、休止位置からの目の最新の動きが終了する固定位置までの動きにおける乗員の目の向きの角度差を表し、頭部の偏心度は、休止位置からの最新の頭部動作が終了する固定位置までの動作における乗員の頭部の向きの角度差を表す場合に、少なくとも1回対象を注視した場合の乗員の目の偏心度および頭部の偏心度についてのセンサデータを使用して、対象を注視した場合の乗員に特有の頭部動作パターンを形成する形成ステップと;
特有の頭部動作パターンを使用して、乗員に特有の頭部動作増強パラメータを決定するステップと
を含む。
角度差は角度として理解することができる。目の偏心度は、ここでは休止位置における目の視線方向と、対象を注視した後、すなわち、対象を注視するか、または対象を追跡するために目を動かした後の目の視線方向との間の角度であってもよい。目の固定位置は、目が対象を注視した場合の目の位置もしくは視線方向として理解することもできる。頭部の偏心度は、対象を注視するために頭部が回転される角度として理解することができる。目の偏心度と頭部の偏心度は、大きさが異なっていてもよい。なぜなら、例えば対象を注視するためにはまず目が対象に向けて側方に回転され、頭部は、追従する緩慢な動きによって同様に対象に向けて回転され、この場合に頭部は目と同じくらい遠くまで回転されなくてもよいからである。
この方法は、例えば制御装置において、ソフトウェアまたはハードウェアで実行してもよいし、ソフトウェアとハードウェアとからなる混合形式で実行してもよい。
方法の一実施形態によれば、乗員に特有の頭部動作パターンを形成する形成ステップでは、複数回対象を注視した場合の乗員の目の偏心度の多数のセンサデータおよび頭部の偏心度の多数のデータの平均値を基にしてもよい。この実施形態によって、測定エラーを容易に補正することができる。
さらに、乗員に特有の頭部動作パターンを形成する形成ステップは、所定の較正時間に、および/または車両内の光学検出範囲で行うことができる。このようにして、さらに乗員に特有の頭部動作パターンを容易に形成することができる。
乗員に特有の頭部動作増強パラメータを決定するステップでは、頭部の偏心度に関するセンサデータに対応する頭部動作パターンの頭部偏心値と、目の偏心度に関するセンサデータに対応する頭部動作パターンの目の偏心値との割算が行われる。この場合、頭部偏心値は割算の被除数を形成し、目の偏心値は割算の除数を形成してもよい。ここで説明した方式のこのような実施形態は、頭部動作増強パラメータの導出を数値的または回路技術的に極めて簡単に実現することができ、したがって、ここで提案した方式を安価に実施することもできるという利点を提供する。
乗員に特有の頭部動作増強パラメータを決定するステップで、あらかじめ設定された値が特有の頭部動作増強パラメータとして初期設定され、乗員の目の偏心度の最新のセンサデータ値および頭部の偏心度の最新のセンサデータ値が所定の時間間隔をおいて更新および/または変更されることも好ましい。したがって、頭部動作増強パラメータを提供する際の遅延時間は特に短い。
この方法は、別の実施形態によれば、対象を注視した場合の乗員の目の動きの角速度に関するセンサデータを使用して目の固定位置を検出するステップを含んでいてもよい。好ましくは、頭部動作増強パラメータを特に正確に決定することができる。
さらに、車両の乗員の視線方向を推定する方法を説明する。この方法は、上記方法の実施形態のステップを実施する。
この方法も、例えば制御装置において、ソフトウェアまたはハードウェアで実行してもよいし、ソフトウェアとハードウェアとからなる混合形式で実行してもよい。
ここで説明した方式により、ここで説明した方法の他の実施形態のステップを、さらに適宜な装置において実施、制御もしくは変更するように構成された装置も得られる。装置として構成された本発明の実施形態によって、本発明の基礎をなす課題を迅速かつ効率的に解決することもできる。
この場合、装置は、センサ信号を処理し、センサ信号の関数として制御信号および/またはデータ信号を出力する電気機器として理解することもできる。装置は、ハードウェアおよび/またはソフトウェアによって形成することもできるインターフェイスを備えていてもよい。ハードウェアとして構成されている場合、インターフェイスは、例えば、装置の種々異なる機能を含む、いわゆる「システムASIC」の一部であってもよい。しかしながら、インターフェイスは、固有の集積回路であるか、または少なくとも部分的に個別の構成部材からなっていることも可能である。ソフトウェアとして構成されている場合には、インターフェイスは、例えば、他のソフトウェアモジュールと共にマイクロコントローラに設けられているソフトウェアモジュールであってもよい。
コンピュータプログラム製品、またはプログラムコードを備えるコンピュータプログラムも有利であり、プログラムコードは、機械読取可能な担体またはメモリ媒体、例えば半導体メモリ、ハードディスクメモリ、または光学メモリなどに保存されていてもよく、特にプログラム製品またはプログラムがコンピュータまたは装置で実施される場合に上記いずれかの実施形態にしたがって方法ステップを実行、変更および/または制御するために使用される。
一実施例にしたがって車両の乗員の視線方向を推定するための装置を備える車両の原理図である。 一実施例にしたがって車両の乗員の視線方向を推定するための装置を示すブロック線図を示す。 一実施例にしたがって車両の乗員に特有の頭部動作増強パラメータを決定する方法を示すフロー図である。 一実施例にしたがって車両の乗員の視線方向を推定する方法を示すフロー図である。 一実施例にしたがって車両の乗員の視線方向を推定する方法を示すフロー図である。 一実施例にしたがって特有の頭部動作パターンの関数として頭部動作を示す概略図である。 一実施例にしたがって特有の頭部動作パターンの関数として頭部動作を示す概略図である。 一実施例にしたがって特有の頭部動作パターンの関数として頭部動作を示す概略図である。
以下に説明する本発明の好ましい実施例を様々な図面に示し、同様に作用する部材には、同じ符号または同様の符号を使用し、これらの部材については繰り返し説明しない。
図1は、車両100の原理図を示す。車両100は、乗用車またはトラックなどの道路を走行する車両である。さらに車両100の乗員102、ここではドライバが示されている。
車両100は、乗員102の頭部および目の動きを追跡またはトラッキングするためのビデオに基づいた動作追跡システム104を備える。以下では、動作追跡システム104をヘッドトラッキングシステムまたはアイトラッキングシステム104とも呼ぶ。ヘッドトラッキングシステムまたはアイトラッキングシステム104の課題は、特に乗員102が車両100のドライバである場合に、乗員102が交通状況に視線を向けたか否かを確認することである。したがって、以下では乗員102を観察者102と呼ぶこともある。ヘッドトラッキングシステムまたはアイトラッキングシステム104の適宜なデータを使用して、必要に応じて車両100のドライバアシストシステムまたは警告システムを起動することもできる。
一般に、最新の頭部または目の位置および向きを決定するヘッドトラッキングシステムおよびアイトラッキングシステムの能力は、システムおよびシステムの検出範囲の一般的な信頼性に依存している。ヘッドトラッキングは、一般にアイトラッキングよりも信頼性がある。なぜなら、追跡可能な表情の数がより多く、表情はより大きく、明るい太陽光などの外部の妨害作用を受けにくいからである。例えば、アイトラッキングシステムは、太陽などの明るい外部光源によって妨害されやすい角膜の小さい光沢表面の測定に基づいて作動することが多い。このような光沢表面は、角膜反射またはプルキニエ像の概念で知られている。
ヘッドトラッキングは、一般にアイトラッキングよりも大きい検出範囲を用いて作動する。頭側部、例えば耳の一部などの可視的特徴に基づいて、頭部の向きを決定することもできる。これは、広範囲の頭部回転が行われる状況、例えば車両内で肩越しに見る場合に好都合である。この場合、頭部は一般に90度まで回転される。このような状況では、システムはおそらくまだ頭部を追跡もしくはトラッキングできるが、しかしながら、もはや目をトラッキングするために目の特徴を検出することはできない。
要約すれば、目の向きに基づいて観察者の視線方向を推定する方が、頭部の向きに基づいて推定するよりも正確であるが、しかしながら、データが得られる確実性が低いという欠点を有するといえる。
図1に示した例示的なヘッド・アイトラッキングシステム104は、少なくとも第1光学センサ108および第2光学センサ110を備える車両カメラ装置106もしくは車両カメラシステム106と、一実施例にしたがって乗員102の視線方向を推定するための装置112とを含む。
車両カメラ装置106は、車両内部空間に配置されている。第1光学センサ108および第2光学センサ110は乗員102の頭部114に向けられている。この場合、第1光学センサ108は、乗員102の目116の動き、特に回転運動を検出するように構成されている。第2光学センサ110は、乗員102の頭部114の動き、特に回転運動を検出するように構成されている。この場合、第1光学センサ108および第2光学センサ110は、組み込まれたセンサユニット、例えばビデオカメラなどの一部であり、それぞれのモジュールは、第1センサ信号の出力時に目の動きを検出する場合には第1光学センサ108として、第2センサ信号の出力時に頭部の動きを検出する場合には第2光学センサ110として理解することができる。したがって、一般に両方の光学センサ108および110は、頭部姿勢および目の向きを計算することができるビデオカメラなどの組み込まれたセンサである。計算能力の違いは、上述のように、関連する特徴の見え方が異なることによって生じる(例えば、頭部姿勢を推定するための鼻孔と目の向きを推定するための角膜反射)。
装置112は、乗員102の最新の目の動きの角速度に関するセンサデータ118を使用して、最新の目の動きが終了する目116の固定位置を決定し、乗員102の最新の頭部動作の角速度に関するセンサデータ120を使用して、最新の頭部動きが終了する頭部114の固定位置を決定するように構成されている。
一実施例によれば、センサデータ118は、最新の目の動き開始前の目116の休止位置と、最新の目の動きの終了時の目116の固定位置との間に形成される角度における角速度を表す。同様に、センサデータ120は、最新の頭部114の動き開始前の休止位置と、最新の頭部動作の終了時の頭部114の固定位置との間に形成される角度における角速度を表す。
目の動きを検出するための第1光学センサ108の検出範囲122は、頭部の動きを検出するための第2光学センサの検出範囲124よりも小さい。観察者102が頭部114を大きく左方向または右方向に回転させた場合、頭部114は第2光学センサ110の検出範囲124の内部に留まるが、目116は第1光学センサ108の検出範囲122の外側へ移動する。したがって、このように大きい頭部回転の終了時にはもはや目の固定位置を確認することはできず、乗員102の視線方向を決定するために目の固定位置を使用することはできない。
さらに装置112は、対象を注視した場合の乗員102の目116の偏心度についてのセンサデータ126および乗員102の頭部114の偏心度についてのセンサデータ128を使用して、乗員102に特有の頭部動作パターンを形成し、この頭部動作パターンに基づいて、乗員102に特有の頭部動作増強パラメータを決定するように構成されている。
この場合、目の偏心度は、対象を注視し、目116が固定位置に到達した場合の乗員102の目116の向きと目116の休止位置との角度差を表す。頭部の偏心度は、対象が注視され、頭部114の固定位置に到達した場合の乗員102の頭部114の向きと頭部114の休止位置との角度差を表す。
装置112は、乗員102の目116の最新の固定位置についてのセンサデータが供給されていない場合に、頭部固定位置および頭部動作増強パラメータを使用して乗員102の視線方向130を推定するように構成されている。
実施例にしたがって、装置112は乗員102に特有の頭部動作増強パラメータの代わりに、対象を注視した場合の目および頭部の動きの経験的データに基づいて生成された一般的な頭部動作増強パラメータを使用することもできる。
図1に示す構成では、ヘッドおよびアイトラッキングシステム104はビデオに基づいており、正面から観察者102に向けられた単一の車両カメラ装置106を備える。しかしながら、ここで説明した装置112は、他の装置またはビデオに基づいていないヘッドトラッキングシステムおよび/またはアイトラッキングシステムと組み合わせて使用することもできる。
ヘッドおよびアイトラッキングシステム104は、一定の時間間隔をおいて、例えば毎秒60回の走査を行い、最新の視線方向角度の測定値を供給する。ヘッドおよびアイトラッキングシステム104は、特定の走査率に束縛されない。
図2は、図1に示した乗員の視線方向を推定するための装置112の実施例のブロック線図を示す。装置112は、車両の乗員に特有の頭部動作増強パラメータを決定するための装置200および乗員の視線方向を推定するための装置202を含む。
装置200は、適切なインターフェイスを介して、対象を注視した場合の乗員の目の偏心度のセンサデータ126および頭部の偏心度のセンサデータ128を読み取り、センサデータ126,128を使用して、乗員に特有の頭部動作パターン204を形成するように構成されている。さらに装置200は、特有の頭部動作パターン204を使用して、乗員に特有の頭部動作増強パラメータ206を決定し、装置202に供給するように構成されている。
装置202は、適切なインターフェイスを介して、乗員の最新の頭部動作の角速度に関するセンサデータ120を読み取り、センサデータ120を使用して、最新の頭部動作が終了する乗員の頭部の頭部固定位置208を決定するように構成されている。さらに装置202は、頭部動作増強パラメータ206および頭部固定位置208を使用して、乗員の視線方向130を推定するように構成されている。
一実施例によれば、装置112は、頭部動作について供給された角度情報を分析するように構成されており、例えば3つのモジュールを含む。
第1モジュールは、頭部動作の動特性を分析し、いつ頭部が比較的安定した向き、すなわち、頭部固定位置208に到達したか、もしくは頭部の固定が行われたかを決定する。人の方位もしくは向きを変える動作は、一般に急激な目の動き「サッカード」を含み、このような目の動きには、頭部のゆっくりとした補正動作が続く。この下位システムは、供給された頭部の角度情報から速度を計算し、いつ補正動作が終了したかを決定する。
次に第2モジュールは視線方向130を決定する。目の情報が提供されている場合、すなわち、乗員の目が、割り当てられたセンサの検出範囲内に位置し、外部の妨害作用が生じていない場合には、最新の視線情報が目の情報から直接に推定される。目の情報が提供されていない場合には、視線方向130は頭部の情報のみから推定される。この場合、システムは最新の安定した頭部の向き208に基づいて視線方向130を推定する。このモジュールは、視線方向(A)130を次のように:
A=γA
計算する。
この場合、Aは、頭部の向き208の偏心度のセンサデータ128、すなわち、0度の休止位置からの角度差を表す。γは、観察者に特有の増強パラメータ206を表す。この個別の増強パラメータ206は、所定の偏心度をもって目標対象を注視する場合に人によって頭部の回転の仕方が異なるという事情による。
代替的な構成では、様々な個人に関して有効な一般的な増強率調整について、例えば、回転が15度未満の動きの場合には増強率を小さくし、動きがこれよりも広範囲の場合には増強率を大きくするといった演繹的な知識をもたらすことができる。段階的な増強関数にこの知識を取り入れてもよい。
第3モジュールは、個人の増強パラメータγ206の計算を行う。この増強パラメータ206は、目の情報および頭部の情報が提供されている場合、すなわち、例えば目が、割り当てられたセンサの検出範囲内に位置し、外部の妨害作用が生じてない場合に行われる視線方向の変更に基づいて、直接に推定される。この場合には、対象を注視した場合に目および頭部の偏心度を比較するためにデータを収集することができる。増強パラメータ206は、次の式:
Figure 2017027604
によって推定される。
この場合、γは複数の注視iの平均的な増強率として推定される。個人の注視の増強率は、注視した場合の頭部Aおよび目Aの偏心度の係数である。これについては図7も参照されたい。注視は目の動きを含み、目の動きには、これに伴う頭部動作および頭部固定が続く。目の固定は、異なる方法によって決定することができ、例えば、目が比較的安定している場合には、上述のように頭部の固定と同様に測定することによって決定することもできる。
一実施例によれば、増強パラメータ206の初期推定は、所定の較正段階における固定値から生成することができ、較正段階には、観察者は頭部および目の検出範囲内に留まるよう指示される。
代替的には、増強パラメータ206はあらかじめ設定された値によって開始され、この値はトラッキング時間中に連続的に更新され、両方のセンサ、すなわち、頭部の検出センサおよび目の検出センサによって、固定値データが提供される場合にはいつも観察者それぞれの頭部の回転の仕方に合わせて調整される。別の言い方をすれば、この場合、増強パラメータ206は、頭部および目の固定値の移動するウィンドウに基づいて計算される。
図3は、車両の乗員に特有の頭部動作増強パラメータを決定する方法300の一実施例を示すフロー図である。方法300は、図2に示した車両の乗員に特有の頭部動作増強パラメータを決定する装置によって実施することができる。
生成ステップ302では、物体を注視した場合に乗員に特有の頭部動作パラメータが生成される。このために、乗員が対象を注視した場合の乗員の目の偏心度および頭部の偏心度についてのセンサデータが使用される。決定ステップ304では、特有の頭部動作パターンを使用して、乗員に特有の頭部動作増強パラメータが決定される。
図4は、車両の乗員の視線方向を推定する方法400の一実施例のフロー図を示す。方法400は、図2に示した乗員の視線方向を推定する装置によって実施することができる。
読取ステップ402では、車両の光学センサのインターフェイスを介して、乗員の最新の頭部動作の角速度についてのセンサデータが読み取られる。検出ステップ404では、角速度に関するセンサデータを使用して、最新の頭部動作が終了する頭部固定位置が検出される。
選択ステップ406では、複数の頭部動作増強パラメータから1つの頭部動作増強パラメータが頭部動作の角度の関数として選択され、この頭部動作増強パラメータは、対象を注視した場合に特有の人の頭部動作パターンの関数である。組合せステップ408では、乗員の視線方向を推定するために頭部固定位置および頭部動作増強パラメータが組み合わされる。
図5は、車両の乗員の視線方向を推定する方法500の一実施例のフロー図を示す。方法500は、図1および図2に示した視線方向を推定するための装置によって実施することができる。方法500は、第1プロセス部分502で、図3に示した車両の乗員に特有の頭部動作増強パラメータを決定するための方法の一実施例のステップを実施し、第2プロセス部分504で、図4に示した車両の乗員の視線方向を推定する方法の一実施例のステップを実施する。
ここで提案した頭部および目の座標に基づいて視線方向を推定する構成をさらに視覚化するために、図6から図8は、対象を注視した場合の例示的な頭部および目の偏心度を伴う頭部回転を概略的に示す。
それぞれ、観察者102の頭部114が平面図で示されている。頭部114の回転軸線600を起点とする円形部分は、観察者102の目の動きを検出するために頭部114に向けられた第1光学センサ(図6から図8に示していない)の例示的な検出範囲122を表している。回転軸線600を起点とする別の円形部分は、観察者102の頭部動作を検出するために頭部114に向けられた第2光学センサ(同様に図6から図8に示していない)の例示的な検出範囲124を表している。
図6は、実線によって図面に示した0度の休止位置602で観察者102の頭部114を示している。観察者102は、検出範囲122,124のちょうど中央で頭部114を真っ直ぐに保持している。頭部および目の動きもしくは向きは、割り当てられたセンサによって検出され、頭部の向きは頭部の検出範囲124内で検出され、目の向きは目の検出範囲122内でのみ検出される。
図7は、物体を注視するために右方向に頭部回転を開始した場合の頭部114を示している。頭部114は、0度の休止位置602から外側に既にわずかに移動している。回転軸線600を起点とする第1のベクトルは、注視プロセスにおける乗員102の最新の頭部の向き700を示している。回転軸線600を起点とする第2のベクトルは、注視プロセスにおける乗員102の最新の目の向き702を示している。乗員102に特有の頭部の向き700と目の向き702の間の違いが明らかに示されている。
第1ベクトル700と休止位置602とによって形成される第1の角度は、注視した場合の乗員102に特有の頭部の偏心度Aを示している。第2ベクトル702と休止位置602とによって形成される第2の角度は、注視した場合の乗員102に特有の目の偏心度Aを示している。
乗員102に特有の頭部動作パターンは、例示的な注視において休止位置602からの頭部の向き700の角度差Aと、休止位置602からの目の向き702の角度差Aとの間の差に基づいている。
図8は、頭部の動きが終了して頭部固定位置が得られた場合の頭部114を示す。観察者102の目は、割り当てられたセンサによって検出可能な検出範囲122の外側に位置する。この場合、目の位置もしくは向きを追跡することはできない。最新の頭部の向き700は、標準的に、実際の視線方向について極めて不正確な予測しかもたらさない。ここに提案した構成にしたがって実施される増強率による調整は、より良好で正確な視線方向の予測を実現する。
ここで提案した構成のための可能な使用分野は、例えば、人の動きを検出するためのセンサ技術、特にドライバ監視カメラおよびドライバ監視システムと連携して頭部または目の動きを追跡する技術である。
実施例が、第1の特徴および第2の特徴の間に「および/または」の接続詞を含む場合には、この実施例は、ある実施形態によれば第1の特徴および第2の特徴の両方を備えており、別の実施形態によれば第1の特徴のみ、または第2の特徴のみを備えているものとして読み取られるべきである。
100 車両
102 乗員(観察者)
104 動作追跡システム(ヘッドトラッキングシステム、アイトラッキングシステム)
106 車両カメラ装置(車両カメラシステム)
108 第1光学センサ
110 第2光学センサ
112 装置
114 頭部
116 目
118 センサデータ
120 センサデータ
122 目の検出範囲
124 頭部の検出範囲
126 センサデータ
128 センサデータ
130 視線方向
200 装置
202 装置
204 頭部動作パターン
206 増強パラメータ
208 頭部固定位置、頭部の向き
300 方法
302 生成ステップ
304 決定ステップ
400 方法
402 読取ステップ
404 検出ステップ
406 選択ステップ
408 組合せステップ
500 方法
502 第1プロセス部分
504 第2プロセス部分
600 回転軸線
602 休止位置
700 頭部の向き(第1ベクトル)
702 目の向き(第2ベクトル)
角度差、偏心度
角度差、偏心度
i 注視

Claims (14)

  1. 車両(100)の乗員(102)の視線方向(130)を推定する方法(400)において、
    最新の頭部動作の角速度に関するセンサデータ(120)を使用して、乗員(102)の頭部(114)の最新の頭部動作を終了する頭部固定位置(208)を検出するステップ(404)と;
    乗員(102)の視線方向(130)を推定するために、頭部固定位置(208)と、対象を注視した場合に乗員に特有の頭部動作パターン(204)の関数である頭部動作増強パラメータ(206,γ)とを組み合わせる組合せステップ(408)と、
    を含む方法。
  2. 請求項1に記載の方法(400)において、
    検出するステップ(404)において、前記最新の頭部動作の角速度に関するセンサデータ(120)が、前記頭部(114)の休止位置(602)と頭部(114)の頭部固定位置(208)との間に形成される角度における角速度を表す、
    方法(400)。
  3. 請求項1または2に記載の方法(400)において、
    最新の頭部動作の角度の関数として、複数の頭部動作増強パラメータから頭部動作増強パラメータ(206,γ)を選択する選択ステップ(406)を含む方法(400)。
  4. 請求項1から3までのいずれか一項に記載の方法(400)において、
    車両(100)の光学センサ(110)のインターフェイスを介して乗員(102)の最新の頭部動作の角速度に関する前記センサデータ(120)を読み取る読取ステップ(402)を、
    含む方法(400)。
  5. 車両(100)の乗員(102)に特有の頭部動作増強パラメータ(206,γ)を決定する方法(300)において、
    該方法(300)が
    目の偏心度が、目(116)の休止位置から目(116)の最新の動きを終了する目(116)の固定位置が達成されるまでの動きにおける乗員(102)の目(116)の向き(702)の角度差(A)を表し、頭部の偏心度が、頭部(114)の休止位置(602)から頭部(114)の最新の動作を終了する頭部(114)の頭部固定位置(208)が達成されるまでの動作における乗員(102)の頭部(114)の向き(700)の角度差(A)を表す場合に、少なくとも1回対象を注視した場合の乗員(102)の目の偏心度および頭部の偏心度についてのセンサデータ(126)を使用して、対象を注視した場合に乗員(102)に特有の頭部動作パターン(204)を形成する形成ステップ(302)と、
    特有の頭部動作パターン(204)を使用して、乗員(102)に特有の頭部動作増強パラメータ(206,γ)を決定するステップ(304)と、
    を含む方法(300)。
  6. 請求項5に記載の方法(300)において、
    前記乗員(102)に特有の頭部動作パターン(204)を形成する形成ステップ(302)で、複数回対象を注視した場合の前記乗員(102)の目の偏心度についての多数のセンサデータ(126)および頭部の偏心度についての多数のセンサデータ(28)の平均値を基にする、
    方法。
  7. 請求項5または6に記載の方法(300)において、
    前記乗員(102)に特有の頭部動作パターン(204)を形成する形成ステップ(302)を、所定の較正時間に、および/または車両(100)内の光学検出範囲(122)で行う、
    方法(300)。
  8. 請求項5から7までのいずれか一項に記載の方法(300)において、
    前記乗員(102)に特有の頭部動作増強パラメータ(206,γ)を決定する決定ステップ(304)で、頭部の偏心度に関するセンサデータ(128)に対応する前記頭部動作パターン(204)の頭部偏心値と、目の偏心度に関するセンサデータ(126)に対応する頭部動作パターン(204)の目の偏心値との割算を行い、頭部の偏心値が割算の被除数を形成し、目の偏心値が割算の除数を形成する、
    方法(300)。
  9. 請求項5から8までのいずれか一項に記載の方法(300)において、
    前記乗員(102)に特有の頭部動作増強パラメータ(206,γ)を決定する決定ステップ(304)で、あらかじめ設定された値が特有の頭部動作増強パラメータ(206,γ)として初期設定され、所定の時間間隔をおいて乗員(102)の目の偏心度の最新のセンサデータ(126)の値および頭部の偏心度の最新のセンサデータ(128)の値を更新および/または変更する、
    方法(300)。
  10. 請求項5から9までのいずれか一項に記載の方法(300)において、
    対象を注視した場合の前記乗員(102)の目(116)の動きの角速度に関するセンサデータ(118)を使用して目の固定位置を検出するステップを、
    含む方法。
  11. 車両(100)の乗員(102)の視線方向を推定する方法(500)において、
    該方法(500)が、請求項5から10までのいずれか一項に記載の方法(300)のステップ;および
    請求項1から4までのいずれか一項に記載の方法(400)のステップを含む方法(500)。
  12. 請求項5から10までのいずれか一項に記載の方法(300)および/または請求項1から4までのいずれか一項に記載の方法(400)および/または請求項11に記載の方法(500)を実施するように構成された装置(112)。
  13. 請求項5から10までのいずれか一項に記載の方法(300)および/または請求項1から4までのいずれか一項に記載の方法(400)および/または請求項11に記載の方法(500)を実施するように構成されたコンピュータプログラム。
  14. 請求項13に記載のコンピュータプログラムが記憶されている機械読取可能な記憶媒体。
JP2016145108A 2015-07-27 2016-07-25 車両の乗員の視線方向を推定する方法および装置、ならびに車両の乗員に特有の頭部動作増強パラメータを決定する方法および装置 Active JP6768390B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015214116.0A DE102015214116A1 (de) 2015-07-27 2015-07-27 Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE102015214116.0 2015-07-27

Publications (2)

Publication Number Publication Date
JP2017027604A true JP2017027604A (ja) 2017-02-02
JP6768390B2 JP6768390B2 (ja) 2020-10-14

Family

ID=57795385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016145108A Active JP6768390B2 (ja) 2015-07-27 2016-07-25 車両の乗員の視線方向を推定する方法および装置、ならびに車両の乗員に特有の頭部動作増強パラメータを決定する方法および装置

Country Status (4)

Country Link
US (2) US10380441B2 (ja)
JP (1) JP6768390B2 (ja)
CN (1) CN106406515B (ja)
DE (1) DE102015214116A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10701338B2 (en) 2017-07-25 2020-06-30 Mitsubishi Electric Corporation Display apparatus

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6982767B2 (ja) * 2017-03-31 2021-12-17 パナソニックIpマネジメント株式会社 検知装置、学習装置、検知方法、学習方法、およびプログラム
DE102017214546B4 (de) * 2017-08-21 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
JP6720951B2 (ja) 2017-11-15 2020-07-08 オムロン株式会社 運転者状態判定装置とその方法およびプログラム
DE102018214935B4 (de) * 2018-09-03 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Ermitteln einer Aufmerksamkeit eines Fahrers eines Fahrzeuges
US10860098B1 (en) * 2019-12-30 2020-12-08 Hulu, LLC Gesture-based eye tracking
DE102020200221A1 (de) * 2020-01-09 2021-07-15 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Schätzen einer Augenposition eines Fahrers eines Fahrzeugs
DE102020214908B4 (de) 2020-11-27 2024-01-04 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Überwachung der Blickrichtung eines Fahrers beim Führen eines Kraftfahrzeugs

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146356A (ja) * 2006-12-11 2008-06-26 Nissan Motor Co Ltd 視線方向推定装置及び視線方向推定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE515639C2 (sv) 2000-01-20 2001-09-17 Smart Eye Ab Anordning och förfarande för att svepa en ljusstråle över ett objekt och system för att låta en användare med ögats hjälp styra en maskin
ATE454849T1 (de) * 2002-10-15 2010-01-15 Volvo Technology Corp Verfahren für die auswertung der kopf- und augenaktivität einer person
WO2010015962A1 (en) 2008-08-07 2010-02-11 Koninklijke Philips Electronics N. V. Method of and system for determining a head-motion/gaze relationship for a user, and an interactive display system
CN102159136B (zh) * 2008-09-18 2013-09-04 学校法人中部大学 困意预兆检测装置
US20130096820A1 (en) * 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
CN102915044B (zh) * 2012-10-25 2016-03-30 上海大学 一种基于仿生机理的机器人头眼协调运动控制方法
JP6090129B2 (ja) * 2013-11-27 2017-03-08 株式会社デンソー 視認領域推定装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146356A (ja) * 2006-12-11 2008-06-26 Nissan Motor Co Ltd 視線方向推定装置及び視線方向推定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10701338B2 (en) 2017-07-25 2020-06-30 Mitsubishi Electric Corporation Display apparatus

Also Published As

Publication number Publication date
US20190318183A1 (en) 2019-10-17
US20170032201A1 (en) 2017-02-02
US10509975B2 (en) 2019-12-17
JP6768390B2 (ja) 2020-10-14
CN106406515A (zh) 2017-02-15
US10380441B2 (en) 2019-08-13
DE102015214116A1 (de) 2017-02-02
CN106406515B (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
JP6768390B2 (ja) 車両の乗員の視線方向を推定する方法および装置、ならびに車両の乗員に特有の頭部動作増強パラメータを決定する方法および装置
US9405982B2 (en) Driver gaze detection system
KR101962302B1 (ko) 구조화 광을 사용한 안구 추적
US10117577B2 (en) Visual field calculation apparatus and method for calculating visual field
US9526448B2 (en) State estimation device and state estimation program
JP4978721B2 (ja) 運転支援装置
JP6762157B2 (ja) 乗員の視線方向を予測する方法および装置
JP7369184B2 (ja) 運転者注意状態推定
JP2008079737A (ja) 集中度評価装置及びこれを用いた車両用表示装置
EP3545818B1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
EP3575926B1 (en) Method and eye tracking system for providing an approximate gaze convergence distance of a user
US20150158494A1 (en) Method and apparatus for determining carelessness of driver
JP2017023519A (ja) 状態推定装置および状態推定プログラム
JP2015085719A (ja) 注視対象物推定装置
WO2019176492A1 (ja) 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体
WO2019155914A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
JP7267467B2 (ja) 注意方向判定装置および注意方向判定方法
JP6689470B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP2005081101A (ja) 視線方向検出装置及び視線方向検出方法
CN114391129A (zh) 凝视方向的确定
JP2021527980A (ja) 高フレームレート画像前処理システム及び方法
JP6859658B2 (ja) 虚像表示装置および虚像表示方法
JP2023127179A (ja) 車載装置、情報処理方法、および、プログラム
JP2023047835A (ja) 車載装置および搭乗者モニタリング方法
JP2018106288A (ja) 撮像状態検出装置、撮像状態検出方法、プログラム、および非一時的記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R150 Certificate of patent or registration of utility model

Ref document number: 6768390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250