JP4420002B2 - 視線先推定装置 - Google Patents

視線先推定装置 Download PDF

Info

Publication number
JP4420002B2
JP4420002B2 JP2006249732A JP2006249732A JP4420002B2 JP 4420002 B2 JP4420002 B2 JP 4420002B2 JP 2006249732 A JP2006249732 A JP 2006249732A JP 2006249732 A JP2006249732 A JP 2006249732A JP 4420002 B2 JP4420002 B2 JP 4420002B2
Authority
JP
Japan
Prior art keywords
driver
line
sight
target
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006249732A
Other languages
English (en)
Other versions
JP2008071162A (ja
Inventor
正昭 上地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2006249732A priority Critical patent/JP4420002B2/ja
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to CN2007800300447A priority patent/CN101500874B/zh
Priority to PCT/IB2007/003548 priority patent/WO2008032220A2/en
Priority to DE602007012899T priority patent/DE602007012899D1/de
Priority to US12/309,731 priority patent/US7859652B2/en
Priority to EP07825699A priority patent/EP2061687B1/en
Priority to KR1020097002948A priority patent/KR101095234B1/ko
Publication of JP2008071162A publication Critical patent/JP2008071162A/ja
Application granted granted Critical
Publication of JP4420002B2 publication Critical patent/JP4420002B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Description

本発明は、運転者の視線先を推定する視線先推定装置に関する。
運転者を支援するために、運転者がどの物体に視線を向けているかを推定する視線先推定装置が開発されている。視線先推定装置としては、例えば、運転者の視線方向を検出するとともに車両周辺に存在する各物標(車両、人など)の自車両に対する相対方向を検出し、視線方向と各物標の相対方向とをそれぞれ比較することによって運転者がどの物標に視線を向けているか否かを判断し、運転者が危険を認識しているかを判定する(特許文献1参照)。
特開2005−134971号公報
上記した視線先推定装置では、運転者の眼の位置と物標の相対方向を検出した検出手段の位置とが異なるので、単純に視線方向と相対方向とを比較しただけでは運転者が実際に視線を向けている物標を正確に推定できない。図10には、運転者Dの視線方向α(車両の前後方向との角度)と視野映像用カメラCによる視野画像から検出した物標Oa,Obの相対方向γ,β(車両の前後方向との角度)の関係の一例を示している。この例では、物標Oa、物標Obは、共に、運転者Dの視線方向α上に共に存在する。しかし、運転者Dの眼の位置と視野映像用カメラCの位置とが異なっているので、視野映像用カメラCの視野画像から検出された物標Oa、物標Obの相対方向は、γとβで異なり、運転者Dの視線方向αとも異なっている。そのため、視線方向αと相対方向γ,βとを比較した場合、運転者が物標Oaを見ていると判断できない虞がある。
そこで、本発明は、運転者の視線先を高精度に推定する視線先推定装置を提供することを課題とする。
本発明に係る視線先推定装置は、運転者の視線先を推定する視線先推定装置であって、運転者の視線方向を検出する視線方向検出手段と、車両周辺に存在する物標の位置情報を検出する物標検出手段と、運転者と物標検出手段との相対位置情報を取得する相対位置取得手段と、運転者が物標の方向に視線を向けている可能性を評価する評価手段と、視線方向検出手段で検出した運転者の視線方向と物標検出手段で検出した物標の位置とが重なる物標を検出して運転者の視線先を推定する視線先推定手段とを備え、評価手段は、物標検出手段で検出した物標が運転者の視線方向に複数存在し、車両が走行中の場合、車両走行中の複数の異なる時刻における運転者の視線方向と物標の位置とが重なる物標に基づいて運転者の視線を向けている可能性を評価し、視線先推定手段は、重なる物標を検出するときに相対位置取得手段で取得した相対位置情報を考慮し、かつ、評価手段の評価結果に基づいて運転者が視線を向けている可能性が高い物標に基づいて運転者の視線先を推定することを特徴とする。さらに、この視線先推定装置では、評価手段は、物標検出手段で検出した物標が運転者の視線方向に複数存在し、車両が停止中の場合、運転者から物標までの距離が最も短い物標を運転者が視線を向けている物標とすると好適である。
この視線先推定装置では、視線方向検出手段により、運転者の視線方向を検出する。また、視線先推定装置では、物標検出手段により、車両周辺に存在する物標を検出し、物標の位置情報を取得する。また、視線先推定装置では、相対位置取得手段により、運転者と物標検出手段との相対位置情報を取得する。そして、視線先推定装置では、視線先推定手段により、相対位置情報を考慮して運転者の視線方向に重なる位置に存在する物標を検出し、その検出した物標に基づいて運転者の視線先(つまり、運転者が視線を向けている物標)を推定する。このように、視線先推定装置では、運転者の位置と物標検出手段との位置とは異なる位置にあるので、その相対位置関係を考慮して視線先を推定することにより、運転者の視点と物標検出手段の検出基準点とを一致させた状態での視線先推定を行うことができ、視線先を高精度に推定することできる。
なお、相対位置情報は、相対関係を示す情報であり、例えば、相対方向、相対距離である。相対位置取得手段は、様々な手段を適用でき、例えば、センサなどによる相対位置情報を直接検出する手段でもよいし、運転者の位置(運転者の頭の位置や眼の位置など)をセンサなどで検出し、その検出した位置と物標検出手段の予め判っている位置から相対位置情報を算出する手段でもよいし、あるいは、運転者の推定される位置と物標検出手段の予め判っている位置から相対位置情報を算出し、その相対位置情報を記憶しておく手段でもよい。相対位置情報を求める際の運転者の位置としては、運転者の頭の位置が望ましく、運転者の眼の位置がより望ましい。視線先推定手段で相対位置情報を考慮する場合、視線方向検出手段、物標検出手段が両方とも検出を行った後に相対位置情報を考慮して検出した物標の中から運転者の視線方向上に存在する物標を探索するようにしてもよいし、あるいは、視線方向検出手段と物標検出手段のうちの一方で検出を行った後に、相対位置情報によって一方の検出したほうの情報を補正し、補正した情報を用いて他の検出手段での検出を行うようにしてもよい。
本発明の上記視線先推定装置では、視線先推定手段は、運転者の視線方向と物標の位置情報の少なくとも一方を相対位置情報に基づいて運転者の位置と物標検出手段の位置とが一致するように補正し、当該補正後に重なる物標を検出する構成としてもよい。
この視線先推定装置では、視線先推定手段により、相対位置情報に基づいて運転者の位置と物標検出手段の位置とが一致するように運転者の視線方向又は/及び物標の位置情報を補正し、補正した後の運転者の視線方向又は/及び物体の位置情報を用いて、視線方向に重なる位置に存在する物標を検出する。このような補正を行うことにより、運転者の視点と物標検出手段の検出基準点とを一致させた状態での視線先推定を行うことができる。
本発明の上記視線先推定装置では、運転者が物標の方向に視線を向けている可能性を評価する評価手段を備え、視線先推定手段は、評価手段の評価結果に基づいて運転者が視線を向けている可能性が高い物標に基づいて運転者の視線先を推定する構成としてもよい。特に、本発明の上記視線先推定装置では、評価手段は、複数の異なる時刻における運転者の視線方向と物標の位置とが重なる物標に基づいて運転者の視線を向けている可能性を評価すると好適である。
この視線先推定装置では、評価手段により、運転者が物標の方向に視線を向けている可能性を評価する。この評価方法としては、複数の異なる各時刻での運転者の視線方向に重なる位置に存在する物標の情報に基づいて運転者の視線を向けている可能性を評価する方法が簡単かつ高精度な方法であり、例えば、異なる時刻においてそれぞれ重なる物標として検出されている物標のうち共通する物標を可能性が高いと評価する。そして、視線先推定装置では、視線先推定手段により、運転者の視線方向と物標の位置とが重なる物標が複数存在する場合、複数の物標の中からその評価結果で視線を向けている可能性の高い物標に基づいて運転者が視線を向けている物標(視線先)を推定する。このように、視線先推定装置では、重なる物標が複数存在しても、運転者が視線を向けている可能性を評価することにより、運転者が視線を向けている物標を絞ることができ、視線先を高精度に推定することできる。
本発明は、運転者の位置と物標検出手段の位置との相対位置情報を考慮して視線先を推定することにより、運転者の視線先を高精度に推定することができる。
以下、図面を参照して、本発明に係る視線先推定装置の実施の形態を説明する。
本実施の形態では、本発明に係る視線先推定装置を、車両に搭載される運転支援装置に適用する。本実施の形態に係る運転支援装置は、運転者が認識していない障害物の存在を知らせるために、運転者の視線先と障害物との位置関係から警報を出力する。
図1〜図5を参照して、本実施の形態に係る運転支援装置1について説明する。図1は、本実施の形態に係る運転支援装置の構成図である。図2は、本実施の形態に係る運転者及び視野映像用カメラとオブジェクトとの位置関係を示す一例である。図3は、本実施の形態に係る視野映像用カメラの視野画像に重畳したアイマークの一例である。図4は、本実施の形態に係るミリ波レーダとオブジェクトとの位置関係を示す一例である。図5は、本実施の形態に係る現在時刻で検出したオブジェクト群とa秒前に検出したオブジェクト群との位置関係を示す一例である。
運転支援装置1は、運転者の視線先を推定するとともに自車両の走行に障害となる障害物(他車両、歩行者など)を検出し、障害物が存在する場合には運転者のその障害物に対する認識度合いに応じて警報制御を行う。視線先を推定するために、運転支援装置1では、視野映像用カメラの視野画像に基づいて運転者の視線ベクトル上に存在する画像オブジェクト(画像物標)を検出するとともに、ミリ波レーダのミリ波情報に基づいて運転者の視線ベクトル上に存在するミリ波オブジェクト(ミリ波物標)を検出し、検出した全てのオブジェクトの中から視線対象物(運転者が視線を向けている物標)を特定する。特に、運転支援装置1では、視線先の推定精度を向上させるために、運転者の位置(特に、眼の位置)と各検出手段の位置との相対位置情報を考慮して運転者の視線ベクトル上に存在するオブジェクトを検出する。そのために、運転支援装置1は、運転者用カメラ2、LED[Light Emitting Diode]3、視野映像用カメラ4、ミリ波レーダ5、警報装置6及びECU[ElectronicControl Unit]7を備えている。
なお、本実施の形態では、運転者用カメラ2及びECU7における処理が特許請求の範囲に記載する視線方向検出手段に相当し、視野映像用カメラ4、ミリ波レーダ5及びECU7における処理が特許請求の範囲に記載する物標検出手段に相当し、運転者用カメラ2及びECU7における処理が特許請求の範囲に記載する相対位置取得手段に相当し、ECU7における各処理が視線先推定手段及び評価手段に相当する。
運転者用カメラ2は、運転者の視線ベクトルと眼の位置を検出するために、運転者の顔周辺の画像を取得するためのステレオカメラであり、2台のカメラからなる。運転者用カメラ2は、インストルメントパネルに運転者の顔周辺の方向に向けて取り付けられ、2台のカメラが水平方向に所定間隔離間されて配置されている。また、運転者用カメラ2は、近赤外線カメラであり、近赤外線(LED3からの近赤外線の反射光など)を取り込み、その近赤外線の輝度に応じた近赤外線映像を生成する。この近赤外線映像は、一定時間(例えば、1/30秒)毎のフレームの近赤外線画像からなる。運転者用カメラ2では、一定時間毎に、各フレームのステレオの近赤外線画像情報を運転者画像信号としてECU7に送信する。
LED3は、近赤外線を発光するLEDである。LED3は、インストルメントパネルに運転者の顔周辺に向けて照射するように取り付けられる。LED3では、運転支援装置1が起動すると、運転者の顔周辺に向けて近赤外線を照射する。このようにLED3によって運転者に顔周辺に近赤外線を照射し、近赤外線カメラ(運転者用カメラ2)で運転者の顔周辺を撮像することにより、運転者の顔周辺だけの画像を取得することができる。なお、近赤外線は、人に無害であり、運転者の運転に支障を及ぼさない。
視野映像用カメラ4は、画像オブジェクトを検出するために、運転者の視野に相当する画像を取得するための単眼カメラである。視野映像用カメラ4は、自車両の前側の中央(例えば、ルームミラーの裏側)に前方に向けて取り付けられる。この視野映像用カメラ4の取り付けられている位置は、自車両の所定の位置(例えば、自車両の重心位置、自車両の前端の中心位置)を原点とした場合の位置として、ECU7に予め記憶されている。視野映像用カメラ4では、自車両の前方を撮像し、その視野映像を生成する。この視野映像は、一定時間毎のフレームの視野画像からなる。視野映像用カメラ4では、一定時間毎に、各フレームの視野画像情報を視野画像信号としてECU7に送信する。なお、視野映像用カメラ4では、自車両から比較的遠方の存在する物体の情報まで取得することができる。
ミリ波レーダ5は、ミリ波オブジェクトを検出するために、ミリ波を利用したレーダである。ミリ波レーダ5は、自車両の前端の中央に前方に向けて取り付けられる。このミリ波レーダ5の取り付けられている位置は、自車両の所定の位置を原点とした場合の位置として、ECU7に予め記憶されている。ミリ波レーダ5では、ミリ波を水平面内でスキャンしながら自車両から前方に向けて送信し、反射してきたミリ波を受信する。そして、ミリ波レーダ5では、そのミリ波の送受信データをミリ波信号としてECU7に送信する。なお、ミリ波レーダ5では、視野映像用カメラ4より自車両から近傍に存在する物体の情報しか取得できない。
警報装置6は、警報音と出力する装置である。警報装置6では、ECU7から警報信号を受信すると、警報音を出力する。警報装置6では、音の強弱、音の種類(周波数)、出力タイミングを任意に変えることができ、警報信号に示される警報情報に応じて様々な警報音を出力する。
ECU7は、CPU[Central ProcessingUnit]、ROM[Read Only Memory]、RAM[Random Access Memory]などからなる電子制御ユニットであり、運転支援装置1を統括制御する。ECU7では、運転支援装置1が起動されると、ROMに記憶されている専用のアプリケーションプログラムをRAMにロードし、CPUによってそのプログラムを実行することによって視線先推定部、障害物検出部、警報制御部が構成される。ECU7は、CPUのマスタクロックに基づく一定時間毎に、運転者用カメラ2からの運転者画像信号、視野映像用カメラ4からの視野画像信号、ミリ波レーダ5からのミリ波信号を取り入れる。そして、ECU7では、一定時間毎に、これら各信号の情報に基づいて各部の処理を行い、必要に応じて警報装置6に警報信号を送信する。
視線先推定部における処理について説明する。視線先推定部は、画像オブジェクトを検出とともにミリ波オブジェクトを検出し、検出した全てのオブジェクトの中から1つの視線対象物を特定する。そのために、視線先推定部では、運転者情報検出処理、オブジェクト認識スキャン処理、レーダハイブリッド処理、時空間マッチング処理が行われる。
運転者情報検出処理について説明する。運転者情報検出処理では、運転者画像信号の運転者画像(ステレオ画像)から運転者の視線ベクトル(視線方向に相当)と眼の位置を検出する。まず、ECU7では、運転者画像から、眼のテンプレートによるパターンマッチングなどによって眼の部分を抽出する。そして、ECU7では、その眼部分の画像から視線ベクトルを検出する。この視線ベクトルの検出方法は、一般的な視線検出技術を利用する。視線ベクトルVは、図2に示すように、運転者の眼の位置を基準とし、車両の前後方向Wに対する運転者の視線方向αで表される。また、ECU7では、抽出した眼部分の左右のステレオ画像における物体の見え方のずれを利用して三角測量的に運転者用カメラ2に対する眼の位置の相対距離及び相対方向を求め、この相対距離及び相対方向と運転者用カメラ2の位置から眼の位置を検出する。この眼の位置や運転者用カメラ2の位置は、自車両の所定の位置を原点とした場合の位置である。
オブジェクト認識スキャン処理について説明する。オブジェクト認識スキャン処理では、運転者の眼の位置と視野映像用カメラ4との相対位置情報を考慮し、視野画像から検出可能なオブジェクトのうち運転者の視線ベクトル上に存在するオブジェクトを画像オブジェクトとして抽出する。
まず、ECU7では、運転者の眼の位置と視野映像用カメラ4との位置の相対距離及び相対方向を算出する。視野映像用カメラ4の位置は、上記したようにECU7に予め記憶されており、その値が用いられる。そして、ECU7では、図2に示すように、視線ベクトルV上に運転者Dに近い位置から任意の位置までの焦点距離P1,P2,・・・を順次設定する。任意の位置は、適宜設定してよく、視野画像で奥行き方向において検出可能な距離などを考慮して設定される。焦点距離は、運転者の視線上の奥行き成分である。焦点距離の間隔としては、適宜設定してよく、例えば、一定距離毎でもよいし、奥に行くほど距離を長くしてもよい。この時点では、運転者の実際の焦点距離が判っていないので(つまり、運転者が視線ベクトル上のどの物体を見ているか判らないので)、焦点距離P1,P2・・・は仮の焦点距離である。
さらに、ECU7では、図3に示すように、視野画像上に、視野ベクトルVにおける各焦点距離P1,P2,・・・の位置に相当するアイマークE1,E2,・・・を設定する。この際、ECU7では、運転者の眼の位置と視野映像用カメラ4との位置の相対距離及び相対方向に基づいて、視線ベクトルV上の焦点距離P1,P2,・・・を視野画像上の位置にそれぞれ変換する。アイマークE1,E2,・・・は、運転者の眼が視野映像用カメラ4の位置にあると仮定した場合の運転者の視線ベクトルV上の各焦点距離P1,P2,・・・の位置に相当する視野画像上での位置である。そして、ECU7では、アイマークE1,E2,・・・毎に、視野画像における各アイマークを中心として半径rピクセルの範囲内でオブジェクト認識を行う。半径rピクセルは、アイマークの間隔を考慮して設定される。オブジェクト認識処理としては、一般的なオブジェクト認識技術を利用し、例えば、道路上に存在すると予想される物体のテンプレートを用意し、各テンプレートを利用したパターンマッチングでオブジェクトを認識する。オブジェクトを認識できた場合、ECU7では、そのオブジェクトを画像オブジェクトとし、画像オブジェクトの情報として視野画像上の位置(x,y)の他にアイマークに対応する焦点距離を保持する。図3に示す例では、アイマークE3においてオブジェクトOaを認識でき、画像オブジェクトとして焦点距離P3が保持され、アイマークE5においてオブジェクトObを認識でき、画像オブジェクトとして焦点距離P5が保持される。
このオブジェクト認識スキャン処理では、視野画像を利用しているので、自車両から比較的遠いところに存在するオブジェクトも検出することできる。また、オブジェクト認識スキャン処理は、標識(一時停止、進入禁止、車速制限など)、信号機(色情報も)、一時停止線などのオブジェクト検出に優れた手法である。
なお、視野画像を利用したオブジェクト検出については、上記した方法以外も適用可能である。例えば、視野画像全体に対してオブジェクト認識を行い、視野画像内に存在するオブジェクトを全て抽出する。そして、上記と同様に、視野画像上にアイマークを設定する。さらに、視野画像上で各オブジェトの位置と各アイマークの位置とを比較し、アイマークを中心として半径rピクセル範囲内に存在するオブジェクトを画像オブジェクトとして抽出する。
レーダハイブリッド処理について説明する。レーダハイブリッド処理では、運転者の眼の位置とミリ波レーダ5との相対位置情報を考慮し、ミリ波情報によって検出可能なオブジェクトのうち運転者の視線ベクトル上に存在するオブジェクトをミリ波オブジェクトとして抽出する。
まず、ECU7では、運転者の眼の位置とミリ波レーダ5との位置の相対距離及び相対方向を算出する。ミリ波レーダ5の位置は、上記したようにECU7に予め記憶されており、その値が用いられる。そして、ECU7では、図4に示すように、運転者の眼の位置とミリ波レーダ5との位置の相対距離及び相対方向に基づいて、運転者Dの視線ベクトルVをミリ波レーダ5の座標系でのベクトル(視線ベクトルV’)に変換する。視線ベクトルV’は、運転者の眼がミリ波レーダ5の位置にあると仮定した場合の視線ベクトルである。視線ベクトルV’は、図4に示すように、ミリ波レーダ5の位置を基準とし、車両の前後方向Wに対する運転者の視線方向θで表される。
さらに、ECU7では、ミリ波情報に基づいて、視線ベクトルV’上に存在するオブジェクトを検出する。ここでは、ミリ波情報に基づいて視線ベクトルV’の方向に送信したミリ波に対して反射したミリ波を受信できた場合に、オブジェクトを検出できたことになる。オブジェクトを検出できた場合、ECU7では、そのオブジェクトをミリ波オブジェクトとし、ミリ波オブジェクトの情報としてオブジェクトまでの距離(焦点距離)を算出する。この焦点距離は、ミリ波が出射から受信までの時間に基づいてミリ波レーダ5からオブジェクトまでの距離が算出され、その算出されたミリ波レーダ5からの距離を相対距離及び相対方向に基づいて運転者の眼の位置からの距離に変換された距離である。図4に示す例では、視線ベクトルV’上のオブジェクトOaが検出され、ミリ波オブジェクトとして焦点距離が算出される。オブジェクトObも視線ベクトルV’上に存在するが、オブジェクトOaに重なっているので検出されない。オブジェクトOcは、視線ベクトルV’に存在しないので、検出されない。
レーダハイブリッド処理では、ミリ波情報を利用しているので、自車両から比較的近いところに存在するオブジェクトを検出することできる。また、レーダハイブリッド処理は、他車両、歩行者などのオブジェクト検出に優れた手法である。
なお、ミリ波情報を利用したオブジェクト検出については、上記した方法以外も適用可能である。例えば、ミリ波情報を用いて、ミリ波で検出可能な全領域に対してオブジェクト検出を行い、検出可能な全領域内に存在するオブジェクトを全て抽出し、このオブジェクトの距離と方向を算出する。そして、上記と同様に、相対位置情報に基づいて、視線ベクトルVを視線ベクトルV’に変換する。さらに、視線ベクトルV’と抽出した各オブジェクトの方向とを比較し、同じ方向のオブジェクトをミリ波オブジェクトとして抽出する。あるいは、相対位置情報に基づいて、抽出した各オブジェクトを、運転者の眼の座標系での方向と距離(つまり、ミリ波レーダ5が運転者の眼の位置にあると仮定した場合の方向と距離)に変換する。さらに、視線ベクトルVと変換した各オブジェクトの方向とを比較し、同じ方向のオブジェクトをミリ波オブジェクトとして抽出する。
時空間マッチング処理について説明する。時空間マッチング処理では、検出できた全ての画像オブジェクトとミリ波オブジェクトの中から、実際に運転者が視線を向けているオブジェクト(視線対象物)を1つ特定する。時空間マッチング処理には、第1方法と第2方法の2つの方法があり、いずれかの方法で視線対象物を特定する。いずれの方法も、自車両が移動して自車両(運転者)と各オブジェクトとの位置関係が変化し、運転者の視線ベクトルも変化していることを利用し、現在時刻で検出できたオブジェクト群と現在時刻より過去に検出できたオブジェクト群とを比較することによって視線対象物を特定する。
第1方法について説明する。まず、ECU7では、現在時刻で検出できたオブジェクト(画像オブジェクト又はミリ波オブジェクト)が1つの場合、そのオブジェクトを視線対象物として確定する。現在時刻で検出できたオブジェクトが複数存在する場合、ECU7では、車両が停止中か否かを判定し、停止中の場合には現在時刻で検出できたオブジェクト群の中から焦点距離が最も短い(つまり、運転者から最も近い)オブジェクトを視線対象物と確定する。停止中は安全なため(障害物に衝突する可能性が低いため)、最も近いオブジェクトを選んでおく。なお、停止中か否かの判定は、特に限定しないが、例えば、車速センサで検出した車速を利用して判定する。
走行中の場合、ECU7では、現在時刻で検出できたオブジェクト群と現在時刻からa秒前に検出できたオブジェクト群を比較し、共通するオブジェクトを検出する。a秒は、適宜設定してよく、例えば、0.1秒、0.2秒などの固定値でもよいし、車速などに応じた可変値としてもよい。図5に示す例では、現在時刻tには2つのオブジェクトOaとオブジェクトOdを検出しており、a秒前には2つのオブジェクトOaとオブジェクトObを検出しており、オブジェクトOaが共通するオブジェクトとして検出される。そして、ECU7では、共通するオブジェクトが1つの場合、その共通するオブジェクトを視線対象物として確定する。共通するオブジェクトが複数存在する場合、ECU7では、更にa秒前遡り(つまり、現在時刻からa×2秒前)、現在時刻で検出できたオブジェクト群と現在時刻からa秒前に検出できたオブジェクト群にa×2秒前に検出できたオブジェクト群も加えたオブジェクト群とを比較し、共通するオブジェクトを検出し、共通するオブジェクトが1つか否かを判定する。
ECU7では、a秒間隔で過去を遡ってオブジェクト群を追加してゆき、共通するオブジェクトが1つになるまで上記した処理を繰り返し行う。そして、ECU7では、a×n秒まで遡っても、共通するオブジェクトが複数存在している場合、過去を遡るのを終了し、視線対象物を確定しない。このような場合、運転者の視線が移動中(追従運動やサッケード運動)と判断し、視線先を特定できないので、視線対象物を確定しない。a×n秒は、運転者の視線が移動中か否かを判断するために充分な時間が設定される。なお、この場合、前回確定した視線対象物を今回の視線対象物としたり、あるいは、現在時刻のオブジェクト群の中から焦点距離の最も短いオブジェクトを視線対象物としてもよい。
第2方法について説明する。第2方法も、オブジェクトが1つかない場合と車両停止中の場合は第1方法と同様に視線対象物を確定する。走行中の場合、ECU7では、現在時刻での運転者の視線ベクトルと現在時刻からa秒前の運転者の視線ベクトルとの交点を算出する。交点を算出するときには、現在時刻での運転者の眼の位置(現在時刻の視線ベクトルの起点)を基準とし、車両の車速からa秒間の移動距離dを算出し、a秒前の視線ベクトルの起点を定め、各起点から各視線ベクトルを延ばして交点が算出される。そして、ECU7では、現在時刻で検出できたオブジェクト群の中からその交点に最も近いオブジェクトを視線対象物と確定する。図5に示す例では、現在時刻tには2つのオブジェクトOaとオブジェクトOdを検出しており、現在時刻tの視線ベクトルVとa秒前の視線ベクトルVt−aとの交点はIで示す点であり、この交点Iに最も近いオブジェクトOaが視線対象物として検出される。交点が発生しない場合、ECU7では、第1方法と同様に運転者の視線が移動中と判断し、視線対象物を確定しない。この場合も、第1方法と同様に、前回確定した視線対象物あるいは焦点距離の最も短いオブジェクトを視線対象物としてもよい。
なお、運転者の視線先は特定した視点対象物(オブジェクト)に対応付けられている焦点距離と運転者の視線ベクトルによって規定され、運転者はその視線ベクトル上の焦点距離のところを見ていることになる。
障害物検出部における処理について説明する。ECU7では、自車両の進行方向などを考慮し、各種検出手段の情報に基づいて自車両の進行に障害となる障害物(他車両、歩行者など)を検出する。そして、ECU7では、障害物を検出できた場合、その障害物の位置の情報を取得する。なお、この障害物の検出方法は、特に限定しないが、上記した単眼カメラによる視野画像を用いる方法やミリ波情報を用いる方法でもよいし、ステレオカメラによるステレオ画像を用いる方法などの他の方法でもよい。
警報制御部における処理について説明する。ECU7では、視線先推定部で特定した視線対象物と障害物検出部で検出した障害物とが一致しているか否かあるいは一致度合いを判定する。そして、ECU7では、一致していない場合や一致度合いが高くないときには、警報情報を生成し、その警報情報を示す警報信号を警報装置6に送信する。一致しているか否かだけを判定している場合には、警報情報として警報音のオン/オフ情報だけである。一致度を判定している場合には、警報情報として一致度が低いほど運転者に注意喚起を促す警報音となる情報(例えば、音を強くする情報、出力間隔を短くするための情報)とする。
図1を参照して、運転支援装置1の動作について説明する。特に、ECU7におけるオブジェクト認識スキャン処理については図6のフローチャートに沿って説明し、レーダハイブリッド処理については図7のフローチャートに沿って説明し、時空間マッチング処理の第1方法について図8のフローチャートに沿って説明し、時空間マッチング処理の第2方法について図9のフローチャートに沿って説明する。
運転支援装置1が起動されると、LED3では、運転者の顔周辺に向けて近赤外線を照射する。運転者用カメラ2では、その反射した近赤外線を受光し、近赤外線画像(ステレオ画像)を撮像し、その撮像した近赤外線画像を運転者画像信号としてECU7に送信する。視野映像用カメラ4では、車両の前方を撮像し、その撮像した視野画像を視野画像信号としてECU7に送信する。ミリ波レーダ5では、前方にミリ波を送信するとともに反射してきたミリ波を受信し、その送受信データをミリ波信号としてECU7に送信する。
一定時間毎に、ECU7では、運転者用カメラ2からの運転者画像信号、視野映像用カメラ4からの視野画像信号、ミリ波レーダ5からのミリ波信号を受信する。そして、ECU7では、運転者画像に基づいて、運転者の視線ベクトルと眼の位置を検出する(図6のS10、図7のS20)。
ECU7では、運転者の眼と視野映像用カメラ4との相対距離及び相対方向を算出する(図6のS11)。そして、ECU7では、視線ベクトル上に、運転者から近い距離から順に任意の距離まで、所定の間隔で焦点距離を設定する(図6のS12)。さらに、ECU7では、視線ベクトル上の設定した焦点距離毎に、算出した相対距離及び相対方向に基づいて視野画像上にアイマークを重畳する(図6のS13)。そして、ECU7では、アイマーク毎に、視野画像におけるアイマークの座標を中心として半径rピクセル範囲内をオブジェクト認識し、認識できた場合には画像オブジェクトとする(図6のS14)。ここで、運転者の眼と視野映像用カメラ4との相対位置関係を考慮して、視野画像から運転者の視線ベクトル上に存在する画像オブジェクトが検出される。この画像オブジェクトには、視線ベクトル上の焦点距離が対応付けられる。
ECU7では、運転者の眼とミリ波レーダ5との相対距離及び相対方向を算出する(図7のS21)。そして、ECU7では、その算出した相対距離と相対方向に基づいて、運転者の視線ベクトルをミリ波レーダの座標系での視線ベクトルに変換する(図7のS22)。さらに、ECU7では、ミリ波情報に基づいて、変換した視線ベクトル上に存在するオブジェクトを検出し、検出できた場合にはミリ波オブジェクトとし、そのミリ波オブジェクトの焦点距離を算出する(図7のS23)。ここで、運転者の眼とミリ波レーダ5との相対位置関係を考慮して、ミリ波情報から運転者の視線ベクトル上に存在するミリ波オブジェクトが検出される。
ECU7では、運転者の視線ベクトルと検出できた画像オブジェクト及びミリ波オブジェクト(オブジェクト群)とを検出時刻を対応付けて所定の記憶領域に記憶する。
時空間マッチング処理の第1方法の場合、ECU7では、検出できたオブジェクトが1つか否かを判定する(図8のS30)。S30にて1つと判定した場合、ECU7では、その1つのオブジェクトを視線対象物と確定する(図8のS31)。S30にて複数と判定した場合、ECU7では、車両が停止中か否かを判定する(図8のS32)。S32にて停止中と判定した場合、ECU7では、複数のオブジェクトの中から焦点距離が最も短いオブジェクトを視線対象物と確定する(図8のS33)。
S32にて走行中と判定した場合、ECU7では、a秒前に検出できたオブジェクト群を抽出する(図8のS34)。そして、ECU7では、現在時刻に検出できたオブジェクト群と選択した全てのオブジェクト群とを比較し、現在時刻のオブジェクトに共通するオブジェクトを検出する(図8のS35)。ECU7では、共通のオブジェクトが1つか否かを判定する(図8のS36)。S36にて1つと判定した場合、ECU7では、その1つの共通のオブジェクトを視線対象物と確定する(図8のS37)。
S36にて複数と判定した場合、ECU7では、a×n秒遡ったか否かを判定する(図8のS38)。S38にてa×n秒遡ったと判定した場合、ECU7では、視線対象物を確定しない(図8のS39)。S38にてa×n秒遡っていないと判定した場合、ECU7では、S34の処理に戻り、更にa秒前のオブジェクト群を抽出し、そのオブジェクト群も加えて共通するオブジェクトを検出する。ECU7では、この処理を共通のオブジェクトが1つになるかあるいはa×n秒遡るまで繰り返し行う。
時空間マッチング処理の第2方法の場合、ECU7では、図9のS40〜S43まで、第1方法(図8のS30〜S33の処理)と同様の処理を行う。S42にて走行中と判定した場合、ECU7では、現在時刻の視線ベクトルと現在時刻のa秒前の視線ベクトルとの交点を算出する(図9のS44)。ECU7では、交点が存在するか否かを判定する(図9のS45)。S45にて交点が存在すると判定した場合、ECU7では、現在時刻のオブジェクト群の中から交点に最も近いオブジェクトを視線対象物と確定する(図9のS46)。S45にて交点が存在しないと判定した場合、ECU7では、視線対象物を確定しない(図9のS47)。
ここまでの処理で、運転者が視線を向けている視線対象物が唯一確定され、運転者の視線ベクトルとその視線ベクトル上の焦点距離(視線先)が判る。
また、ECU7では、自車両の進行に障害となる障害物を検出し、障害物を検出できた場合にはその障害物の位置の情報を取得する。
そして、ECU7では、確定した視線対象物と検出した障害物とが一致しているか否かあるいは一致度合いを判定する。そして、ECU7では、一致していない場合や一致度合いが高くないときには、警報情報を生成し、その警報情報からなる警報信号を警報装置6に送信する。なお、視線対象物を確定できなかった場合に障害物を検出できているときには、規定の警報情報からなる警報信号を警報装置6に送信する。また、障害物を検出できない場合、障害物が存在しないので、警報信号を送信しない。
警報装置6では、警報信号を受信すると、その警報情報に応じた警報音を出力する。運転者は、この警報音により視線先以外に障害物が存在することに気づき、障害物にも視線を向けるようになる。
この運転支援装置1によれば、運転者の位置とオブジェクトの各検出手段との位置との相対位置関係を考慮して視線先を推定することにより、運転者の視点と各検出手段の検出基準点とを一致させた状態での視線先推定を行うことができ、視線先を高精度に推定することできる。特に、運転支援装置1では、相対位置関係を用いて運転者の視線ベクトルを補正することにより、運転者の視点を各検出手段の検出基準点に位置させた場合の視線ベクトルとして視線先推定を行うことができる。
また、運転支援装置1では、画像情報を利用したオブジェクト認識スキャン処理とミリ波情報を利用したレーダハイブリッド処理の2つの方式でオブジェクトを検出することにより、各方式の特性に合ったオブジェクトを高精度に検出でき、様々な種類のオブジェクトを高精度に検出することができる。また、運転支援装置1では、複数のオブジェクトが検出された場合でも時空間マッチング処理で異なる時刻にそれぞれ検出されているオブジェクト群を比較することにより、簡単かつ高精度に、1つの視線対象物を特定することができる。
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。
例えば、本実施の形態では運転者の視線先と障害物との位置関係から警報を出力する運転支援装置に適用したが、様々な装置に適用でき、例えば、運転者の視線先の推定だけを行う視線先推定装置に適用してもよいし、音声や画像などの他の手段によって運転者に知らせる運転支援装置に適用してもよいし、運転者の視線先と障害物との関係からブレーキ制御、車速制御などの車両制御を行う運転支援装置に適用してもよい。
また、本実施の形態では視線先推定として視線対象物を特定する構成としたが、視線を向けているオブジェクトを特定するのではなく、視線を向けている領域などを求めてもよい。
また、本実施の形態では視野映像用カメラの画像に基づいて画像オブジェクトを検出するとともに、ミリ波レーダのミリ波情報に基づいてミリ波オブジェクトを検出し、検出した全てのオブジェクトの中から視線対象物を特定する構成としたが、画像とミリ波情報の一方だけを用いてオブジェクトを検出する構成としてもよいし、他の情報を用いてオブジェクトを検出する構成としてもよい。オブジェクトの検出手段として視野映像用カメラとミリ波レーダを適用したが、自律系センサであれば他の検出手段も適用可能であり、例えば、ステレオカメラ、レーザレーダ、超音波レーダである。
また、本実施の形態では時空間マッチング処理の2つの方法により運転者の視線対象物を特定する構成としたが、他の方法で視線対象物を特定してもよく、例えば、検出できたオブジェクトの中から最も近距離に存在するオブジェクトを視線対象物と特定してもよいし、最も目立つオブジェクトあるいは最も危険性の高いオブジェクトを視線対象物と特定してもよい。
また、本実施の形態では運転者の眼の位置を運転者用カメラのステレオ画像から検出し、その眼の位置と予め判っている視野映像用カメラの位置やミリ波レーダの位置から各相対位置情報を算出する構成としたが、他の方法で相対位置情報を取得してもよく、例えば、カメラで運転者と検出手段とを含む画像を撮像し、その画像から相対位置情報を求めるなど、相対位置情報を直接検出する手段でもよいし、運転者の頭の位置(ひいては、眼の位置)について大体推測できるので、その平均的な運転者の頭の位置(眼の位置)と各検出手段との位置との相対位置情報を予め求め、その相対位置情報を記憶手段に記憶させておき、必要に応じて記憶手段から読み出すことにより取得するようにしてもよい。
本実施の形態に係る運転支援装置の構成図である。 本実施の形態に係る運転者及び視野映像用カメラとオブジェクトとの位置関係を示す一例である。 本実施の形態に係る視野映像用カメラの視野画像に重畳したアイマークの一例である。 本実施の形態に係るミリ波レーダとオブジェクトとの位置関係を示す一例である。 本実施の形態に係る現在時刻で検出したオブジェクト群とa秒前に検出したオブジェクト群との位置関係を示す一例である。 本実施の形態に係るECUにおけるオブジェクト認識スキャン処理の流れを示すフローチャートである。 本実施の形態に係るECUにおけるレーダハイブリッド処理の流れを示すフローチャートである。 本実施の形態に係るECUにおける時空間マッチング処理(第1方法)の流れを示すフローチャートである。 本実施の形態に係るECUにおける時空間マッチング処理(第2方法)の流れを示すフローチャートである。 運転者及び視野映像用カメラとオブジェクトとの位置関係を示す一例である。
符号の説明
1…運転支援装置、2…運転者用カメラ、3…LED、4…視野映像用カメラ、5…ミリ波レーダ、6…警報装置、7…ECU

Claims (2)

  1. 運転者の視線先を推定する視線先推定装置であって、
    運転者の視線方向を検出する視線方向検出手段と、
    車両周辺に存在する物標の位置情報を検出する物標検出手段と、
    運転者と前記物標検出手段との相対位置情報を取得する相対位置取得手段と、
    運転者が物標の方向に視線を向けている可能性を評価する評価手段と、
    前記視線方向検出手段で検出した運転者の視線方向と前記物標検出手段で検出した物標の位置とが重なる物標を検出して運転者の視線先を推定する視線先推定手段と
    を備え、
    前記評価手段は、前記物標検出手段で検出した物標が運転者の視線方向に複数存在し、車両が走行中の場合、車両走行中の複数の異なる時刻における運転者の視線方向と物標の位置とが重なる物標に基づいて運転者の視線を向けている可能性を評価し、
    前記視線先推定手段は、重なる物標を検出するときに前記相対位置取得手段で取得した相対位置情報を考慮し、かつ、前記評価手段の評価結果に基づいて運転者が視線を向けている可能性が高い物標に基づいて運転者の視線先を推定することを特徴とする視線先推定装置。
  2. 前記評価手段は、前記物標検出手段で検出した物標が運転者の視線方向に複数存在し、車両が停止中の場合、運転者から物標までの距離が最も短い物標を運転者が視線を向けている物標とする請求項1に記載する視線先推定装置。
JP2006249732A 2006-09-14 2006-09-14 視線先推定装置 Expired - Fee Related JP4420002B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2006249732A JP4420002B2 (ja) 2006-09-14 2006-09-14 視線先推定装置
PCT/IB2007/003548 WO2008032220A2 (en) 2006-09-14 2007-09-13 Sight-line end estimation device and driving assist device
DE602007012899T DE602007012899D1 (de) 2006-09-14 2007-09-13 Vorrichtung zur einschätzung eines sichtlinienendes und antriebsunterstützungsvorrichtung
US12/309,731 US7859652B2 (en) 2006-09-14 2007-09-13 Sight-line end estimation device and driving assist device
CN2007800300447A CN101500874B (zh) 2006-09-14 2007-09-13 视线终点估计装置和驾驶辅助装置
EP07825699A EP2061687B1 (en) 2006-09-14 2007-09-13 Sight-line end estimation device and driving assist device
KR1020097002948A KR101095234B1 (ko) 2006-09-14 2007-09-13 시선처 추정 장치 및 운전 지원 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006249732A JP4420002B2 (ja) 2006-09-14 2006-09-14 視線先推定装置

Publications (2)

Publication Number Publication Date
JP2008071162A JP2008071162A (ja) 2008-03-27
JP4420002B2 true JP4420002B2 (ja) 2010-02-24

Family

ID=39092298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006249732A Expired - Fee Related JP4420002B2 (ja) 2006-09-14 2006-09-14 視線先推定装置

Country Status (7)

Country Link
US (1) US7859652B2 (ja)
EP (1) EP2061687B1 (ja)
JP (1) JP4420002B2 (ja)
KR (1) KR101095234B1 (ja)
CN (1) CN101500874B (ja)
DE (1) DE602007012899D1 (ja)
WO (1) WO2008032220A2 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4231884B2 (ja) * 2006-09-27 2009-03-04 株式会社デンソーアイティーラボラトリ 注視対象物検出装置および注視対象物検出方法
JP5082834B2 (ja) * 2007-12-27 2012-11-28 オムロン株式会社 脇見検出装置および方法、並びに、プログラム
JP5024165B2 (ja) * 2008-04-02 2012-09-12 トヨタ自動車株式会社 視認物体推定装置
JP2010018148A (ja) * 2008-07-10 2010-01-28 Bosch Corp 車両の誤発進防止装置
JP5040851B2 (ja) * 2008-08-07 2012-10-03 トヨタ自動車株式会社 脇見運転判定装置
WO2011075392A1 (en) * 2009-12-18 2011-06-23 Honda Motor Co., Ltd. A predictive human-machine interface using eye gaze technology, blind spot indicators and driver experience
JP5488105B2 (ja) * 2010-03-26 2014-05-14 マツダ株式会社 車両の運転支援装置
JP5529660B2 (ja) * 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
EP2604180A4 (en) * 2010-08-09 2017-07-05 National University Corporation Shizuoka University Gaze point detection method and gaze point detection device
US8558718B2 (en) 2010-09-20 2013-10-15 Honda Motor Co., Ltd. Method of controlling a collision warning system using line of sight
JP5466610B2 (ja) * 2010-09-27 2014-04-09 パナソニック株式会社 視線推定装置
EP2564776B1 (en) 2011-09-02 2019-08-28 Volvo Car Corporation Method, system and computer readable medium embodying a computer program product for determining a vehicle operator's expectation of a state of an object
US9361718B2 (en) 2011-09-08 2016-06-07 Intel Corporation Interactive screen viewing
EP2754005A4 (en) * 2011-09-08 2015-04-22 Intel Corp LOCATION SELECTION BASED ON LOOK FOR AUDIOVISUAL READING
CN102510480B (zh) * 2011-11-04 2014-02-05 大连海事大学 驾驶员视线自动校准和跟踪系统
US9409518B2 (en) 2011-12-16 2016-08-09 GM Global Technology Operations LLC System and method for enabling a driver of a vehicle to visibly observe objects located in a blind spot
US9784577B2 (en) * 2012-03-16 2017-10-10 Lg Innotek Co., Ltd. Measuring distance from object by using size of pattern projected onto object
DE102012214852B4 (de) * 2012-08-21 2024-01-18 Robert Bosch Gmbh Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
KR20140064388A (ko) * 2012-11-20 2014-05-28 현대모비스 주식회사 차량의 차선 유지 제어 방법 및 이를 구현하는 차선 유지 제어 장치
KR20140070861A (ko) * 2012-11-28 2014-06-11 한국전자통신연구원 멀티 모달 hmi 제어 장치 및 방법
KR102017884B1 (ko) * 2013-02-06 2019-10-22 한국전자통신연구원 운전자 집중도 분석 장치 및 방법
JP5988170B2 (ja) * 2013-11-29 2016-09-07 アイシン精機株式会社 車両挙動制御装置および車両挙動制御システム
JP5988171B2 (ja) * 2013-11-29 2016-09-07 アイシン精機株式会社 車両挙動制御装置および車両挙動制御システム
US9189692B2 (en) * 2014-02-14 2015-11-17 GM Global Technology Operations LLC Methods and systems for detecting driver attention to objects
DE112015002934B4 (de) 2014-06-23 2021-12-16 Denso Corporation Vorrichtung zum Erfassen eines Fahrunvermögenzustands eines Fahrers
DE112015002948T5 (de) 2014-06-23 2017-03-09 Denso Corporation Vorrichtung zum erfassen eines fahrunvermögenzustands eines fahrers
JP6372388B2 (ja) 2014-06-23 2018-08-15 株式会社デンソー ドライバの運転不能状態検出装置
DE112014006876T5 (de) * 2014-08-21 2017-05-18 Mitsubishi Electric Corporation Fahrassistenzvorrichtung, Fahrassistenzverfahren und Programm
KR102263725B1 (ko) * 2014-11-21 2021-06-11 현대모비스 주식회사 주행 정보 제공 장치 및 주행 정보 제공 방법
JP2016163150A (ja) * 2015-02-27 2016-09-05 株式会社リコー 通信端末、面談システム、通信方法及びプログラム
EP3358549A4 (en) * 2015-09-30 2018-11-21 Aisin Seiki Kabushiki Kaisha Driving support device
CN108140309B (zh) 2015-11-20 2020-12-08 三菱电机株式会社 驾驶辅助装置、驾驶辅助系统以及驾驶辅助方法
KR102429159B1 (ko) * 2016-04-15 2022-08-03 현대자동차주식회사 비에스디 경보 제어 방법
EP3235701B1 (en) * 2016-04-20 2021-08-18 Honda Research Institute Europe GmbH Method and driver assistance system for assisting a driver in driving a vehicle
DE112016006962B4 (de) * 2016-07-05 2020-06-25 Mitsubishi Electric Corporation Erkennungsregionschätzvorrichtung, Erkennungsregionschätzverfahren und Erkennungsregionschätzprogramm
US10926772B2 (en) * 2016-07-12 2021-02-23 Honda Motor Co., Ltd. Driving assistance device
JP2018097398A (ja) 2016-12-07 2018-06-21 トヨタ自動車株式会社 視線推定システム
JP6481969B2 (ja) * 2017-05-29 2019-03-13 マツダ株式会社 運転者状態推定装置
CN109409172B (zh) * 2017-08-18 2021-08-13 安徽三联交通应用技术股份有限公司 驾驶员视线检测方法、系统、介质及设备
TWI653170B (zh) * 2017-11-01 2019-03-11 宏碁股份有限公司 駕駛提示方法與系統
CN109823344B (zh) * 2017-11-22 2021-10-22 宏碁股份有限公司 驾驶提示方法与系统
JP6479272B1 (ja) * 2018-01-05 2019-03-06 三菱電機株式会社 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP7146466B2 (ja) * 2018-06-12 2022-10-04 矢崎総業株式会社 車両制御システム
CN110758237A (zh) * 2018-07-27 2020-02-07 深圳富泰宏精密工业有限公司 电子装置及行车安全提醒方法
TWI719330B (zh) * 2018-07-27 2021-02-21 群邁通訊股份有限公司 電子裝置及行車安全提醒方法
KR102598956B1 (ko) * 2018-10-15 2023-11-07 현대자동차주식회사 차량 승객 감지 장치, 그를 포함한 시스템 및 그 방법
US20220165073A1 (en) * 2019-02-22 2022-05-26 Panasonic Intellectual Property Management Co., Ltd. State detection device and state detection method
US11113824B2 (en) 2019-04-30 2021-09-07 Aptiv Technologies Limited Heading angle estimation for object tracking
EP3989202A1 (en) * 2020-10-20 2022-04-27 Aptiv Technologies Limited Method for notifying hazards to a driver of a motor vehicle and device for implementing the same
JP2023012711A (ja) * 2021-07-14 2023-01-26 株式会社デンソー 車両制御装置および車両制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06189906A (ja) * 1992-12-26 1994-07-12 Nissan Motor Co Ltd 視線方向計測装置
JPH0755941A (ja) * 1993-08-11 1995-03-03 Nissan Motor Co Ltd 車間距離測定装置
JP4342708B2 (ja) 2000-09-06 2009-10-14 本田技研工業株式会社 ドライバの視線領域の適合性を判定する車載情報処理装置
JP2004009833A (ja) 2002-06-05 2004-01-15 Nissan Motor Co Ltd 運転状況記録装置
US6989754B2 (en) 2003-06-02 2006-01-24 Delphi Technologies, Inc. Target awareness determination system and method
JP4275507B2 (ja) 2003-10-28 2009-06-10 富士通テン株式会社 運転支援装置
DE102005013920B4 (de) * 2004-03-26 2007-12-13 Mitsubishi Jidosha Kogyo K.K. Frontsicht-Überwachungsvorrichtung
JP2005284798A (ja) 2004-03-30 2005-10-13 Honda Motor Co Ltd 走行安全装置
JP2005284797A (ja) 2004-03-30 2005-10-13 Honda Motor Co Ltd 走行安全装置
JP2005284975A (ja) * 2004-03-30 2005-10-13 Honda Motor Co Ltd 走行安全装置
JP4270010B2 (ja) * 2004-04-05 2009-05-27 株式会社デンソー 物体危険判定装置
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
JP4604691B2 (ja) 2004-12-07 2011-01-05 日産自動車株式会社 車両用警報装置、車両周囲状況の警報方法

Also Published As

Publication number Publication date
CN101500874B (zh) 2012-07-25
US7859652B2 (en) 2010-12-28
EP2061687A2 (en) 2009-05-27
WO2008032220A3 (en) 2008-05-22
KR20090039771A (ko) 2009-04-22
WO2008032220A2 (en) 2008-03-20
EP2061687B1 (en) 2011-03-02
KR101095234B1 (ko) 2011-12-20
US20090237644A1 (en) 2009-09-24
DE602007012899D1 (de) 2011-04-14
JP2008071162A (ja) 2008-03-27
WO2008032220A8 (en) 2009-03-26
CN101500874A (zh) 2009-08-05

Similar Documents

Publication Publication Date Title
JP4420002B2 (ja) 視線先推定装置
EP2910971B1 (en) Object recognition apparatus and object recognition method
JP6459659B2 (ja) 画像処理装置、画像処理方法、運転支援システム、プログラム
KR101498973B1 (ko) 차량용 주차 지원 시스템 및 방법
US20060222207A1 (en) Device for a motor vehicle used for the three-dimensional detection of a scene inside or outside said motor vehicle
JP2009067368A (ja) 表示装置
US10422871B2 (en) Object recognition apparatus using a plurality of object detecting means
KR102059244B1 (ko) 라이다 장치
KR20080004835A (ko) 주행 차량의 운전자 보조 정보 생성 장치 및 방법
JP2005084035A (ja) 物体検出装置
JP6375816B2 (ja) 車両用周辺情報表示システム及び表示装置
US9963147B2 (en) Image processing device
KR20150096924A (ko) 전방 충돌 차량 선정 방법 및 시스템
JP2004310522A (ja) 車両用画像処理装置
JP5698618B2 (ja) 絶対速度推定装置
KR101623469B1 (ko) 레이저 광원을 이용한 야간 장애물 검출 장치 및 방법
KR20170124287A (ko) 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법
JP2006004188A (ja) 障害物認識方法及び障害物認識装置
JP2007089094A (ja) 歩行者検知装置
US10173593B2 (en) Lane display device using outside mirror and method thereof
JP5040851B2 (ja) 脇見運転判定装置
JP2006044517A (ja) ミラー制御装置
JP7014680B2 (ja) 注視対象物検知装置、注視対象物検知方法、およびプログラム
KR101846330B1 (ko) 물체 표시 제어 장치 및 방법
JP2005284797A (ja) 走行安全装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4420002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees