JPWO2018008085A1 - 認知領域推定装置、認知領域推定方法および認知領域推定プログラム - Google Patents

認知領域推定装置、認知領域推定方法および認知領域推定プログラム Download PDF

Info

Publication number
JPWO2018008085A1
JPWO2018008085A1 JP2018525859A JP2018525859A JPWO2018008085A1 JP WO2018008085 A1 JPWO2018008085 A1 JP WO2018008085A1 JP 2018525859 A JP2018525859 A JP 2018525859A JP 2018525859 A JP2018525859 A JP 2018525859A JP WO2018008085 A1 JPWO2018008085 A1 JP WO2018008085A1
Authority
JP
Japan
Prior art keywords
recognition area
unit
calculation unit
visual recognition
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018525859A
Other languages
English (en)
Other versions
JP6425857B2 (ja
Inventor
飛仙 平田
飛仙 平田
敬 平野
敬 平野
卓爾 森本
卓爾 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018008085A1 publication Critical patent/JPWO2018008085A1/ja
Application granted granted Critical
Publication of JP6425857B2 publication Critical patent/JP6425857B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/06Rear-view mirror arrangements mounted on vehicle exterior
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

認知領域推定装置(100)は、移動体を基準にした移動体座標系における移動体の運転者が視認している視認領域を、運転者の視線方向に基づいて算出する視認領域算出部(101)と、移動体座標系における運転者が認知している認知領域を、視認領域算出部(101)が算出した視認領域に基づいて算出する認知領域算出部(104)とを備える。

Description

この発明は、自動車等の移動体における運転者の周囲認知状況を推定する認知領域推定装置、認知領域推定方法および認知領域推定プログラムに関するものである。
自動車等においては、近年の運転支援機能の普及により、レーダおよびカメラ等の自車の周囲を監視するセンサ類の普及が進んでいる。また、近い将来においては、自動運転機能の高度化と普及が進むと考えられ、自車の周囲を監視するセンサ類は、今後ますます質と量との両面において充実化が進むと考えられる。
一方で、完全な自動運転状態以外の場面においては、運転者と車両とが協調して運転行動を行うことが期待される。このため、運転支援機能および自動運転機能においては、運転者の周囲認知状況を推定し、これと車両による周囲認知状況とを協調的に活用することが望まれている。
例えば、車両が交差点内で一時停止して横断者を待つ状況において、自車の周囲を監視するセンサ類が横断者の自車への接近を検出した場合、一般的にはこのような状況を逐一車両から運転者へ警告することは煩雑であり、却って運転者の集中を妨げることになる。しかし、仮に、運転者が横断者の接近に気付いていない場合は、運転者へ警告し注意を促すことで安全運転に貢献することができる。また、別の例として、半自動運転状態の車両においては、車両の制御が自動化されている場合であっても、運転者が周囲の状況を把握して即座に対応できる状態にあることが求められるため、車両は運転者が周囲の認知を怠っていると判断した場合に自動運転を停止する必要がある。
移動体における運転者の周囲認知状況を推定するための従来技術として、例えば特許文献1記載の技術がある。特許文献1には、運転者の視線方向から推定される視野を地図上に重畳することで、運転者による車両周囲の視認領域を推定する方法が開示されている。
特開2010−179713号公報
特許文献1に係る視野推定装置は、運転者の視認方向から推定される視野を、GPS(Global Positioning System)等の情報を用いて地図空間上に固定された座標系(以下、地図座標系と称する)に投影していた。GPSは、例えばトンネルまたはビルの谷間等の電波状況が悪い場合、自車位置計測の精度が低下したり計測が不能となったりする特性がある。運転者の周囲認知状況の推定精度は、GPSによる自車位置計測の頑健性に依存するため、地図座標系における正確な自車位置が得られない状況下では、運転者の周囲認知状況の推定が困難である。
また、特許文献1において車両に搭載されたセンサ類は、自車を中心とした座標系(以下、自車座標系と称する)において周囲を監視している。そのため、車両に搭載されたセンサ類と特許文献1に係る視野推定装置とが協調して運転者の周囲認知状況を推定する際には、地図空間上に固定された地図座標系上で推定された運転者の周囲認知状況を、地図座標系内における自車の位置と姿勢を元に、自車座標系へと変換する必要がある。従って、座標変換のための計算コストが発生してしまう。
このように、移動体における運転者の周囲認知状況を推定するための従来技術においては、視野推定装置と移動体に搭載されたセンサ類との協調が容易ではないため、運転者の周囲認知状況の推定を効率的に行うことができないという課題があった。
この発明は、上記のような課題を解決するためになされたもので、移動体に搭載されたセンサ類との協調を容易にすることを目的とする。
この発明に係る認知領域推定装置は、移動体を基準にした移動体座標系における移動体の運転者が視認している視認領域を、運転者の視線方向に基づいて算出する視認領域算出部と、移動体座標系における運転者が認知している認知領域を、視認領域算出部が算出した視認領域に基づいて算出する認知領域算出部とを備えるものである。
この発明によれば、移動体を基準にした移動体座標系にける視認領域および認知領域を算出するようにしたので、移動体に搭載されたセンサ類との協調が容易になる。これにより、運転者の周囲認知状況の推定を効率的に行うことが可能になる。
この発明の実施の形態1に係る認知領域推定装置の構成例を示す機能ブロック図である。 実施の形態1に係る認知領域推定装置における移動体座標系を説明する図である。 実施の形態1に係る認知領域推定装置のハードウェア構成図である。 実施の形態1に係る認知領域推定装置の動作を示すフローチャートである。 図4のステップST100における視認領域算出部の動作の詳細を示すフローチャートである。 図4のステップST200における認知領域算出部の動作の詳細を示すフローチャートである。 図4のステップST300における運転状態判定部の動作の詳細を示すフローチャートである。 図8A、図8B、図8Cおよび図8Dは、認知領域算出部が算出する認知領域を説明する図である。 この発明の実施の形態5に係る認知領域推定装置の構成例を示す機能ブロック図である。 実施の形態5に係る認知領域推定装置の動作を示すフローチャートである。 図10のステップST500における仮想軌跡算出部の動作の詳細を示すフローチャートである。 この発明の実施の形態6に係る認知領域推定装置の構成例を示す機能ブロック図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る認知領域推定装置100の構成例を示す機能ブロック図である。認知領域推定装置100は、移動体に搭載され、移動体の運転者が認知している移動体周囲の状況を推定するためのものである。以下の説明では、移動体として車両を例にあげるが、鉄道、船舶または航空機等であってもよい。
図1に示す認知領域推定装置100は、視認領域算出部101、ミラー類管理部102、遮蔽物管理部103、認知領域算出部104、認知領域記録部105、運転状態判定部106、運転支援情報提示部107、視線方向計測部111、頭部位置計測部112、移動量計測部113、および周囲状況監視部121を備えている。なお、以下で詳述するように、認知領域推定装置100に必須の構成は視認領域算出部101および認知領域算出部104であり、認知領域推定装置100はその他の構成を備えていてもよいし備えていなくてもよい。
図2は、移動体を基準にした移動体座標系を説明する図である。移動体座標系内における座標軸として、鉛直上方を正とする軸をZ軸、Z軸に直交する平面内において移動体の前方を正とする軸をY軸、この平面内においてY軸に直交する軸であって右方向を正とする軸をX軸と称する。また、X軸周りの回転をピッチ、Y軸周りの回転をロール、Z軸周りの回転をヨーと称し、いずれの回転も、回転軸の正方向に対して右ネジ回りの方向を正とする。また、移動体座標系の原点Oは、移動体に対して相対的に固定された任意の点とする。
なお、実施の形態1においては、説明を簡単にするために、最小の構成としてX軸、Y軸およびヨーの3軸のみを用いた実施形態について記載する。この実施形態と同様の構成により、その他の軸の組み合わせからなる実施形態、ならびにX軸、Y軸、Z軸、ピッチ、ロールおよびヨーの最大6軸を用いた実施形態が実現可能であることは明らかである。
図3は、実施の形態1に係る認知領域推定装置100のハードウェア構成図の一例である。
認知領域推定装置100における視線方向計測部111、頭部位置計測部112、移動量計測部113、および周囲状況監視部121は、センサ類3である。センサ類3は、カメラ、加速度センサ、ジャイロ、またはレーダ等である。センサ類3は、認知領域推定装置100が備えていてもよいし、車両に搭載されている既存のものを利用してもよい。
認知領域推定装置100における運転支援情報提示部107は、ディスプレイ4またはスピーカ5の少なくとも一方である。ディスプレイ4およびスピーカ5は、認知領域推定装置100が備えていてもよいし、車両に搭載されている既存のものを利用してもよい。
認知領域推定装置100におけるミラー類管理部102、遮蔽物管理部103、および認知領域記録部105は、メモリ2である。
認知領域推定装置100における視認領域算出部101、認知領域算出部104、および運転状態判定部106の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ2に格納される。プロセッサ1は、メモリ2に格納されたプログラムを読み出して実行することにより、各部の機能を実現する。即ち、認知領域推定装置100は、プロセッサ1により実行されるときに、後述する図4に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ2を備える。また、プログラムは、視認領域算出部101、認知領域算出部104、および運転状態判定部106の手順または方法をコンピュータに実行させるものであるともいえる。
プロセッサ1は、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)等ともいう。
メモリ2は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、SSD(Solid State Drive)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、視認領域算出部101、認知領域算出部104、および運転状態判定部106の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。専用のハードウェアとは、例えば単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application−Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせた処理回路等である。このように、認知領域推定装置100は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、視認領域算出部101、認知領域算出部104、および運転状態判定部106の各機能を実現することができる。
次に、認知領域推定装置100の詳細を説明する。
視線方向計測部111は、移動体である車両の運転者を監視するカメラから、カメラ画像を取得する。そして、視線方向計測部111は、カメラ画像から運転者の視線方向を推定する既知の技術等により、移動体座標系における運転者の視線方向を計測する。ここで、視線方向は、移動体座標系におけるY軸の正方向を原点として、少なくともヨー方向の視線方向が計測されるものとする。また、運転者の瞼の開閉状態などの視認状態を判別するための情報も併せて計測されることが望ましい。視線方向計測部111は、計測した視線方向の情報を、視認領域算出部101へ出力する。
頭部位置計測部112は、運転者を監視するカメラから、カメラ画像を取得する。そして、頭部位置計測部112は、カメラ画像から運転者の頭部位置を推定する既知の技術等により、移動体座標系における運転者の頭部位置を計測する。ここで、頭部位置は、移動体座標系におけるX,Y,Zの各軸における位置が計測されるものとする。なお、頭部位置計測部112は、時々刻々の頭部位置を計測することが望ましいが、簡易的には運転席のヘッドレストの位置または事前に設定された運転者属性等から想定される静的な値を用いてもよい。例えば、頭部位置計測部112は、車両設計時に想定された標準的な頭部位置、あるいは、座面位置または背もたれの角度等から算出される頭部位置を用いてもよい。さらに、頭部位置計測部112は、事前に運転者ごとに身長等の体格情報を記録しておき、乗車中の運転者の体格情報に基づいて頭部位置を推定してもよい。頭部位置計測部112は、計測した頭部位置の情報を、視認領域算出部101へ出力する。
移動量計測部113は、加速度センサまたはジャイロセンサ等から、加速度または速度等の慣性情報を取得する。移動量計測部113は、取得した慣性情報から移動体座標系における単位時間ごとの車両の移動量を計測する。ここで、移動量は、移動体座標系におけるX,Y,Z方向への移動量と、ヨー、ピッチおよびロールの3軸周りの回転量とのうち、少なくともX,Yおよびヨーの合計3軸が計測されるものとする。なお、移動量計測部113は、加速度センサまたはジャイロセンサ等の代わりに、GPS等の車外システムを利用して、移動体座標系における単位時間ごとの車両の移動量を計測してもよい。視認領域および認知領域の推定に必要な移動体の位置情報は、車両の単位時間あたりの相対的な移動量のみである。従って、移動量計測部113が移動量計測に用いる位置情報が、GPS等で計測された地図座標系の位置情報であっても、加速度センサ等で計測された移動体座標系の位置情報であっても、単位時間あたりの差分量である移動量は同じ値となるため、座標変換が不要であり計算コストが発生しない。ただし、GPSに比べ、加速度センサ等のほうが頑健であり好ましい。移動量計測部113は、計測した移動量の情報を、認知領域算出部104へ出力する。
なお、図1では、認知領域推定装置100の視線方向計測部111、頭部位置計測部112および移動量計測部113が視線方向、頭部位置および移動量を計測する構成としたが、この構成に限定されるものではない。例えば、認知領域推定装置100は視線方向計測部111、頭部位置計測部112および移動量計測部113を備えず、外部装置により計測された視線方向、頭部位置および移動量を取得する構成としてもよい。
周囲状況監視部121は、レーダまたはカメラ等から、検出値を取得する。周囲状況監視部121は、検出値に基づいて車両周囲の障害物または危険物等を検出し、車両周囲の状況を示す情報として、視認領域算出部101および運転状態判定部106へ出力する。また、周囲状況監視部121は、明るさまたは天候等の視認状態に影響を与える情報も併せて計測し、この情報も車両周囲の状況を示す情報に含めて、視認領域算出部101および運転状態判定部106へ出力してもよい。
なお、図1では、認知領域推定装置100が周囲状況監視部121を備える構成としたが、必ず備える必要はない。
視認領域算出部101は、視線方向計測部111から受け取る視線方向の情報を用いて、移動体座標系における視認領域を算出する。視認領域は、運転者が視認していると推測される車両周囲の領域である。視認領域算出部101は、視認領域の算出において、頭部位置計測部112から受け取る頭部位置の情報、ミラー類管理部102が管理しているミラー類の情報、遮蔽物管理部103が管理している遮蔽物の情報、および、周囲状況監視部121から受け取る車両周囲の状況を示す情報を、必要に応じて用いる。視認領域算出部101は、視認領域の情報を認知領域算出部104へ出力する。
ミラー類管理部102は、車両に搭載されたミラー類の情報を管理している。ここで、ミラー類は、サイドミラーおよびルームミラー等の物理ミラー類、ならびに、カメラモニタ画面等の電子ミラー類である。ミラー類管理部102は、移動体座標系における、これらのミラー類の設置位置および形状等を示す情報と、これらのミラー類が投影する投影領域の情報とを管理する。投影領域は、移動体座標系においてミラー類が投影する代表的な視認領域とすることが望ましい。例えば、物理ミラー類であれば、標準的な状態で設置された物理ミラーの中央部を運転者が注視した際に得られる視認領域を、投影領域とする。また、電子ミラー類であれば、電子ミラーの表示モードごとに、中央部を注視した際に得られる視認領域を、投影領域とする。電子ミラーの表示モードとは、例えば、画角が広い広角モード、および画角が狭い望遠モード等であり、表示モードの違いにより電子ミラーに投影される領域が変わる。ミラー類管理部102は、ミラー類の情報を視認領域算出部101へ出力する。
遮蔽物管理部103は、車両に搭載された遮蔽物の情報を管理している。ここで、遮蔽物は、ピラーおよびボンネット等の運転者の視界を遮るものである。遮蔽物管理部103は、移動体座標系におけるこれらの遮蔽物の設置位置および形状等を示す情報を管理する。遮蔽物管理部103は、遮蔽物の情報を視認領域算出部101へ出力する。
なお、図1では、認知領域推定装置100がミラー類管理部102および遮蔽物管理部103を備える構成としたが、必ず備える必要はない。
認知領域算出部104は、移動量計測部113から受け取る移動量の情報、視認領域算出部101から受け取る視認領域の情報、および、認知領域記録部105が記録している過去の認知領域の情報を用いて、移動体座標系における最新の認知領域を算出する。認知領域は、運転者が認知していると推測される車両周囲の領域である。認知領域算出部104は、認知領域の情報を認知領域記録部105へ出力する。
認知領域記録部105は、認知領域算出部104から受け取る認知領域の情報を記録する。また、認知領域記録部105は、記録している認知領域の情報を、認知領域算出部104および運転状態判定部106へ出力する。
運転状態判定部106は、認知領域記録部105が記録している認知領域の情報、および周囲状況監視部121から受け取る車両周囲の状況を示す情報を用いて、車両の運転状態を判定する。運転状態判定部106は、運転状態の情報を運転支援情報提示部107へ出力する。
運転支援情報提示部107は、運転状態判定部106から受け取る運転状態の情報を用いて、運転者の注意を喚起するための情報、または運転者の運転を支援するための情報を生成して提示する。情報の提示方法は、ディスプレイ4への表示またはスピーカ5からの音声出力等である。
なお、図1では、認知領域推定装置100が運転状態判定部106および運転支援情報提示部107を備える構成としたが、必ず備える必要はない。特に車両等においては、運転支援装置または自動運転装置等の既知の手段により、運転状態判定部106および運転支援情報提示部107の機能が提供される場合がある。そのため、認知領域推定装置100は、運転状態判定部106および運転支援情報提示部107を備えず、外部装置である運転支援装置等を利用する構成としてもよい。
次に、認知領域推定装置100の動作を説明する。
図4は、実施の形態1に係る認知領域推定装置100の動作を示すフローチャートである。
ステップST100は、視認領域を算出する処理である。ステップST100において、視認領域算出部101は、視認領域を算出する。図5は、ステップST100における視認領域算出部101の動作の詳細を示すフローチャートである。
ステップST200は、認知領域を算出する処理である。ステップST200において、認知領域算出部104は、認知領域を算出する。図6は、ステップST200における認知領域算出部104の動作の詳細を示すフローチャートである。
ステップST300は、運転状態を判定する処理である。ステップST300において、運転状態判定部106は、運転状態を判定する。図7は、ステップST300における運転状態判定部106の動作の詳細を示すフローチャートである。
認知領域推定装置100は、ステップST100、ST200、ST300の各処理を、一連の処理として同期的に実行してもよいし、センサ類3の計測周期または各処理の実行周期に合わせて非同期的に実行してもよい。
次に、図4に示したステップST100の視認領域算出処理の詳細を、図5を参照して説明する。
ステップST101において、視認領域算出部101は、視線方向計測部111から受け取った視線方向の情報から、サッケード運動を検出する。視認領域算出部101は、サッケード運動が検出された場合は運転者が視認状態ではないと判定し、それ以外の場合であれば運転者が視認状態であると判定する。これは、サッケード運動中は視野内の状態が認識されないという既知の知見に鑑みた判定である。サッケード運動は、眼球が高速に移動する現象であり、簡易的には前回ステップST100を実行したときの視線方向と今回ステップST100を実行するときの視線方向との差分が、予め定められた閾値を超えた場合をサッケード運動として判定することができる。また、視線方向計測部111において、瞼の開閉状態などの視認状態の判定に寄与する付加情報が得られる場合、視認領域算出部101はこれらの付加情報を用いて視認状態の判定を行ってもよい。
視認領域算出部101は、運転者が視認状態であると判定した場合(ステップST101“Yes”)、ステップST102へ進み、視認状態でないと判定した場合(ステップST101“No”)、視認領域算出処理を終了する。
ステップST102において、視認領域算出部101は、ミラー類管理部102が管理しているミラー類の設置位置および形状の情報、および頭部位置計測部112から受け取った頭部位置の情報を用いて、ミラー類の設置位置および形状を、頭部位置に対する相対角度として、視線方向と同じ座標系へと変換する。視認領域算出部101は、視線方向計測部111から受け取った視線方向がミラー類の位置および形状に含まれる場合、運転者の視認対象を当該ミラー類であると判定し(ステップST102“Yes”)、ステップST104へ進み、それ以外の場合は視認対象がミラー類ではないと判定し(ステップST102“No”)、ステップST103へ進む。
ステップST103において、視認領域算出部101は、視線方向計測部111から受け取った視線方向の情報と、頭部位置計測部112から受け取った頭部位置の情報から、移動体座標系における視認領域を算出する。視認領域算出部101は、視認領域を、頭部位置を頂点とし視線方向を中心軸とし、X軸方向に広がる扇形状の領域とする。視認領域算出部101は、視認領域を、頭部位置を頂点とし視線方向を中心軸として楕円錘状に広がる3次元領域としてもよい。さらに、視認領域算出部101は、視認領域の中心軸に近いほど認知度合いが高く、また頭部位置である頂点に近いほど認知度合いが高くなるような重みを設定することが望ましい。これは、人間の視野特性に関する既知の知見に鑑みて構成されたものである。
ステップST104において、視認領域算出部101は、ステップST102で視線方向が含まれると判定したミラー類の投影領域の情報を、ミラー類管理部102から取得する。そして、視認領域算出部101は、ミラー類管理部102から取得した投影領域に基づいて、移動体座標系における視認領域を算出する。視認領域算出部101は、投影領域に基づいた視認領域に対して、ステップST103と同様な人間の視野特性、または電子ミラー類の表示分解能等に応じた重みを設定することが望ましい。
ステップST105において、視認領域算出部101は、遮蔽物管理部103が管理している遮蔽物の位置および形状の情報を取得する。そして、視認領域算出部101は、ステップST103またはステップST104で算出した視認領域の中から、運転者の視線が遮蔽物により遮られて死角となる領域を除外する。また、視認領域算出部101は、周囲状況監視部121から車両周囲の状況を示す情報を受け取り、障害物または危険物等により死角となる領域を、視認領域から除外することが望ましい。
次に、図4に示したステップST200の認知領域算出処理の詳細を、図6および図8A〜図8Dを参照して説明する。
ステップST201において、認知領域算出部104は、前回ステップST200を実行したときに算出した認知領域の情報を、認知領域記録部105から取得する。なお、初回実行時には認知領域記録部105に認知領域の情報が記録されていないため、認知領域算出部104は、認知領域全域を全て0として初期化し、前回ステップST200を実行したときに算出した認知領域の情報とみなす。
図8Aは、初期状態における認知領域を示す図である。初期状態では認知領域全域が初期化されているため、認知領域はない。図8Bは、ステップST201において認知領域算出部104が認知領域記録部105から取得した認知領域Rを示す図である。図8Bに示す認知領域Rは、認知領域記録部105に記録されていた過去の認知領域の情報に基づく。なお、図8Aおよび図8Bにおいて、実線の四角枠は、認知領域算出部104が算出対象とする認知領域算出範囲であり、破線は、自車位置である。自車位置は、説明の便宜のために図示したものであり、実際の認知領域算出処理においては不要である。
ステップST202において、認知領域算出部104は、移動量計測部113から受け取った車両の移動量の情報を用いて、認知領域を更新する。認知領域算出部104は、前回ステップST200を実行したときから今回ステップST200を実行するまでの期間における移動量に相当する角度および距離に基づいて、原点を中心に車両を回転および平行移動させることにより、認知領域を更新する。ここで、原点は、移動量計測部113により計測される計測箇所と一致させることが望ましい。より簡易的には、車両の中心部または重心等を原点に用いてもよい。
式(1)は、ステップST202における認知領域算出手順の具体例である。式(1)により、移動体座標系内において定義された認知領域Rについて、前回のステップnにおける認知領域Rを、今回のステップn+1における認知領域Rへと更新する。
なお、電子出願の関係上、アルファベット文字の上に付く「〜」を「(チルダ)」と表記する。
Figure 2018008085
なお、認知領域Rとして記録される領域は有限の範囲であるため、必ずしもx(チルダ),y(チルダ)が認知領域Rに含まれるとは限らない。この場合は、x(チルダ),y(チルダ)の値として、x(チルダ),y(チルダ)を始点として車両中心または運転者を終点とする線分と、認知領域Rの外縁との交点における値を用いることが望ましい。これは、認知領域の値が大域的には車両または運転者を中心とした放射状に分布するという、認知領域の特性に鑑みたものである。より簡易には、認知領域RのうちのX軸に最も距離が近い点の値をx(チルダ)、認知領域RのうちのY軸に最も距離が近い点の値をy(チルダ)として用いてもよい。これは、特に車両等のように、前方への移動成分が側方への移動成分に比較して大きい場合、または、単位時間当たりの移動量が十分に小さい場合などの、単位時間当たりの回転量が0に近い場合において良い近似を与える。さらに、認知領域Rが運転者の視野に対して十分に広い場合には、x(チルダ),y(チルダ)の値として0を用いてもよい。
また、認知領域Rは、時間領域において離散的に記録されるため、必ずしもx(チルダ),y(チルダ)が認知領域R内に定義された格子点上を参照するとは限らない。この場合は、x(チルダ),y(チルダ)を含む格子面の各頂点からの距離により重みを付けた重み付き平均値を用いることが望ましい。より簡易には、認知領域Rのうち、x(チルダ),y(チルダ)に最も近い格子点の値を用いてもよい。
図8Cは、ステップST202において更新された認知領域Rを示す図である。
ステップST203において、認知領域算出部104は、ステップST202で更新した認知領域に対して、前回ステップST200を実行したときから今回ST200を実行するまでの経過時間に応じた忘却率を乗じて、認知領域を更新する。認知領域における認知度合いの重みは、忘却率に応じて低下する。
式(2)は、ステップST203における認知領域算出手順の具体例である。式(2)により、移動体座標系内において定義された認知領域Rに対して、前回のステップnから今回のステップn+1までの期間に対応する認知領域の忘却率を反映し、認知領域Rを認知領域Rに更新する。
Figure 2018008085
ステップST204において、認知領域算出部104は、ステップST100で視認領域算出部101が視認領域を算出したか否かを判定する。認知領域算出部104は、視認領域算出部101において視認領域が算出されたと判定した場合(ステップST204“Yes”)、ステップST205へ進み、視認領域が算出されていないと判定した場合(ステップST204“No”)、ステップST206へ進む。
ステップST205において、認知領域算出部104は、視認領域算出部101から視認領域の情報を受け取り、受け取った視認領域をステップST203で更新した認知領域に加算することで、認知領域を更新する。
式(3)は、ステップST205における認知領域算出手順の具体例である。式(3)により、移動体座標系内において定義された認知領域Rに対して、同じく移動体座標系内において定義された視認領域Sのステップn+1における値を加算し、認知領域Rを認知領域Rに更新する。
Figure 2018008085
図8Dは、ステップST205において更新された認知領域Rを示す図である。認知領域Rは、認知領域Rと視認領域Sを含む領域である。
ステップST206において、認知領域算出部104は、ステップST203で更新した認知領域、またはステップST205で更新した認知領域を、認知領域記録部105に出力して記録させる。
次に、図4に示したステップST300の運転状態判定処理の詳細を、図7を参照して説明する。
ステップST301において、運転状態判定部106は、ステップST200において認知領域算出部104が算出し認知領域記録部105に記録させた認知領域の情報を、認知領域記録部105から取得する。また、運転状態判定部106は、周囲状況監視部121から車両周囲の状況を示す情報を受け取り、車両周囲の状況と認知領域記録部105から取得した認知領域とを比較して運転状態を判定する。
式(4)は、ステップST301における運転状態判定手順の具体例である。式(4)により、移動体座標系における認知度合いPと、同じく移動体座標系における危険度合いPを乗じることで、移動体座標系における認知的なリスク度合いPを算出する。
ここで、認知度合いPは、上記の式(3)における認知領域Rを0から1の間の値で規格化したものであり、運転者が全く認知していない場合を0、完全に認知している場合を1に対応付けることで、運転者の車両周囲の認知度合いを確率的に表現したものである。
また、危険度合いPは、周囲状況監視部121において判定される値である。周囲状況監視部121は、歩行者または他車両といった障害物等の運転時に注意すべき対象について、それらと自車両との間の距離および相対速度等をもとに、主として自車両との接触確率等を算出する。この接触確率等は、運転時に注意すべき対象についての危険度合いPを確率的に表現したものである。あるいは、周囲状況監視部121は、障害物による死角または見通しの悪い領域などの潜在的な危険度合いPを確率的に表現した値を算出してもよい。
リスク度合いPは、認知度合いと危険度合いとの積である。そのため、認知度合いが低く、かつ、危険度合いが高い場合、リスク度合いPがより大きな値になる。従って、リスク度合いPが大きい値になるほど、当該地点における危険要因が事故等へ発展する可能性が高いことを示す指標となる。運転状態判定部106は、このリスク度合いPを運転状態として用いる。
Figure 2018008085
ステップST302において、運転状態判定部106は、ステップST301で算出した運転状態をもとに、運転状態が不安全な状態か否かを判定する。運転状態判定部106は、運転状態を示すリスク度合いPが予め定められた閾値より大きい場合に不安全状態であると判定し(ステップST302“Yes”)、ステップST303へ進み、それ以外の場合(ステップST302“No”)、運転状態判定処理を終了する。
ステップST303において、運転状態判定部106は、車両が不安全状態であることを示す情報を運転支援情報提示部107へ出力する。運転支援情報提示部107は、不安全状態にある車両の運転者に対して、注意を喚起するための情報を生成し、ディスプレイ4またはスピーカ5から出力する。また、運転支援情報提示部107は、不安全状態を解消する方法などを表した運転支援情報を生成し、ディスプレイ4またはスピーカ5から出力する。例えば、不安全状態として、運転者の認知度合いが低い領域から接近する移動体を検知した場合、運転支援情報提示部107は、運転者に対して移動体の接近を知らせるとともに移動体を視認するように促す。また、運転支援情報提示部107は、接近する移動体に対しては、運転者の注意が逸れていることを警告し回避を促す。さらに、運転支援情報提示部107は、不安全状態が解消されない場合には、車両の周囲状況に応じて減速等の回避行動をとるよう運転者に促す。
また、自車両に搭載されている認知領域推定装置100と、他車両に搭載されている認知領域推定装置100とが、移動体通信または車車間通信等により無線通信可能である場合、自車両の認知領域推定装置100から他車両の認知領域推定装置100に対して情報を送信する構成にしてもよい。例えば、自車両の認知領域推定装置100は、自車両が不安全状態である判定した場合、不安全状態の原因である他車両、つまり自車両の運転者が認知できていない可能性が高い他車両の認知領域推定装置100に対して、注意を喚起するための情報を送信する構成にしてもよい。当該他車両の認知領域推定装置100は、受信した情報を運転者に提示する。この構成の場合、他車両の運転者が自車両を回避することができ、結果として事故等へ発展する可能性を低減することができる。
また、車両に、制動または操舵等を制御する外部装置が搭載されている場合、運転状態の情報を運転状態判定部106から外部装置へ出力し、外部装置により車両の加減速または操舵等を制御して不安全状態を回避する構成にしてもよい。
以上のように、実施の形態1に係る認知領域推定装置100は、車両等の移動体を基準にした移動体座標系における運転者が視認している視認領域を、運転者の視線方向に基づいて算出する視認領域算出部101と、移動体座標系における運転者が認知している認知領域を、視認領域算出部101が算出した視認領域に基づいて算出する認知領域算出部104とを備える構成である。移動体座標系における視認領域および認知領域を算出するようにしたので、移動体座標系において管理される他の周囲監視用のセンサ類3、例えば周囲状況監視部121との協調が容易になる。これにより、例えば運転状態判定部106は、運転者の周囲認知状況の推定を効率的に行うことが可能になる。
また、実施の形態1に係る認知領域推定装置100は、移動体座標系における認知領域のみを管理する構成であるため、特許文献1に係る視野推定装置のような地図座標系を経由した演算が一切不要となる。このため、GPSより頑健なジャイロ等のセンサ類3により計測される慣性情報のみを用いて、自車位置を特定し、認知領域を推定することが可能となる。
また、実施の形態1に係る認知領域推定装置100は、移動体に設置されたミラー類の移動体座標系における設置位置およびミラー類に投影される投影領域を記録しているミラー類管理部102を備える構成である。そして、視認領域算出部101は、ミラー類管理部102が管理しているミラー類の設置位置に運転者の視線方向が含まれる場合、ミラー類の投影領域を運転者の視認領域とする構成である。これにより、より正確に、視認領域および認知領域を推定できる。
また、実施の形態1に係る認知領域推定装置100は、移動体座標系において移動体の周囲を監視して障害物を検出する周囲状況監視部121を備える構成である。そして、視認領域算出部101は、周囲状況監視部121が検出した障害物により死角となる死角領域を算出し、運転者の視認領域から死角領域を削除する構成である。これにより、より正確に、視認領域および認知領域を推定できる。
また、実施の形態1に係る認知領域推定装置100は、移動体座標系における移動体の単位時間当たりの移動量を計測する移動量計測部113を備える構成である。そして、認知領域算出部104は、移動量計測部113が計測した単位時間当たりの移動量に基づいて、1単位時間前に算出した認知領域を移動させ、移動後の認知領域に視認領域算出部101が算出した視認領域を加算することによって認知領域を更新する構成である。
先立って説明した特許文献1に係る視野推定装置は、運転者の周囲認知状況の推定を効率化するために、差分演算により単位時間ごとに視野範囲を更新している。しかし、車両は時々刻々と移動するため、運転者の周囲認知状況を推定すべき領域も地図座標系内において時々刻々と変化し、かつ、車両は、運転者の周囲認知状況を推定すべき領域と比較して非常に巨大な領域を移動する。このため、視野推定装置が上述した視野範囲の更新を実行するために、各更新ステップにおいて周囲認知状況を推定すべき領域を特定するための手段、およびこの領域を管理し更新処理に反映するための手段が必要になるが、このような手段については開示も示唆もされていない。このような手段を備えない場合には、駐車場等の空間的に限定された条件下以外では、事実上無限大の記憶領域が必要となるために、視野範囲の更新を実行することは現実的には困難である。
これに対し、実施の形態1に係る認知領域推定装置100は、移動体座標系にける認知領域を、有限の記憶領域内における単位時間ごとの差分演算により算出可能としたことにより、移動体座標系における効率的な認知領域の推定を可能とする効果を得る。
また、実施の形態1に係る認知領域推定装置100は、移動体座標系において移動体の周囲を監視して移動体の危険度合いを判定する周囲状況監視部121と、周囲状況監視部121が判定した危険度合いおよび認知領域算出部104が算出した認知領域を用いて、移動体の運転状態を判定する運転状態判定部106とを備える構成である。危険度合いおよび認知領域が同じ移動体座標系において管理されるため、運転状態を効率的に判定できる。
実施の形態2.
実施の形態2では、実施の形態1における視認領域算出処理を高精度化する構成について説明する。
以下では、主に実施の形態1と実施の形態2との差分について述べる。特に言及がないものは、実施の形態1に準じるものとし、図1〜図8を援用する。
視認領域の算出においては、車両周囲の環境条件に応じて認知度合いに重みを付けたいという要求がある。例えば、運転者が前方を注視している場合であっても、昼間における視認領域と、夜間における視認領域とは異なる。
そこで、実施の形態2の認知領域推定装置100は、周囲の環境条件に応じて視認領域を変更する構成とする。
実施の形態2の周囲状況監視部121は、車両周囲の状況を示す情報として、車両周囲の障害物または危険物等に加えて、明るさまたは天候等の、運転者の視認状態に影響を与える情報も併せて計測する。周囲状況監視部121は、運転者の視認状態に影響を与える情報として、例えば夜間における対向車の前照灯または昼間における日光などにより、運転者の視界が眩んでいるか否かを計測してもよい。そして、周囲状況監視部121は、車両周囲の障害物または危険物等の情報と、明るさまたは天候等の視認状態に影響を与える情報とを、車両周囲の状況を示す情報として視認領域算出部101へ出力する。
実施の形態2では、図5のステップST101において、視認領域算出部101は、視線方向計測部111から受け取る視線方向の情報に基づいて運転者の視認状態を判定するだけでなく、周囲状況監視部121から受け取る運転者の視認状態に影響を与える情報に基づいて運転者の視認状態を判定してもよい。視認領域算出部101は、例えば夜間における対向車の前照灯または昼間における日光などにより運転者の視界が眩んでいることを示す情報を、周囲状況監視部121から受け取った場合、サッケード運動が検出されなかったとしても視認状態でないと判定することが望ましい(ステップST101“No”)。これは、人間の視野特性に関する既知の知見に鑑みて構成されたものである。
また、実施の形態2では、図5のステップST103において、視認領域算出部101は、周囲状況監視部121から運転者の視認状態に影響を与える情報を受け取り、視界が悪い環境下では視認領域の距離および幅を短くする。視認領域算出部101は、さらに、視界が悪い環境下では視認領域全体の認知度合いが低くなるような重みを設定することが望ましい。これは、人間の視野特性に関する既知の知見に鑑みて構成されたものである。
以上のように、実施の形態2に係る認知領域推定装置100は、車両等の移動体の周囲を監視して運転者の視認状態に影響を与える情報を計測する周囲状況監視部121を備える構成である。そして、視認領域算出部101は、周囲状況監視部121の計測結果に基づいて、視認領域内の認知度合いの重みを調整する構成である。これにより、人間の視野特性をより適切に反映した視認領域を算出可能とする効果を得る。
実施の形態3.
視認領域は本来3次元的な分布を持つため、実施の形態1,2のように3次元空間における視認領域を算出することが望ましい。一方で、記憶領域および計算量については、2次元的な視認領域を算出するほうが効率的である。そこで、実施の形態3では、記憶領域および計算量の負荷を低減しつつ、3次元的な視認領域と同等の2次元的な視認領域を算出する構成について説明する。
以下では、主に実施の形態1と実施の形態3との差分について述べる。特に言及がないものは、実施の形態1に準じるものとし、図1〜図8を援用する。また、以下では、実施の形態3を実施の形態1に組み合わせた例を説明するが、実施の形態3を実施の形態2に組み合わせてもよい。
実施の形態3では、図5のステップST103において、視認領域算出部101は、視線方向計測部111から受け取った視線方向の情報から視認領域を算出する際、運転者の頭部位置の高さ等を運転者の目線程度の高さと仮定し、この高さの2次元XY平面上に3次元空間内で算出した視線領域を投影することによって、2次元的な視認領域を模擬する。なお、運転者の目線程度の高さとしては、運転者の頭部位置の高さに限らず、ハンドルの高さ程度、または車両の高さの幅程度等であってもよい。
また、実施の形態3では、図5のステップST103において、視認領域算出部101は、視線方向計測部111から受け取った視線方向の情報のうちのピッチから、視線が路面と交差するか否かを検出する。視認領域算出部101は、視線が路面と交差することを検出した場合、2次元的な視認領域を、運転者から路面までの距離を視認領域の限界距離とする三角形状の領域に限定することが望ましい。
さらに、視認領域算出部101は、視線方向計測部111から受け取った視線方向の情報のうちのピッチから、視線方向が水平面より所定角度以上の上方を向いているか否かを検出する。所定角度は、視認領域が運転者の目線程度の高さにあるか否かを判定するための値であり、視認領域算出部101に予め定められているものとする。視認領域算出部101は、視線方向が水平面より所定角度以上の上方を向いていることを検出した場合、視認領域を無しとして扱うことが望ましい。
以上のように、実施の形態3に係る認知領域推定装置100における視認領域算出部101は、3次元空間における視認領域を2次元平面上に投影した場合における視認領域を模擬する構成である。これにより、本来は3次元空間内に分布する視認領域を、運転者の目線程度の高さにある2次元平面上に投影した場合における視認領域を模擬することができる。よって、2次元的な実施形態においても、上記2次元平面において疑似的に3次元的な実施形態と同様な視認領域を算出可能とする効果を得る。
実施の形態4.
実施の形態4では、実施の形態1における認知領域算出処理を高精度化する構成について説明する。
以下では、主に実施の形態1と実施の形態4との差分について述べる。特に言及がないものは、実施の形態1に準じるものとし、図1〜図8を援用する。また、以下では、実施の形態4を実施の形態1に組み合わせた例を説明するが、実施の形態4を実施の形態2または実施の形態3に組み合わせてもよい。
実施の形態1の式(4)では、認知領域Rを0から1の間の値で規格化し、運転者が全く認知していない場合を0、完全に認知している場合を1に対応付けることで、確率として解釈可能な形態として取り扱った。このような場合においては、式(3)において示したような単純な加算による更新では確率的な特性が保持できない可能性がある。例えば、運転者がある領域を十分な時間注視した場合、この領域の認知領域Rにおける認知度合いの値は1に収束しているべきであるが、同時にこの領域に視線が滞留していることから、視認領域Sにおける認知度合いもまた1に近い値となる。このため、単純にこれらを加算して更新した場合、認知度合いの値が1を超え、確率としての要件を満たさなくなる。
そこで、実施の形態4では、認知領域推定装置100を以下のような構成とする。
実施の形態4では、図6のステップST205において、認知領域算出部104は、認知領域Rを、確率的な加算により更新する。
式(5)は、実施の形態4のステップST205における認知領域算出手順の具体例である。式(5)において、Pは、視認領域算出部101が算出した視認領域Sを、運転者が全く認知していない場合を0、完全に認知している場合を1に対応付けることで、確率的に表現したものである。このような構成により、認知領域算出部104が算出する認知領域Rは、常に確率としての特性が保持されるため、上式(4)における認知度合いPとして直接使用可能な値となる。
Figure 2018008085
以上のように、実施の形態4に係る認知領域推定装置100において、認知領域算出部104は、認知領域内の認知度合いを表す確率と視認領域内の認知度合いを表す確率とを加算する構成である。認知領域および視認領域の値を確率として解釈可能な形態として取り扱うことにより、認知領域を効率的に算出可能とする効果を得る。
実施の形態5.
実施の形態5では、実施の形態1における認知領域算出処理を高精度化する構成について説明する。
以下では、主に実施の形態1と実施の形態5との差分について述べる。特に言及がないものは、実施の形態1に準じるものとし、図1〜図8を援用する。また、以下では、実施の形態5を実施の形態1に組み合わせた例を説明するが、実施の形態5を実施の形態2、実施の形態3または実施の形態4に組み合わせてもよい。
視線方向計測部111、頭部位置計測部112、または移動量計測部113のうちのいずれかにおいて時間解像度が十分でない場合、認知領域算出部104の認知領域算出処理において単位時間当たりの変化領域、つまり前回算出した認知領域と今回算出した認知領域との差分が大きくなる。すると、認知領域が時間領域において不連続になる場合がある。また、視線方向計測部111、頭部位置計測部112、および移動量計測部113の計測周期が異なる場合、例えば、視認領域と認知領域とを重ね合わせる際に時間のずれによる誤差が生じたり、認知領域の算出周期が最も計測周期の長い計測部に制約されたりする。
また、事前に車両の移動を模擬することで、短時間先における認知領域を予測したいという要求がある。例えば、交差点の右左折時においては、右左折中および右左折先において想定される認知領域を算出することで、各段階における危険物等を事前に推定し運転者に警告することが期待される。
そこで、実施の形態5では、認知領域推定装置100を以下のような構成とする。
図9は、実施の形態5に係る認知領域推定装置100の構成例を示す機能ブロック図である。実施の形態5に係る認知領域推定装置100は、視認領域の算出に用いる視線方向等の仮想軌跡を算出する仮想軌跡算出部151を備えている。
図10は、実施の形態5に係る認知領域推定装置100の動作を示すフローチャートである。
ステップST500は、仮想軌跡を算出する処理である。ステップST500において、仮想軌跡算出部151は、仮想軌跡を算出する。図11は、ステップST500における仮想軌跡算出部151の動作の詳細を示すフローチャートである。
ステップST100,ST200,ST300の各処理は、実施の形態1の図4〜図7に示した各処理と同様である。ただし、実施の形態5の認知領域推定装置100においては、ステップST500において算出された現在より先のある時刻の仮想軌跡に対して、ステップST100,ST200,ST300の各処理を実行する点が異なる。現在より先のある時刻としては、今回ステップST500と前回ステップST500の間のある時刻を含む。
次に、図10に示したステップST500の仮想軌跡算出処理の詳細を、図11を参照して説明する。
ステップST101において、視認領域算出部101は、図5のステップST101と同じ処理を行って、車両の運転者が視認状態であるか否かを判定し、判定結果を仮想軌跡算出部151へ出力する。仮想軌跡算出部151は、視認領域算出部101により運転者が視認状態であると判定された場合(ステップST101“Yes”)、ステップST501へ進み、視認状態でないと判定された場合(ステップST101“No”)、ステップST503へ進む。
ステップST501において、仮想軌跡算出部151は、視線方向計測部111から受け取った視線方向の情報等から、現在より先のある時刻における視線方向の推定値を算出する。仮想軌跡算出部151は、例えば、前回ステップST500を実行したときの視線方向と今回ステップST500を実行するときの視線方向とを用いた線形補間等により、ある時刻における視線方向を推定する。または、仮想軌跡算出部151は、短時間先の予測においては、現在からある時刻までの間に視線方向が変化しないとする等の仮定により、視線方向を推定してもよい。これにより、仮想軌跡算出部151は、視線方向の仮想軌跡を算出する。
ステップST502において、仮想軌跡算出部151は、頭部位置計測部112から受け取った頭部位置の情報等から、現在より先のある時刻における頭部位置の推定値を算出する。仮想軌跡算出部151は、例えば、前回ステップST500を実行したときの頭部位置と今回ステップST500を実行するときの頭部位置とを用いた線形補間等により、ある時刻における頭部位置を推定する。または、仮想軌跡算出部151は、短時間先の予測においては、現在からある時刻までの間に頭部位置が変化しないとする等の仮定により、頭部位置を推定してもよい。これにより、仮想軌跡算出部151は、頭部位置の仮想軌跡を算出する。
ステップST503において、仮想軌跡算出部151は、移動量計測部113から受け取った移動量の情報等から、現在より先のある時刻における移動量の推定値を算出する。仮想軌跡算出部151は、例えば、前回ステップST500を実行したときの移動量と今回ステップST500を実行するときの移動量とを用いた線形補間等により、ある時刻における移動量を推定する。または、仮想軌跡算出部151は、短時間先の予測においては、現在からある時刻までの間に移動量が変化しないとする等の仮定により、移動量を推定してもよい。より高度には、仮想軌跡算出部151は、移動体の軌跡の連続性を考慮して、過去および今回ステップST500を実行するときの移動量を用いて移動体座標系における車両の軌跡を算出する際に、スプライン関数等の滑らかな曲線を用いて補間値を算出することが望ましい。また、短時間先の予測においては、仮想軌跡算出部151は、車両進行方向の道路形状またはナビゲーションシステムの誘導経路などの情報を用いて、短時間先において自車が通過することが予想される経路を推定し、この経路を車両の軌跡としてもよい。これにより、仮想軌跡算出部151は、移動量の仮想軌跡を算出する。
以上のように、実施の形態5に係る認知領域推定装置100は、現在より先の時刻の視線方向を推定する仮想軌跡算出部151を備える構成である。そして、視認領域算出部101は、仮想軌跡算出部151が推定した視線方向に基づいて、現在より先の時刻の視認領域を算出する構成である。これにより、視線方向計測部111の計測周期を補間することができ、滑らかな認知領域の推定結果を算出可能とする効果を得る。さらに、短時間先における認知領域の推定を可能とする効果を得る。
また、仮想軌跡算出部151が現在より先の時刻の移動体の移動量を推定し、認知領域算出部104が仮想軌跡算出部151の算出した移動量に基づいて、現在より先の時刻の認知領域を算出する構成であってもよい。
また、仮想軌跡算出部151が現在より先の時刻の視線方向および移動量を推定し、認領域算出部101が仮想軌跡算出部151の推定した視線方向に基づいて、現在より先の時刻の視認領域を算出し、認知領域算出部104が仮想軌跡算出部151の算出した移動量に基づいて、現在より先の時刻の認知領域を算出する構成であってもよい。
さらに、仮想軌跡算出部151は、視線方向または移動量だけでなく、頭部位置の仮想軌跡を推定する構成であってもよい。
このように、認知領域推定装置100は、仮想軌跡算出部151を備えることにより、視線方向計測部111、頭部位置計測部112および移動量計測部113の計測周期が異なったとしても、計測周期に依存せずに認知領域の推定を可能とする効果を得る。
実施の形態6.
実施の形態6では、実施の形態1における運転状態判定処理を高精度化する構成について説明する。
以下では、主に実施の形態1と実施の形態6との差分について述べる。特に言及がないものは、実施の形態1に準じるものとし、図1〜図8を援用する。また、以下では、実施の形態6を実施の形態1に組み合わせた例を説明するが、実施の形態6を実施の形態2、実施の形態3、実施の形態4または実施の形態5に組み合わせてもよい。
図12は、この発明の実施の形態6に係る認知領域推定装置100の構成例を示す機能ブロック図である。
位置・姿勢計測部161は、GPSまたは方位計等のセンサ類3から、センサ検出値を取得する。位置・姿勢計測部161は、センサ検出値から地図座標系における車両の位置と姿勢とを計測する。地図座標系とは、地図空間上に固定された座標系であり、例えば緯度経度である。位置・姿勢計測部161は、車両の位置および姿勢の情報を、地図情報管理部162へ出力する。
地図情報管理部162は、道路または信号等の移動体の運行に用いられる地図情報を管理している。地図情報管理部162は、位置・姿勢計測部161から受け取る地図座標系における車両の位置および姿勢の情報を用いて、車両の位置を地図座標系から移動体座標系に変換する。また、地図情報管理部162は、車両周囲の地図情報を抽出し、障害物等による死角または見通しの悪い領域などの潜在的な危険度合いを判定して、運転状態判定部106へ出力する。特に車両等においては、カーナビゲーションシステム等の既知の手段により、位置・姿勢計測部161と地図情報管理部162の機能が併せて提供される。そのため、認知領域推定装置100は、位置・姿勢計測部161および地図情報管理部162を備えず、外部装置であるカーナビゲーションシステム等を利用する構成としてもよい。
認知領域推定装置100が周囲状況監視部121を備えていない場合であっても、車両に搭載されたカーナビゲーションシステム、またはカーナビゲーションシステムと同様の機能を有する位置・姿勢計測部161および地図情報管理部162が存在する場合、運転状態判定部106において地図情報を活用することで道路状況に応じた運転支援を行うことが期待される。また、認知領域推定装置100が周囲状況監視部121を備えている場合であっても、地図情報を併用することで、より精度の高い運転支援を行うことが期待される。例えば、交差点の右左折時においては、後続車両の巻き込み有無、または右左折先の横断歩道またはこれに繋がる歩道上の歩行者の有無等の、定型的な確認作業を行うことが必須である。しかし、これらの領域には街路樹等の障害物が多く、また歩行者の後ろを別の歩行者が追い抜きながら歩いている等の検出困難な事象が想定されるため、周囲状況監視部121において必ずしも適切に危険度合いが判定できるとは限らない。このような場合には、道路状況に基づく危険度合いの判定が有効である。
そこで、実施の形態6では、認知領域推定装置100を以下のような構成とする。
実施の形態6では、図7のステップST301において、地図情報管理部162は、位置・姿勢計測部161から地図座標系における車両の位置と姿勢の情報を取得する。次に、地図情報管理部162は、車両の位置をもとに、車両周囲の地図情報を抽出し、抽出した地図情報および車両の姿勢から、移動体座標系における危険度合いHを算出する。危険度合いHは、簡易には地図情報管理部162にあらかじめ記録された地図座標系における危険度合いを移動体座標系へ変換することで算出される。また、地図情報管理部162から抽出された周囲の道路形状を元に、あらかじめ定められた規則に従って道路形状に対応する危険度合いHが算出される。さらに、地図情報管理部162は、算出した危険度合いHに対して、危険個所と車両との相対速度、あるいは、右左折等の運転行動等に応じた重みづけを行うことが望ましい。地図情報管理部162は、算出した危険度合いHを、運転状態判定部106へ出力する。
運転状態判定部106は、危険度合いPの代わりに危険度合いHを用いて、または危険度合いHで更新した危険度合いPを用いて、式(4)を計算する。危険度合いHで危険度合いPを更新する方法として、例えば、運転状態判定部106は、危険度合いPと危険度合いHの重み付き平均値、あるいは、危険度合いPと危険度合いHの最大値を算出する。
以上のように、実施の形態6に係る認知領域推定装置100は、地図情報を用いて、移動体座標系における移動体の危険度合いを判定する地図情報管理部162と、地図情報管理部162が判定した危険度合いおよび認知領域算出部104が算出した認知領域を用いて、移動体の運転状態を判定する運転状態判定部106とを備える構成である。これにより、地図情報を活用し、道路状況に応じた運転支援を行うことを可能とする効果を得る。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る認知領域推定装置は、運転者の視線方向に基づいて周囲認識状況を推定するようにしたので、運転支援機能または自動運転機能が搭載された車両などに用いるのに適している。
1 プロセッサ、2 メモリ、3 センサ類、4 ディスプレイ、5 スピーカ、100 認知領域推定装置、101 視認領域算出部、102 ミラー類管理部、103 遮蔽物管理部、104 認知領域算出部、105 認知領域記録部、106 運転状態判定部、107 運転支援情報提示部、111 視線方向計測部、112 頭部位置計測部、113 移動量計測部、121 周囲状況監視部、151 仮想軌跡算出部、161 位置・姿勢計測部、162 地図情報管理部。
この発明に係る認知領域推定装置は、移動体を基準にした移動体座標系における移動体の運転者が視認している視認領域を、運転者の視線方向に基づいて算出する視認領域算出部と、移動体座標系における運転者が認知している認知領域を、視認領域算出部が算出した視認領域に基づいて算出する認知領域算出部とを備え、移動体座標系における移動体の単位時間当たりの移動量を計測する移動量計測部を備え、認知領域算出部は、移動量計測部が計測した単位時間当たりの移動量に基づいて、1単位時間前に算出した認知領域を移動させ、移動後の認知領域に視認領域算出部が算出した視認領域を加算することによって認知領域を更新するものである。

Claims (13)

  1. 移動体を基準にした移動体座標系における前記移動体の運転者が視認している視認領域を、前記運転者の視線方向に基づいて算出する視認領域算出部と、
    前記移動体座標系における前記運転者が認知している認知領域を、前記視認領域算出部が算出した視認領域に基づいて算出する認知領域算出部とを備える認知領域推定装置。
  2. 前記移動体に設置されたミラー類の前記移動体座標系における設置位置および前記ミラー類に投影される投影領域を記録しているミラー類管理部を備え、
    前記視認領域算出部は、前記ミラー類管理部が記録している前記ミラー類の設置位置に前記運転者の視線方向が含まれる場合、前記ミラー類の投影領域を前記運転者の視認領域とすることを特徴とする請求項1記載の認知領域推定装置。
  3. 前記移動体の周囲を監視して運転者の視認状態に影響を与える情報を計測する周囲状況監視部を備え、
    前記視認領域算出部は、前記周囲状況監視部の計測結果に基づいて、視認領域内の認知度合いの重みを調整することを特徴とする請求項1記載の認知領域推定装置。
  4. 前記移動体座標系において前記移動体の周囲を監視して障害物を検出する周囲状況監視部を備え、
    前記視認領域算出部は、前記周囲状況監視部が検出した障害物により死角となる死角領域を算出し、前記運転者の視認領域から前記死角領域を排除することを特徴とする請求項1記載の認知領域推定装置。
  5. 前記視認領域算出部は、3次元空間における視認領域を2次元平面上に投影した場合における視認領域を模擬することを特徴とする請求項1記載の認知領域推定装置。
  6. 前記移動体座標系における前記移動体の単位時間当たりの移動量を計測する移動量計測部を備え、
    前記認知領域算出部は、前記移動量計測部が計測した単位時間当たりの移動量に基づいて、1単位時間前に算出した認知領域を移動させ、移動後の前記認知領域に前記視認領域算出部が算出した視認領域を加算することによって前記認知領域を更新することを特徴とする請求項1記載の認知領域推定装置。
  7. 前記認知領域算出部は、認知領域内の認知度合いを表す確率と視認領域内の認知度合いを表す確率とを加算することを特徴とする請求項6記載の認知領域推定装置。
  8. 現在より先の時刻の視線方向を推定する仮想軌跡算出部を備え、
    前記視認領域算出部は、前記仮想軌跡算出部が推定した視線方向に基づいて、現在より先の時刻の視認領域を算出することを特徴とする請求項1記載の認知領域推定装置。
  9. 現在より先の時刻の前記移動体の移動量を推定する仮想軌跡算出部を備え、
    前記認知領域算出部は、前記仮想軌跡算出部が推定した移動量に基づいて、現在より先の時刻の認知領域を算出することを特徴とする請求項1記載の認知領域推定装置。
  10. 前記移動体座標系において前記移動体の周囲を監視して前記移動体の危険度合いを判定する周囲状況監視部と、
    前記周囲状況監視部が判定した危険度合いおよび前記認知領域算出部が算出した認知領域を用いて、前記移動体の運転状態を判定する運転状態判定部とを備えることを特徴とする請求項1記載の認知領域推定装置。
  11. 地図情報を用いて、前記移動体座標系における前記移動体の危険度合いを判定する地図情報管理部と、
    前記地図情報管理部が判定した危険度合いおよび前記認知領域算出部が算出した認知領域を用いて、前記移動体の運転状態を判定する運転状態判定部とを備えることを特徴とする請求項1記載の認知領域推定装置。
  12. 視認領域算出部が、移動体を基準にした移動体座標系における前記移動体の運転者が視認している視認領域を、前記運転者の視線方向に基づいて算出するステップと、
    認知領域算出部が、前記移動体座標系における前記運転者が認知している認知領域を、前記視認領域算出部が算出した視認領域に基づいて算出するステップとを備える認知領域推定方法。
  13. コンピュータに、
    移動体を基準にした移動体座標系における前記移動体の運転者が視認している視認領域を、前記運転者の視線方向に基づいて算出する視認領域算出手順と、
    前記移動体座標系における前記運転者が認知している認知領域を、前記視認領域算出手順で算出した視認領域に基づいて算出する認知領域推定手順とを、実行させるための認知領域推定プログラム。
JP2018525859A 2016-07-05 2016-07-05 認知領域推定装置、認知領域推定方法および認知領域推定プログラム Active JP6425857B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069890 WO2018008085A1 (ja) 2016-07-05 2016-07-05 認知領域推定装置、認知領域推定方法および認知領域推定プログラム

Publications (2)

Publication Number Publication Date
JPWO2018008085A1 true JPWO2018008085A1 (ja) 2018-09-27
JP6425857B2 JP6425857B2 (ja) 2018-11-21

Family

ID=60912590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018525859A Active JP6425857B2 (ja) 2016-07-05 2016-07-05 認知領域推定装置、認知領域推定方法および認知領域推定プログラム

Country Status (5)

Country Link
US (1) US10814788B2 (ja)
JP (1) JP6425857B2 (ja)
CN (1) CN109416884B (ja)
DE (1) DE112016006962B4 (ja)
WO (1) WO2018008085A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL260822B (en) * 2018-07-26 2019-12-31 Ophir Yoav Method and system for a dynamic collision awareness envelope for a vehicle
CN112889270A (zh) * 2018-10-22 2021-06-01 松下电器(美国)知识产权公司 信息处理方法、信息处理装置、信息处理程序以及信息处理系统
DE102018008624A1 (de) * 2018-10-31 2020-04-30 Trw Automotive Gmbh Steuerungssystem und Steuerungsverfahren zum samplingbasierten Planen möglicher Trajektorien für Kraftfahrzeuge
CN110335306B (zh) * 2019-04-23 2022-04-15 华中科技大学 注视点预测方法及装置
WO2022009303A1 (ja) * 2020-07-07 2022-01-13 三菱電機株式会社 運転支援装置および運転支援方法
CN113391699B (zh) * 2021-06-10 2022-06-21 昆明理工大学 一种基于动态眼动指标的眼势交互模型方法
JP2023034404A (ja) * 2021-08-31 2023-03-13 トヨタ自動車株式会社 歩行情報提供システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10185597A (ja) * 1996-10-25 1998-07-14 Toyota Motor Corp 車両用情報提供装置
JP2009251761A (ja) * 2008-04-02 2009-10-29 Toyota Motor Corp 運転支援システム
WO2010131331A1 (ja) * 2009-05-12 2010-11-18 トヨタ自動車株式会社 視認領域推定装置および運転支援装置
JP2012014257A (ja) * 2010-06-29 2012-01-19 Toyota Motor Corp 警報装置
JP2015170249A (ja) * 2014-03-10 2015-09-28 株式会社デンソーアイティーラボラトリ 安全確認判定装置、及び運転支援装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235495A (ja) * 1995-02-24 1996-09-13 Aqueous Res:Kk 移動体用通信装置
DE10325762A1 (de) * 2003-06-05 2004-12-23 Daimlerchrysler Ag Bildverarbeitungssystem für ein Fahrzeug
JP2005284473A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 運転支援システム、自動車、および運転支援方法
JP4359546B2 (ja) * 2004-09-06 2009-11-04 株式会社豊田中央研究所 交流モータの制御装置
WO2006087993A1 (ja) * 2005-02-15 2006-08-24 Matsushita Electric Industrial Co., Ltd. 周辺監視装置および周辺監視方法
US8085140B2 (en) * 2006-09-04 2011-12-27 Panasonic Corporation Travel information providing device
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP4949198B2 (ja) * 2007-10-29 2012-06-06 三菱ふそうトラック・バス株式会社 車両の衝突被害軽減装置における監視対象物の検出装置
CN102047304B (zh) * 2008-08-05 2013-04-03 松下电器产业株式会社 驾驶注意力程度判定装置、方法
JP5427421B2 (ja) * 2009-01-19 2014-02-26 富士通コンポーネント株式会社 タッチパネル
JP5568761B2 (ja) 2009-02-03 2014-08-13 富士重工業株式会社 視野推定装置、視野推定方法、コンピュータプログラム及び記録媒体
CN102111530B (zh) * 2009-12-24 2013-01-02 财团法人工业技术研究院 移动物体检测装置与方法
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
CN201622540U (zh) * 2010-04-23 2010-11-03 深圳市迅祥达科技有限公司 集成键盘型的无线鼠标
JP5387763B2 (ja) * 2010-05-25 2014-01-15 富士通株式会社 映像処理装置、映像処理方法及び映像処理プログラム
JP2012234409A (ja) * 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
JP2012242179A (ja) * 2011-05-17 2012-12-10 Sony Corp 進行方位算出装置、進行方位算出方法及び進行方位算出プログラム並びにナビゲーション装置
JP5704239B2 (ja) * 2011-08-10 2015-04-22 トヨタ自動車株式会社 運転支援装置
US20130096820A1 (en) * 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
JP6138419B2 (ja) * 2012-04-04 2017-05-31 株式会社ナビタイムジャパン 経路情報提供システム、経路情報提供装置、経路情報提供方法、および、経路情報提供プログラム
JP5888087B2 (ja) * 2012-04-25 2016-03-16 ソニー株式会社 走行支援画像生成装置、走行支援画像生成方法、車載用カメラおよび機器操縦支援画像生成装置
CN103863210A (zh) * 2012-12-12 2014-06-18 华创车电技术中心股份有限公司 侧向视野影像显示系统
CN103885573B (zh) * 2012-12-19 2017-03-01 财团法人车辆研究测试中心 车用显示系统的自动校正方法及其系统
CN103326658B (zh) * 2013-06-18 2015-08-12 南京航空航天大学 一种内置式永磁同步电机无位置传感器控制方法
CN105378813A (zh) * 2013-07-05 2016-03-02 三菱电机株式会社 信息显示装置
CN105083291B (zh) * 2014-04-25 2018-11-09 歌乐株式会社 基于视线检测的驾驶员辅助系统
CN104021676B (zh) * 2014-06-25 2016-08-03 上海交通大学 基于车辆动态视频特征的车辆定位及车速测量方法
CN104121903B (zh) * 2014-07-04 2017-06-30 沈阳航空航天大学 一种基于边界值问题的滚动航路规划方法
JP2016170688A (ja) * 2015-03-13 2016-09-23 株式会社東海理化電機製作所 運転支援装置及び運転支援システム
CN104794938B (zh) * 2015-04-17 2018-09-18 吕栋雷 一种基于车车协作通信的豪车告警系统及方法
CN105277950B (zh) * 2015-09-29 2017-09-15 大连楼兰科技股份有限公司 基于车体坐标系的激光雷达坐标转换方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10185597A (ja) * 1996-10-25 1998-07-14 Toyota Motor Corp 車両用情報提供装置
JP2009251761A (ja) * 2008-04-02 2009-10-29 Toyota Motor Corp 運転支援システム
WO2010131331A1 (ja) * 2009-05-12 2010-11-18 トヨタ自動車株式会社 視認領域推定装置および運転支援装置
JP2012014257A (ja) * 2010-06-29 2012-01-19 Toyota Motor Corp 警報装置
JP2015170249A (ja) * 2014-03-10 2015-09-28 株式会社デンソーアイティーラボラトリ 安全確認判定装置、及び運転支援装置

Also Published As

Publication number Publication date
DE112016006962B4 (de) 2020-06-25
CN109416884B (zh) 2021-02-19
DE112016006962T5 (de) 2019-02-28
WO2018008085A1 (ja) 2018-01-11
JP6425857B2 (ja) 2018-11-21
CN109416884A (zh) 2019-03-01
US20190275946A1 (en) 2019-09-12
US10814788B2 (en) 2020-10-27

Similar Documents

Publication Publication Date Title
WO2018008085A1 (ja) 認知領域推定装置、認知領域推定方法および認知領域推定プログラム
US11040726B2 (en) Alarm system of autonomous driving vehicles (ADVs)
EP3309640B1 (en) Group driving style learning framework for autonomous vehicles
US11113547B2 (en) Planning control in response to a driving obstruction during operation of an autonomous driving vehicle (ADV)
JP6648411B2 (ja) 処理装置、処理システム、処理プログラム及び処理方法
EP3342667A1 (en) Method and system for improving stability of autonomous driving vehicles
EP3352039A1 (en) Method for keeping distance between an autonomous driving vehicle and a following vehicle using a braking light
EP3378707A1 (en) Collision prediction and forward airbag deployment system for autonomous driving vehicles
CN103874931B (zh) 用于求取车辆的环境中的对象的位置的方法和设备
US10232772B2 (en) Driver assistance system
EP3405374B1 (en) Deceleration curb-based direction checking and lane keeping system for autonomous driving vehicles
US10521680B2 (en) Detecting foliage using range data
KR101999079B1 (ko) 표시 장치의 제어 방법 및 표시 장치
EP2990266A1 (en) Generating spatial information for a heads-up display
US11662730B2 (en) Hierarchical path decision system for planning a path for an autonomous driving vehicle
CN111532253A (zh) 用于自动驾驶系统的具有功能安全监视器的故障运行结构
US11414099B2 (en) Dynamic stop time threshold selection for hands-free driving
JP2018127084A (ja) 自動運転車両
JP4277678B2 (ja) 車両運転支援装置
EP3896490B1 (en) Systems and methods to enhance early detection of performance induced risks for an autonomous driving vehicle
JP7371679B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2020235027A1 (ja) 運転支援装置及び運転支援方法
CN115257794A (zh) 用于控制车辆中的平视显示器的系统和方法
KR20200133443A (ko) 자율 주행 장치 및 방법
JP2016218938A (ja) 検出装置、検出方法および検出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180619

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181023

R150 Certificate of patent or registration of utility model

Ref document number: 6425857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250