JPWO2016170646A1 - シーン理解装置 - Google Patents

シーン理解装置 Download PDF

Info

Publication number
JPWO2016170646A1
JPWO2016170646A1 JP2017513907A JP2017513907A JPWO2016170646A1 JP WO2016170646 A1 JPWO2016170646 A1 JP WO2016170646A1 JP 2017513907 A JP2017513907 A JP 2017513907A JP 2017513907 A JP2017513907 A JP 2017513907A JP WO2016170646 A1 JPWO2016170646 A1 JP WO2016170646A1
Authority
JP
Japan
Prior art keywords
obstacle
vehicle
obstacle detection
specific point
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017513907A
Other languages
English (en)
Other versions
JP6432677B2 (ja
Inventor
真規 義平
真規 義平
渡辺 省吾
省吾 渡辺
則政 岸
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2016170646A1 publication Critical patent/JPWO2016170646A1/ja
Application granted granted Critical
Publication of JP6432677B2 publication Critical patent/JP6432677B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

シーン理解装置は、道路上において車両同士又は車両と人が交錯する特定地点に、障害物を検出するための1又は2以上の、道路構造に応じた形状の障害物検出枠42が予め設定されている地図データを取得する。自車の走行予定経路51上にある特定地点において、障害物検出枠42に障害物が有るか否かを判断し、障害物の有無の判断結果に基づいて、特定地点の危険度を算出する。

Description

本発明は、道路上において車両同士又は車両と人が交錯する特定地点の危険度を判断するシーン理解装置に関するものである。
従来から、自車の周辺の潜在的な危険度を算出するための危険度算出装置が提案されている(特許文献1参照)。特許文献1では、障害物検出装置からの情報に基づいて、自車の周辺に格子状領域であるメッシュの設定を変化させ、当該メッシュの各交点あるいは個々の格子状領域におけるリスクポテンシャルを算出する。そして、この算出されたリスクポテンシャルに従って、自車の目標経路を設定している。
国際公開第2012/032624号
自車周辺の格子状領域の全てにおいてリスクポテンシャルを算出しているため、多くの障害物が検出された場合には、演算負荷が増大してしまい、危険度を算出するまでの時間が長くなってしまうという問題がある。
本発明は、上記課題に鑑みて成されたものであり、その目的は、演算負荷が過度に増大することを抑制するシーン理解装置を提供することである。
本発明の一態様に係わるシーン理解装置は、車両同士又は車両と人が交錯する特定地点において、予め設定されている、道路構造に応じた形状の障害物検出枠に障害物が有るか否かを判断し、その判断結果に基づいて、特定地点の危険度を算出する。
図1は、第1実施形態に係わるシーン理解装置を含む運転支援装置1aの全体構成を示すブロック図である。 図2は、演算回路17aにより構成される複数の演算処理部を示すブロック図である。 図3は、第1実施形態に係わるシーン理解方法を含む運転支援方法の一例を示すフローチャートである。 図4(a)は、三叉路における縁石41の位置を示す縁石情報もしくは道路ネットワーク情報の例を示す平面図であり、図4(b)は、三叉路に設定される障害物検出枠42の例を示す平面図である。 図5(a)及び(b)は、合流地点の一例、及び合流地点に設定される障害物検出枠42の例を示す平面図であり、図5(c)及び(d)は、横断歩道45の一例、及び横断歩道45に設定される障害物検出枠42の例を示す平面図である。 図6(a)は信号機がある三叉路に設定される注視枠48の例を示す平面図であり、図6(b)は信号機がない三叉路に設定される注視枠48の例を示す平面図であり、図6(c)は障害物49によって生じる死角と注視枠48とが重畳している様子を示す平面図である。 図7(a)は、合流地点に設定される注視枠48の例を示す平面図であり、図7(b)は、横断歩道に設定される注視枠48の例を示す平面図である。 図8(a)は、11個の障害物検出枠(R01〜R11)、2個の注視枠(T01、T02)が設定されている三叉路を示す平面図である。図8(b)〜図8(e)は、図8(a)の三叉路において、障害物がある障害物検出枠(R01〜R11)及び死角と重畳する注視枠(T01、T02)の組合せの例を示す平面図である。 図9(a)〜図9(d)は、検出枠選択部25により選択される障害物検出枠42’の例を示す平面図であり、図9(e)及び図9(f)は、検出枠選択部25により選択される注視枠48’の例を示す平面図である。 図10は、第2実施形態に係わるシーン理解装置を含む運転支援装置1bの全体構成を示すブロック図である。 図11は、演算回路17bにより構成される複数の演算処理部を示すブロック図である。 図12は、第2実施形態に係わるシーン理解方法を含む運転支援方法の一例を示すフローチャートである。 図13は、図12のステップS33及びステップS23の詳細な手順を示すフローチャートである。 図14は、図13のステップS47に示す知識ツリー(交差点入口)の詳細な手順を示すフローチャートである。 図15は、図13のステップS49に示す知識ツリー(交差点内部)の詳細な手順を示すフローチャートである。 図16は、図13のステップS51に示す知識ツリー(交差点出口)の詳細な手順を示すフローチャートである。
(第1実施形態)
次に、図面を参照して、本発明の実施の形態を詳細に説明する。
(第1実施形態)
図1を参照して、第1実施形態に係わるシーン理解装置を含む運転支援装置1aの全体構成を説明する。運転支援装置1aは、自車の走行予定経路上の特定地点において他車或いは人と交錯する危険度(シーン)に基づいて自車の行動(運転支援方法)を決定し、運転支援を実行する装置である。シーン理解装置は、危険度を算出する、すなわちシーンを理解する装置である。特定地点とは、道路上において車両同士又は車両と人が交錯する地点であって、例えば、3つ以上の道路が集まる交差点、高速道路の合流地点、横断歩道が含まれる。よって、シーン理解装置は、自車が特定地点を走行する際に、特定地点の周囲に有る他車或いは人を検出して、他車或いは人と交錯する危険度を算出する。そして、運転支援装置1aは、自車が特定地点を安全に走行するために、危険度に基づいて自車の行動(運転支援方法)を決定し、運転支援を実行する。
運転支援装置1aは、GPS11と、地図データベース12と、車載カメラ13及びレーザセンサ14と、操作部15と、危険度データベース16と、演算回路17aと、を備える。GPS11は、自車の現在位置を検出する自車位置検出部の一例である。地図データベース12は、地図データを記憶する地図記憶部の一例である。車載カメラ13及びレーザセンサ14は、車両周囲に存在する障害物の位置を検出する障害物検出部の例である。操作部15には、自車の乗員の指示を受け付ける部材であって、マイク、インストルメントパネルに配置されたタッチパネル、ステアリングスイッチなどが含まれる。危険度データベース16は、障害物が有る障害物検出枠の組合せと危険度との関係を記憶する。危険度データベース16及び障害物検出枠については後述する。
演算回路17aは、障害物情報及び地図情報を用いて、危険度を算出して運転支援を実行する一連の演算処理を実行する回路であって、例えば、CPU、RAM、ROM、メモリ、入出力制御回路から成る汎用のマイクロコンピュータである。マイクロコンピュータには、一連の演算処理が記述されたコンピュータプログラムが予めインストールされ、マイクロコンピュータがコンピュータプログラムを実行することにより、マイクロコンピュータは、上記した一連の演算処理を実行するための複数の演算処理部を構成する。演算回路17aにより構成される複数の演算処理部については、図2を参照して後述する。
GPS11は、全地球測位システムにおけるNAVSTAR衛星からの電波を受信して、自車の位置をリアルタイムに測定する。地図データベース12に記憶されている地図データにおいて、障害物を検出するための1又は2以上の、道路構造に応じた形状の障害物検出枠が特定地点の各々に予め設定されている。車載カメラ13は、自車に搭載され、自車周囲を撮像して周囲画像を取得する。演算回路17aは周囲画像を解析して障害物の有無及びその位置を判断する。レーザセンサ14は、パルス状のレーザを射出して障害物からの反射光を検出することにより、自車から障害物までの距離及び方位を検出する。
図2を参照して、演算回路17aにより構成される複数の演算処理部を説明する。演算回路17aは、複数の演算処理部として、危険度を算出して運転支援方法を決定するシーン理解部21と、決定した運転支援を実行する運転支援部22とを構成する。シーン理解部21は、地図取得部23と、経路演算部24と、検出枠選択部25と、障害物判断部26と、危険度算出部27と、死角重畳判断部28と、符号化処理部29と、危険度データ取得部30とを備える。
運転支援部22は、シーン理解部21により決定された自車の行動(運転支援方法)に従って、運転支援を実行する。具体的には、運転支援装置1aが、各種アクチュエータを駆動することにより、ステアリング操作及びペダル操作を含む全ての運転操作を自ら主体的に行う自動運転制御であってもよい。或いは、運転者の聴覚、視覚、触覚等の五感を通じて、運転者が行うべき運転操作を指示、示唆、或いは暗示してもよい。
経路演算部24は、GPS11によって測定された自車の現在位置から操作部15が受け付けた目的地までの走行予定経路を演算する。なお、実施形態では、運転支援装置1a或いはシーン理解装置が、自ら、走行予定経路を演算する機能を有する場合を説明する。しかし、運転支援装置1a或いはシーン理解装置は、他の装置によって演算された走行予定経路を外部から取得しても構わない。
地図取得部23は、地図データベース12から、走行予定経路に係わる地図データを取得する。地図取得部23は、走行予定経路上に有る特定地点を読み込み、更に、特定地点の各々に設定されている障害物検出枠を読み込む。地図データとして、デジタル地図を用いることができる。デジタル地図は、図4(a)に示す縁石41の位置を示す縁石情報もしくは道路ネットワーク情報を備える。縁石情報は自車の走行可能領域を算出する際に利用される。道路ネットワーク情報は、自車が次の時刻で走行できる領域を求めるために利用される。更に、デジタル地図は、道路構造に応じた形状の障害物検出枠の情報も備える。
なお、実施形態では、地図データベース12が車両に搭載される場合を示すが、これに限らず、車両外のサーバー上に記憶されていてもよい。この場合、地図取得部23は、ネットワークを介して車両外から地図データを取得すればよい。また、危険度データベース16についても同様である。また、障害物検出枠は、最初から地図データベース12上に設定されるようにしてもよい。
図4(b)に示すように、1つの特定地点(例えば、三叉路)には、道路構造に応じた形状の複数の障害物検出枠42が設定されている。交差点の入口及び出口、交差点の内部、横断歩道及びそれに隣接する歩道部分等に、障害物検出枠42が設定されている。交差点の内部には、交差点を直進或いは右左折する進路毎に、障害物検出枠42が設定されている。
車両同士が交錯する特定地点の他の例として、図5(a)及び図5(b)に示すように、合流車線43(支線を含む)から本線44への合流地点がある。また、車両と人とが交錯する特定地点として、図5(c)及び図5(d)に示すように、横断歩道45がある。これらの特定地点にも、交錯する前(シーン入口)、交錯する部分(シーン内部)、及び交錯した後(シーン出口)の各々に、複数の障害物検出枠42が予め設定されている。
障害物判断部26は、走行予定経路上にある特定地点において、障害物検出枠に障害物が有るか否かを判断する。障害物判断部26は、車載カメラ13及びレーザセンサ14によって検出された障害物の位置が、障害物検出枠の内部であるか否かを判断する。
危険度算出部27は、障害物の有無の判断結果に基づいて、特定地点の危険度を算出する。危険度の具体的な算出方法の例は後述するが、これらに限定されず、既知の方法(例えば、特許文献1記載の方法)を適宜用いてもかまわない。
シーン理解部21は、自車がこれから走る走行領域を縁石情報もしくは道路ネットワーク情報より求める。走行領域の中に特定地点が含まれる場合、特定地点に設定されている障害物検出枠を読み込む。自車に搭載された外界センシング装置(車載カメラ13及びレーザセンサ14)を用いて障害物を検出する。検出された障害物が障害物検出枠に含まれるかどうかを判断する。特定地点の所定の障害物検出枠に障害物がいる場合、特定地点が危険であると判断する。危険度は障害物検出枠ごとに設定してよいし、危険度は障害物検出枠ごとに変えてもよい。つまり、危険度を算出する際に、障害物検出枠毎に異なる重み付けを付してもよい。
このように、シーン理解部21は、地図データに予め設定された障害物検出枠42における障害物の有無に基づいて、特定地点の危険度を算出する。よって、危険度の算出に無関係な位置で検出される障害物を処理対象から排除できるので、演算負荷が過度に増大することが抑制される。
地図データベース12に記憶されている地図データにおいて、障害物検出枠のみならず、障害物によって生じる死角と重畳するか否かを注視すべき注視枠が、特定地点の各々に予め設定されていてもよい。この場合、地図取得部23は、注視枠が特定地点に予め設定されている地図データを取得する。図2に示すように、シーン理解部21は、障害物によって生じる死角が注視枠と重畳しているか否かを判断する死角重畳判断部28を更に備える。危険度算出部27は、重畳しているか否かの判断結果に基づいて、特定地点の危険度を算出する。よって、死角に障害物が存在することを想定して特定地点の危険度を算出することができる。
注視枠48は、他車、建築物或いは壁の存在によって死角になり易い位置に設けられる。注視枠48は、更に、死角になったときに他車や人の飛び出しがあると危険な位置に設けられる。注視枠48を設ける位置は、自車46の経路や特定地点への進入方向に応じて異なる。特定地点が同じ、且つ、自車の経路が同じであっても、注視枠の位置と数は異なる場合がある。例えば、特定地点における信号機の有無に応じて、必要な注視枠の数は変化する。
図6(a)は、信号機がある三叉路に設定される注視枠48の例を示す。対向車線の入口に他車がいると、他車の脇にあるバイクレーンが死角になり易い。交差点内に先行車がいると横断歩道や自車線の出口付近が死角になり易い。よって、死角になり易いこれらの位置に注視枠48を設ける。
図6(b)は、信号機がない三叉路に設定される注視枠48の例を示す。自車46が走行する道路に交わる他の道路から他車が流入するシーンを、危険度の演算において考慮する必要がある。他の道路の対向車線入口が先行車によって死角になり易い。よって、他の道路の対向車線入口に注視枠48を設ける。
危険度算出部27は、自車46にとりつけたセンサより求まる死角50が注視枠48に重畳している状態量から危険度を算出する。例えば、危険度算出部27は、注視枠48の面積に対して、死角と注視枠が重畳する面積が占める割合から危険度を算出する。或いは、危険度算出部27は、注視枠48の外周に対して、死角と重畳する注視枠の長さ48aが占める割合から危険度を算出してもよい。危険度算出部27は、これらの状態量が基準値よりも大きい場合に、見通しが悪いので高い危険度を算出することができる。
図7(a)に示すように、合流地点において、合流車線43と本線44の間に壁がある場合、その裏側は死角になり易い。また、合流車線43から本線44に車線変更している先行車がいる場合、合流後の本線44付近が死角になり易い。よって、死角に成りやすいこれらの位置に、注視枠48を設ける。なお、自車46が合流車線43から本線44に進入するときは複数の注視枠48を設ける。しかし、自車46が合流車線43よりも優先される本線44を直進するだけの場合は注視枠を設けない。
図7(b)に示すように、横断歩道において、先行車がいる場合、横断歩道の脇が死角になり易い。また、横断歩道を人が横断している場合、横断歩道の奥側が死角になり易い。よって、死角に成りやすいこれらの位置に、注視枠48を設ける。
第1実施形態において、危険度算出部27は、障害物が有る障害物検出枠42の組合せに基づいて、特定地点の危険度を算出する。障害物検出枠42の各々について危険度を算出する必要がないので、演算負荷の過度な増大を抑制することができる。更に、危険度算出部27は、障害物により生じる死角と重畳する注視枠48を、上記した障害物検出枠42の組合せに追加して、特定地点の危険度を算出しても構わない。
上記したように、1つの特定地点には複数の障害物検出枠42や注視枠48が設定されている。危険度算出部27は、障害物が検出された複数の障害物検出枠42及び死角と重畳する注視枠48の組合せから、予め定めた交通状況を読み解くことができるか否かを判断する。予め定めた交通状況を読み解くことができる場合に限り、危険度算出部27は、交通状況に基づく危険度を算出する。自車が走行中に予め定めた交通状況を読み解けた場合、自車が遭遇した環境を危険なシーンとして理解する。
ここでは、障害物がある障害物検出枠42及び死角と重畳する注視枠48の組合せを用いて危険度を判断するが、障害物検出枠42及び注視枠48の各々について個別に危険度を算出し、これらを集計して、特定地点の危険度を算出しても構わない。
図8(a)は、11個の障害物検出枠(R01〜R11)、2個の注視枠(T01、T02)が設定されている三叉路を示す。自車46は、走行予定経路51として、三叉路を右折する。図8(b)〜図8(e)は、図8(a)の三叉路において、障害物がある障害物検出枠42及び死角と重畳する注視枠48の組合せの例を示す。障害物がある障害物検出枠42及び死角と重畳する注視枠48にハッチングを付している。図8(b)の例では、対向車線の交差点入口及び出口付近の障害物検出枠(R04、R06)で障害物が検出されている。危険度算出部27は、障害物検出枠(R04、R06)の組合せから、対向車線が渋滞している、という交通状況を読み取ることができる。図8(c)の例では、交差点内部及び自車の交差点出口付近の障害物検出枠(R02、R05、R07)で障害物が検出されている。危険度算出部27は、障害物検出枠(R02、R05、R07)の組合せから、右折先に他車がいるために、交差点内に他車が滞留しており、右折待ち渋滞が起こっている、という交通状況を読み取ることができる。
図8(d)の例では、横断歩道手前の交差点内部にある障害物検出枠(R05)で障害物が検出されている。そして、自車の交差点出口の横断歩道付近にある注視枠(T02)が死角と重複している。危険度算出部27は、障害物検出枠(R05)と注視枠(T02)の組合せから、横断歩道に歩行者53がいるので横断歩道手前で他車が停止している、或いは、横断歩道手前に障害物がいるために横断歩道が見えない、という交通状況を読み取ることができる。
図8(e)の例では、対向車線の交差点内部にある障害物検出枠(R05)で障害物が検出されている。そして、対向車線の交差点入口にある注視枠(T01)が死角と重複している。危険度算出部27は、障害物検出枠(R05)と注視枠(T01)の組合せから、対向車線の交差点内に他車がいるために、対向車線入口の側道が見えない、という交通状況を読み取ることができる。これにより、対向車線入口の側道にバイク52がいるかもしれない、という危険性を判断することができる。
図1に示したように、第1実施形態に係わるシーン理解装置は、危険度データベース16を備える。危険度データベース16は、障害物が有る障害物検出枠42の組合せが符号化され、符号化された組合せと危険度との関係を記憶している。シーン理解部21は、障害物が有る障害物検出枠の組合せを符号化する符号化処理部29を備える。危険度算出部27は、危険度データベース16を用いて、符号化処理部29により符号化された組合せから、特定地点の危険度を算出する。符号化により更に演算負荷の増大を抑制することができる。なお、符号化する組合せに、死角に重畳する注視枠48を追加してももちろん構わない。
符号化とは、コンピュータのビット列による高速情報処理を参考にした、危険度における情報表現の一手段である。符号化には、これまでに述べた複数の障害物検出枠と注視枠によるシーン理解の結果を用いる。組合せと危険度との関連付け方には、過去の事故事例や過去のインシデント事例(重大な災害や事故には至らないものの、直結してもおかしくない一歩手前の事例)を参考にする。本符号化技術を用いて過去事例を数値化したものを危険度データベース16に蓄える。
例えば、障害物が有る障害物検出枠42と死角に重畳する注視枠48の組合せを、1組の連続した数値として表現する。図8(b)〜図8(e)に示す組合せは符号化され、且つ危険度と関連付けされて、危険度データベース16に記憶されている。図8(b)の組合せを符号化した結果は「0001010000000」であり、図8(c)の組合せを符号化した結果は「010010001000」であり、図8(d)の組合せを符号化した結果は「0000100100001」であり、図8(e)の組合せは「0000100100010」である。
危険度算出部27は、符号化処理部29により符号化された障害物検出枠及び注視枠の組合せと、危険度データベース16に記憶された符号化された組合せとを照合し、障害物検出枠及び注視枠の組合せに対応する危険度を算出する。
更に、符号化にて表現できる値を広げるために、障害物と死角の有無だけでなく、障害物そのものの属性情報も数値として表現してもよい。障害物判断部26は、走行予定経路51上にある特定地点において、障害物検出枠42に有る障害物の属性を検出してもよい。符号化処理部29は、障害物が有る障害物検出枠42及び障害物の属性の組合せを符号化する。障害物の属性情報を考慮することにより、危険度の算出精度が向上する。もちろん、この組合せに、死角と重畳する注視枠48を追加しても構わない。
障害物の属性を数値として表現する方法として、0と1の2ビット表現で符号化し、組合せを表現するビット列を増やせばよい。属性情報には、物理的な情報と性質的な情報が含まれる。物理的な情報としては、車両の重量及び大きさを含む車両仕様、及び、障害物の種類(歩行者、二輪車、四輪車)が挙げられる。性質的な情報としては、止まっているか又は動いているかの情報、更に、どの様な動きをしようとしているか、などの動き方の情報が挙げられる。
第1実施形態では、図4〜図7に示したように、特定地点に予め設定された全ての障害物検出枠42及び注視枠48を用いて危険度を算出する例を示した。しかし、実施形態は、これに限られない。例えば、特定地点に予め設定された障害物検出枠42の中から一部の障害物検出枠42’を選択し、選択された障害物検出枠42’について、障害物が有るか否かを判断してもよい。
図2に示すように、シーン理解部21は、特定地点に予め設定されている障害物検出枠42の中から、走行予定経路51によって定まる障害物検出枠42’を選択する検出枠選択部25を更に備える。障害物判断部26は、検出枠選択部25により選択された障害物検出枠42に障害物が有るか否かを判断する。これにより、障害物判断部26の演算負荷の増大を抑制することができる。
更に、検出枠選択部25は、特定地点に予め設定されている注視枠48の中から、走行予定経路51によって定まる一部の注視枠48’を選択してもよい。この場合、死角重畳判断部28は、検出枠選択部25により選択された注視枠48’に、障害物によって生じる死角が重畳しているか否かを判断すればよい。れにより、死角重畳判断部28の演算負荷の増大を抑制することができる。
図9(a)〜図9(d)は、検出枠選択部25により選択される障害物検出枠42’の例を示す。図9(a)は信号機がある三叉路の例であり、図9(b)は信号機がない三叉路の例であり、図9(c)は合流地点の例であり、図9(d)は横断歩道の例である。図9(e)及び図9(f)は、検出枠選択部25により選択される注視枠48’の例を示す。図9(e)は信号機がある四叉路の例であり、図9(f)は信号機がない四叉路の例である。
選択の方法を、三叉路を例に取って説明する。まず、自車46の走行予定経路51上にある障害物検出枠42’を選択する。自車46の走行予定経路51と交差する他車線上にある障害物検出枠42’を選択する。そして、選択された障害物検出枠42’に接する注視枠48’を選択する。これによって、自車46の動きに関係する障害物検出枠42’及び注視枠48’を選択することができる。上記した選択の方法は、合流地点や横断歩道などの他の特定地点にも適用できる。
図3を参照して、第1実施形態に係わるシーン理解装置を含む運転支援装置1aを用いたシーン理解方法及び運転支援方法の一例を説明する。
ステップS01において、地図取得部23は、障害物を検出するための1又は2以上の障害物検出枠42が特定地点に予め設定されている地図データを取得する。なお、障害物検出枠42を読み込むタイミングは、車両が特定地点に近づいたときに、その都度、近づいた特定地点における障害物検出枠42を読み込むようにしてもよい。ステップS03に進み、経路演算部24は、自車46の位置及び目的地の情報に基づいて、自車46の走行予定経路51を演算する。ステップS05において、障害物判断部26は、車載カメラ13及びレーザセンサ14によって検出された、車両周囲にある障害物の情報を取得する。ステップS07において、障害物判断部26は、車載カメラ13及びレーザセンサ14によって検出された、障害物の属性の情報を取得する。
ステップS11に進み、死角重畳判断部28は、車載カメラ13及びレーザセンサ14により検出された障害物によって生じる死角の範囲を演算する。ステップS13に進み、シーン理解部21は、走行予定経路51上にある最寄りの特定地点が、3以上の道路が集まる交差点であるか否かを判断する。特定地点が交差点である場合の手順を説明する。その他の特定地点であっても、同様な手順を適用可能である。
ステップS15に進み、検出枠選択部25は、交差点に予め設定されている障害物検出枠42及び注視枠48の中から、走行予定経路51によって定まる一部の障害物検出枠42’及び一部の注視枠48’を選択する。ステップS17に進み、死角重畳判断部28は、障害物によって生じる死角が注視枠48’と重畳しているか否かを判断する。ステップS19に進み、符号化処理部29は、障害物が有る障害物検出枠42の組合せを符号化する。そして、危険度算出部27は、危険度データベース16から、符号化された組合せと危険度との関係を示すデータを読み出す。
ステップS21に進み、危険度算出部27は、符号化処理部29により符号化された組合せと、符号化された組合せと危険度との関係を示すデータとを照合することにより、特定地点の危険度を算出する。危険度算出部27は、ステップS23において、算出された危険度に応じて運転支援方法を決定し、運転支援部22へ出力する。ステップS25に進み、運転支援部22は、決定された支援方法に従って、運転支援を実行する。
以上説明したように、本発明の第1実施形態によれば、以下の作用効果が得られる。
シーン理解装置は、地図データに予め設定された、道路構造に応じた形状の障害物検出枠42における障害物の有無に基づいて、特定地点の危険度を算出する。よって、危険度の算出に無関係な位置で検出される障害物を処理対象から排除できるので、演算負荷が過度に増大することが抑制される。
図6に示したように、危険度算出部27は、障害物49によって生じる死角50に、自車46が注視すべき注視枠48が重畳しているか否かに基づいて、特定地点の危険度を算出する。よって、死角50に障害物が存在することを想定して特定地点の危険度を算出することができる。
危険度算出部27は、障害物が有る障害物検出枠の組合せに基づいて、特定地点の危険度を算出する。これにより、障害物の各々について危険度を算出する必要がないので、演算負荷の過度な増大を抑制することができる。
危険度算出部27は、危険度データベース16を用いて、符号化された障害物検出枠の組合せから、特定地点の危険度を算出する。符号化により更に演算負荷の増大を抑制することができる。
障害物判断部26は、走行予定経路51上にある特定地点において、障害物検出枠42に有る障害物の属性を検出し、符号化処理部29は、障害物が有る障害物検出枠及び障害物の属性の組合せを符号化する。障害物の属性(物理的な情報、性質的な情報)を考慮することにより、危険度の算出精度が向上する。
図9に示したように、検出枠選択部25は、特定地点に予め設定されている障害物検出枠42の中から、走行予定経路51によって定まる一部の障害物検出枠42’を選択する。障害物判断部26は、検出枠選択部25により選択された障害物検出枠42’に障害物が有るか否かを判断する。障害物判断部26は、検出枠選択部25により選択された障害物検出枠42’だけを判断対象とすればよいので、更に演算負荷の増大を抑制することができる。
特定地点が3以上の道路が集まる交差点である場合、障害物検出枠42は、交差点の入口、出口、交差点の内部、及び横断歩道に設定される。これにより、3以上の道路が集まる交差点の危険度算出において、演算負荷が過度に増大することが抑制される。
(第2実施形態)
図10及び図11を参照して、第1実施形態に係わるシーン理解装置を含む運転支援装置1bの構成を説明する。図1との相違は、運転支援装置1bが、危険度データベース16の代わりに知識データベース17を備えている点である。知識データベース17には、特定地点における自車の位置によって定まる障害物検出枠42、及び注意すべき障害物検出枠42の順番を示すデータ(知識ツリー)が記憶されている。特定地点における自車の位置には、例えば、特定地点の入口、内部及び出口が含まれる。特定地点の入口、内部及び出口の各々に対して、障害物検出枠42、及び注意すべき障害物検出枠42の順番が定めされている。もちろん、知識ツリーには、自車の位置に対応して、注視枠48及び注意すべき注視枠48の順番が定めされていてもよい。
図11を参照して、演算回路17bにより構成される複数の演算処理部を説明する。演算回路17bは、図2の演算回路17aと比べて、符号化処理部29及び危険度データ取得部30の代わりに、知識ツリー取得部31を備える点で相違する。その他の構成は同じである。知識ツリー取得部31は、知識データベース17から、GPS11により検出された自車の位置に対応する、障害物検出枠42、及び注意すべき障害物検出枠42の順番を示すデータ(知識ツリー)を取得する。障害物判断部26は、知識データベース17から取得した障害物検出枠42、及び注意すべき障害物検出枠42の順番に基づいて、障害物検出枠42に障害物が有るか否かを順番に判断する。これにより、特定地点における自車の位置に応じて、適切な危険度及び運転支援方法を算出することができる。
交差点を例にとり、知識ツリーを用いた危険度(運転支援方法)の算出方法を説明する。知識ツリーでは、交差点内で注意すべき領域(障害物検出枠42及び注視枠48)、及び複数の領域に対する注意すべき順序を設定する。知識ツリーは、例えば、「交差点入口情報」、「交差点出口情報」、「交差点内部の他車情報」、及び「死角情報」からなる。
具体的には、「交差点入口情報」は、交差点の入口付近に他車がいるか否かを示す情報である。「交差点出口情報」は、交差点の出口付近に他車がいるか否かを示す情報である。「交差点内部の他車情報」は、交差点内部に他車がいるか否かを示す情報である。「死角情報」は、交差点内部の他車の存在により生じる死角が注視枠48を隠しているか否かを示す情報である。
これらの情報を、所定の順番によって取得することにより車両の行動の種類、つまり運転支援方法を決める。行動の種類には、交差点入口における「停止線停止」、「右折待ち領域で停止」、「横断歩道の手前にて停止」、「徐行して見通しのよい位置まで走行してから加速、もしくは、一旦停止」、「制限車速内で交差点通過」がある。知識ツリーを用いることにより、いずれかの速度制御の支援方法を決めることができる。
知識ツリーは、交差点における自車の位置に応じて異なる。つまり、交差点入口の手前にいる場合、交差点入口から右折待ち領域までの間にいる場合、右折待ち領域から横断歩道手前までの間にいる場合の各々について、異なる知識ツリーが予め用意され、知識データベース17に格納されている。
図12を参照して、第2実施形態に係わるシーン理解装置を含む運転支援装置1bを用いたシーン理解方法及び運転支援方法の一例を説明する。図3と同じステップには、同じ符号を付して説明を省略する。
図12のフローチャートは、図3に比べて、ステップS19(符号化・危険度データ取得)、ステップS21(危険度算出)の代わりに、ステップS31(知識ツリー取得)、ステップS33(危険度算出)を備える点で相違する。その他のステップは図3と同じである。
ステップS31において、知識ツリー取得部31は、知識データベース17から、GPS11により検出された自車の位置に対応する、障害物検出枠42、注視枠48、及び注意すべき障害物検出枠42及び注視枠48の順番を示すデータ(知識ツリー)を取得する。
ステップS33に進み、障害物判断部26は、知識データベース17から取得した知識ツリーに基づいて、障害物検出枠42に障害物が有るか否かを順番に判断する。危険度算出部27は、障害物の有無に応じて、特定地点の危険度を算出する。ステップS23に進み、危険度算出部27は、算出された危険度に応じて運転支援方法を決定し、運転支援部22へ出力する。
図13を参照して、ステップS33及びステップS23を詳細に説明する。ステップS41において、障害物判断部26は、GPS11により検出された自車の位置が、交差点入口の手前であるか否かを判断する。交差点入口の手前である場合(S41でYES)、ステップS47に進み、交差点入口に対応する知識ツリー(交差点入口)を実行することにより、危険度を算出し、運転支援方法を決定する。知識ツリー(交差点入口)の詳細は、図14を参照して後述する。
交差点入口の手前でない場合(S41でNO)、ステップS43に進み、自車の位置が、交差点入口から右折待ち領域までの間であるか否かを判断する。肯定的判断の場合(S43でYES)、ステップS49に進み、交差点内部に対応する知識ツリー(交差点内部)を実行することにより、危険度を算出し、運転支援方法を決定する。知識ツリー(交差点内部)の詳細は、図15を参照して後述する。
否定的判断の場合(S43でNO)、ステップS45に進み、自車の位置が、右折待ち領域から横断歩道手前までの間であるか否かを判断する。肯定的判断の場合(S45でYES)、ステップS51に進み、交差点出口に対応する知識ツリー(交差点出口)を実行することにより、危険度を算出し、運転支援方法を決定する。知識ツリー(交差点出口)の詳細は、図16を参照して後述する。
図14を参照して、図12のステップS47に示す知識ツリー(交差点入口)の詳細な手順を説明する。上記した「交差点入口情報D01」に基づき、交差点の入口付近に他車がいるか否かを判断する。他車がいる場合、自車の行動として、停止線で停車することを決定する(S71)。他車がいない場合、「交差点出口情報D03」に基づき、交差点の出口付近に他車がいるか否かを判断する。他車がいる場合、自車の行動として、停止線で停車することを決定する(S73)。他車がいない場合、「交差点内停止車両情報D05」に基づき、交差点内部に停止している他車がいるか否かを判断する。他車がいない場合、自車の行動として、右折待ち領域まで移動することを決定する(S75)。
他車がいる場合、「停止車両位置情報D07」に基づき、他車が右折待ち領域にいるのか、対向車線入口付近にいるのか、を判断する。他車が右折待ち領域にいる場合において、対向車線入口に他車による死角が形成される場合、自車の行動として、右折待ち領域まで移動することを決定する(S81)。他車が右折待ち領域にいる場合において、他車の後方に死角が形成される場合、自車の行動として、徐行して停止することを決定する(S79)。他車が対向車線入口付近にいる場合において、他車の後方に死角が形成される場合、自車の行動として、徐行して停止することを決定する(S79)。他車が対向車線入口付近にいる場合において、対向車線入口の側道に死角が形成される場合、自車の行動として、右折待ち領域まで移動することを決定する(S77)。
図15を参照して、図12のステップS49に示す知識ツリー(交差点内部)の詳細な手順を説明する。上記した「交差点出口情報D03」に基づき、交差点の出口付近に他車がいるか否かを判断する。他車がいる場合、自車の行動として、右折待ち領域で停車することを決定する(S83)。他車がいない場合、「対向車線入口情報D27」に基づき、対向車線の入口付近に他車がいるか否かを判断する。他車がいる場合、「死角情報D13」に基づき、他車の後方に見通せるか否かを判断する。他車の後方に見通せる場合、自車の行動として、衝突を回避するための制御を行うことを決定する(S87)。他車の後方を見通せない場合、自車の行動として、右折待ち領域で停車することを決定する(S85)。
対向車線の入口付近に他車がいない場合、「巻き込み情報D15」を参照して、自車後方の内側から、右折する二輪車がいるか否かを判断する。二輪車がいない場合、自車の行動として、横断歩道手前まで移動することを決定する(S89)。二輪車がいる場合、「死角情報D17」に基づき、二輪車の手前が見通せるか否かを判断する。二輪車の手前が見通せる場合、自車の行動として、二輪車を先に通過させてから、横断歩道手前まで移動することを決定する(S93)。二輪車の手前が見通せない場合、自車の行動として、右折待ち領域で停車することを決定する(S91)。
図16を参照して、図12のステップS51に示す知識ツリー(交差点出口)の詳細な手順を説明する。「対向車線左折情報D19」または「交差点巻き込み情報D21」に基づき、対向車線で交差点を左折する他車、或いは、自車後方の内側から交差点を右折する二輪車(他車)がいるか否かを判断する。他車がいる場合、自車の行動として、徐行しながら他車を先行させることを決定する(S95)。他車がいない場合、「横断歩道情報D23」に基づき、横断歩道に人がいるか否かを判断する。人がいる場合、自車の行動として、横断歩道の手前で停車することを決定する(S97)。人がいない場合、「横断歩道出入口情報D25」に基づき、横断歩道の周囲に人がいるか否かを判断する。周囲に人がいる場合、自車の行動として、1秒長く停止した後、人が動いていなければ、横断歩道を通過することを決定する(S101)。周囲に人がいない場合、自車の行動として、横断歩道を通過することを決定する(S99)。
以上説明したように、第2実施形態によれば、以下の作用効果が得られる。
障害物判断部26は、知識データベース17を参照して、自車の位置に対応する知識ツリー(図14〜図16)を用いて、障害物検出枠42に障害物が有るか否かを順番に判断する。これにより、特定地点における自車の位置に応じて、適切な危険度を算出し、適切な車両の行動を決定することができる。
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
1a、1b 運転支援装置
2 障害物検出枠
12 地図データベース
16 危険度データベース
17 知識データベース
21 シーン理解部(シーン理解装置)
23 地図取得部
24 経路演算部(経路取得部)
25 検出枠選択部
26 障害物判断部
27 危険度算出部
28 死角重畳判断部
29 符号化処理部
30 危険度データ取得部
31 知識ツリー取得部
42、42’ 障害物検出枠
48、48’ 注視枠
49 障害物
50 死角
51 自車
51 走行予定経路
52 バイク(障害物)
53 歩行者(障害物)
次に、図面を参照して、本発明の実施の形態を詳細に説明する。
図2に示すように、シーン理解部21は、特定地点に予め設定されている障害物検出枠42の中から、走行予定経路51によって定まる障害物検出枠42’を選択する検出枠選択部25を更に備える。障害物判断部26は、検出枠選択部25により選択された障害物検出枠42’に障害物が有るか否かを判断する。これにより、障害物判断部26の演算負荷の増大を抑制することができる。
(第2実施形態)
図10及び図11を参照して、第2実施形態に係わるシーン理解装置を含む運転支援装置1bの構成を説明する。図1との相違は、運転支援装置1bが、危険度データベース16の代わりに知識データベース17を備えている点である。知識データベース17には、特定地点における自車の位置によって定まる障害物検出枠42、及び注意すべき障害物検出枠42の順番を示すデータ(知識ツリー)が記憶されている。特定地点における自車の位置には、例えば、特定地点の入口、内部及び出口が含まれる。特定地点の入口、内部及び出口の各々に対して、障害物検出枠42、及び注意すべき障害物検出枠42の順番が定めされている。もちろん、知識ツリーには、自車の位置に対応して、注視枠48及び注意すべき注視枠48の順番が定めされていてもよい。
図14を参照して、図13のステップS47に示す知識ツリー(交差点入口)の詳細な手順を説明する。上記した「交差点入口情報D01」に基づき、交差点の入口付近に他車がいるか否かを判断する。他車がいる場合、自車の行動として、停止線で停車することを決定する(S71)。他車がいない場合、「交差点出口情報D03」に基づき、交差点の出口付近に他車がいるか否かを判断する。他車がいる場合、自車の行動として、停止線で停車することを決定する(S73)。他車がいない場合、「交差点内停止車両情報D05」に基づき、交差点内部に停止している他車がいるか否かを判断する。他車がいない場合、自車の行動として、右折待ち領域まで移動することを決定する(S75)。
1a、1b 運転支援装置
2 障害物検出枠
12 地図データベース
16 危険度データベース
17 知識データベース
21 シーン理解部(シーン理解装置)
23 地図取得部
24 経路演算部(経路取得部)
25 検出枠選択部
26 障害物判断部
27 危険度算出部
28 死角重畳判断部
29 符号化処理部
30 危険度データ取得部
31 知識ツリー取得部
42、42’ 障害物検出枠
46 自車
48、48’ 注視枠
49 障害物
50 死角
51 走行予定経路
52 バイク(障害物)
53 歩行者(障害物)

Claims (8)

  1. 道路上において車両同士又は車両と人が交錯する特定地点の危険度を判断するシーン理解装置であって、
    障害物を検出するための1又は2以上の、道路構造に応じた形状の障害物検出枠が前記特定地点に予め設定されている地図データを取得する地図取得部と、
    自車の走行予定経路を示す経路データを取得する経路取得部と、
    前記走行予定経路上にある前記特定地点において、前記障害物検出枠に障害物が有るか否かを判断する障害物判断部と、
    前記障害物の有無の判断結果に基づいて、前記特定地点の危険度を算出する危険度算出部と、
    を備えることを特徴とするシーン理解装置。
  2. 前記地図取得部は、前記障害物によって生じる死角と重畳するか否かを注視すべき注視枠が、前記特定地点に予め設定されている前記地図データを取得し、
    前記シーン理解装置は、前記障害物によって生じる死角が前記注視枠と重畳しているか否かを判断する死角重畳判断部を更に備え、
    前記危険度算出部は、前記重畳しているか否かの判断結果に基づいて、前記特定地点の危険度を算出する
    ことを特徴とする請求項1に記載のシーン理解装置。
  3. 前記特定地点には複数の前記障害物検出枠が設定され、
    前記危険度算出部は、前記障害物が有る前記障害物検出枠の組合せに基づいて、前記特定地点の危険度を算出する
    ことを特徴とする請求項1又は2に記載のシーン理解装置。
  4. 前記障害物が有る前記障害物検出枠の組合せが符号化され、前記符号化された前記組合せと前記危険度との関係を記憶する危険度データベースと、
    前記障害物が有る前記障害物検出枠の組合せを符号化する符号化処理部と、を備え、
    前記危険度算出部は、前記危険度データベースを用いて、前記符号化された組合せから、前記特定地点の危険度を算出する
    ことを特徴とする請求項3に記載のシーン理解装置。
  5. 前記障害物判断部は、前記走行予定経路上にある前記特定地点において、前記障害物検出枠に有る障害物の属性を検出し、
    前記符号化処理部は、前記障害物が有る前記障害物検出枠及び前記障害物の属性の組合せを符号化する
    ことを特徴とする請求項4に記載のシーン理解装置。
  6. 前記特定地点に予め設定されている前記障害物検出枠の中から、前記走行予定経路によって定まる障害物検出枠を選択する検出枠選択部をさらに備え、
    前記障害物判断部は、前記検出枠選択部により選択された前記障害物検出枠に障害物が有るか否かを判断する
    ことを特徴とする請求項1〜5のいずれか一項に記載のシーン理解装置。
  7. 前記特定地点における自車の位置によって定まる障害物検出枠、及び注意すべき前記障害物検出枠の順番を記憶する知識データベースと、
    自車の位置を検出する自車位置検出部と、を更に備え、
    前記障害物判断部は、前記知識データベースを参照して、自車の位置に基づいて、前記障害物検出枠に障害物が有るか否かを順番に判断する
    ことを特徴とする請求項1、2及び6のいずれか一項に記載のシーン理解装置。
  8. 前記特定地点は、3以上の道路が集まる交差点であって、
    前記障害物検出枠は、前記交差点の入口、出口、交差点の内部、及び横断歩道に設定される
    ことを特徴とする請求項1〜7のいずれか一項に記載のシーン理解装置。
JP2017513907A 2015-04-23 2015-04-23 シーン理解装置 Active JP6432677B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/062405 WO2016170646A1 (ja) 2015-04-23 2015-04-23 シーン理解装置

Publications (2)

Publication Number Publication Date
JPWO2016170646A1 true JPWO2016170646A1 (ja) 2018-04-05
JP6432677B2 JP6432677B2 (ja) 2018-12-12

Family

ID=57143065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017513907A Active JP6432677B2 (ja) 2015-04-23 2015-04-23 シーン理解装置

Country Status (10)

Country Link
US (1) US10262215B2 (ja)
EP (1) EP3288004B1 (ja)
JP (1) JP6432677B2 (ja)
KR (2) KR20190034360A (ja)
CN (1) CN107533804B (ja)
BR (1) BR112017022816A2 (ja)
CA (1) CA2983680C (ja)
MX (1) MX369189B (ja)
RU (1) RU2675767C1 (ja)
WO (1) WO2016170646A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9470536B2 (en) * 2014-08-08 2016-10-18 Here Global B.V. Apparatus and associated methods for navigation of road intersections
US10188895B1 (en) 2015-08-20 2019-01-29 Matthew Stephen Wallace Weight exerciser with flexible perimeter grip band
JP2018173729A (ja) * 2017-03-31 2018-11-08 パナソニックIpマネジメント株式会社 自動運転制御方法およびそれを利用した自動運転制御装置、プログラム
US10195992B2 (en) * 2017-04-03 2019-02-05 Ford Global Technologies, Llc Obstacle detection systems and methods
WO2019004633A1 (ko) * 2017-06-30 2019-01-03 엘지전자 주식회사 이동 로봇의 동작 방법 및 이동 로봇
CN111201557B (zh) * 2017-10-11 2022-02-25 本田技研工业株式会社 车辆控制装置
JP6676025B2 (ja) 2017-10-23 2020-04-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP6901043B2 (ja) * 2018-04-05 2021-07-14 日産自動車株式会社 車両制御方法及び車両制御装置
CN108829096A (zh) * 2018-05-23 2018-11-16 郑州思达科锐网络科技有限公司 一种控制无人驾驶汽车转向的方法及系统
JP7155975B2 (ja) * 2018-12-10 2022-10-19 トヨタ自動車株式会社 車両制御装置
CN109895767B (zh) * 2019-03-19 2020-11-10 奇瑞汽车股份有限公司 汽车的控制方法、装置及存储介质
JP7205799B2 (ja) * 2019-03-29 2023-01-17 マツダ株式会社 車両運転支援システム
RU2769921C2 (ru) 2019-11-21 2022-04-08 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для автоматизированного определения присутствия объектов
JP7365280B2 (ja) 2020-03-25 2023-10-19 ジオテクノロジーズ株式会社 情報処理装置
CN113538893B (zh) * 2020-09-25 2024-05-28 腾讯科技(深圳)有限公司 车辆预警方法、控制方法、装置及电子设备
US11854400B2 (en) * 2022-05-03 2023-12-26 Here Global B.V. Apparatus and methods for predicting events in which drivers fail to see curbs
CN115257728B (zh) * 2022-10-08 2022-12-23 杭州速玛科技有限公司 一种用于自动驾驶的盲区风险区检测方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337993A (ja) * 2001-09-21 2003-11-28 Sanei Giken:Kk 運転支援システム、運転支援方法及び運転支援プログラム
JP2005165752A (ja) * 2003-12-03 2005-06-23 Fujitsu Ten Ltd 周辺監視装置
JP2006154967A (ja) * 2004-11-25 2006-06-15 Nissan Motor Co Ltd リスク最小軌跡生成装置およびこれを用いた危険状況警報装置
US20070075875A1 (en) * 2003-08-28 2007-04-05 Christian Danz Method and device for determining the size and position of a parking space
JP2007336466A (ja) * 2006-06-19 2007-12-27 Nissan Motor Co Ltd 車両用周辺情報提示装置及び車両用周辺情報提示方法
JP2011150633A (ja) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
WO2011101988A1 (ja) * 2010-02-22 2011-08-25 トヨタ自動車株式会社 危険度算出装置
WO2011141984A1 (ja) * 2010-05-10 2011-11-17 トヨタ自動車株式会社 危険度算出装置
JP2012038138A (ja) * 2010-08-09 2012-02-23 Honda Motor Co Ltd 車両用表示装置
US20130342698A1 (en) * 2011-01-25 2013-12-26 Trw Limited Method of Processing Images and Apparatus
WO2014119196A1 (ja) * 2013-01-31 2014-08-07 日本電気株式会社 移動体通信装置、基地局、サーバ装置、移動体通信システム、移動体通信方法及びプログラム
JP2015072650A (ja) * 2013-10-04 2015-04-16 株式会社デンソーアイティーラボラトリ 経路算出装置、車両制御装置、車両運転支援装置、車両、経路算出プログラム、及び経路算出方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001065520A2 (en) * 2000-02-28 2001-09-07 Veridian Engineering, Incorporated System and method for avoiding accidents in intersections
DE60208616T2 (de) 2001-09-21 2006-07-13 Sanei Co., Ltd. System, Verfahren und Programm zur Unterstützung von Fahrzeugen
US7859432B2 (en) * 2007-05-23 2010-12-28 Che Il Electric Wireing Devices Co., Ltd. Collision avoidance system based on detection of obstacles in blind spots of vehicle
US9672736B2 (en) 2008-10-22 2017-06-06 Toyota Motor Engineering & Manufacturing North America, Inc. Site map interface for vehicular application
WO2012033173A1 (ja) 2010-09-08 2012-03-15 株式会社豊田中央研究所 移動物予測装置、仮想可動物予測装置、プログラム、移動物予測方法、及び仮想可動物予測方法
CN103109313B (zh) * 2010-09-08 2016-06-01 丰田自动车株式会社 危险度计算装置
US20130020451A1 (en) * 2011-07-21 2013-01-24 Level 2 Industries, LLC Interactive Visual Display System
DK177696B1 (en) * 2013-02-25 2014-03-17 Aquaporin As Systems for water extraction
US9779621B1 (en) * 2013-03-15 2017-10-03 Waymo Llc Intersection phase map
JP6128218B2 (ja) * 2013-07-19 2017-05-17 日産自動車株式会社 車両用運転支援装置及び車両用運転支援方法
US9534910B2 (en) * 2014-12-09 2017-01-03 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to yield scenarios
KR20170121933A (ko) * 2016-04-26 2017-11-03 삼성에스디에스 주식회사 깊이 센서를 이용한 충돌 회피 방법 및 그 장치
US11308391B2 (en) * 2017-03-06 2022-04-19 Baidu Usa Llc Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337993A (ja) * 2001-09-21 2003-11-28 Sanei Giken:Kk 運転支援システム、運転支援方法及び運転支援プログラム
US20070075875A1 (en) * 2003-08-28 2007-04-05 Christian Danz Method and device for determining the size and position of a parking space
JP2005165752A (ja) * 2003-12-03 2005-06-23 Fujitsu Ten Ltd 周辺監視装置
JP2006154967A (ja) * 2004-11-25 2006-06-15 Nissan Motor Co Ltd リスク最小軌跡生成装置およびこれを用いた危険状況警報装置
JP2007336466A (ja) * 2006-06-19 2007-12-27 Nissan Motor Co Ltd 車両用周辺情報提示装置及び車両用周辺情報提示方法
JP2011150633A (ja) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
WO2011101988A1 (ja) * 2010-02-22 2011-08-25 トヨタ自動車株式会社 危険度算出装置
WO2011141984A1 (ja) * 2010-05-10 2011-11-17 トヨタ自動車株式会社 危険度算出装置
JP2012038138A (ja) * 2010-08-09 2012-02-23 Honda Motor Co Ltd 車両用表示装置
US20130342698A1 (en) * 2011-01-25 2013-12-26 Trw Limited Method of Processing Images and Apparatus
WO2014119196A1 (ja) * 2013-01-31 2014-08-07 日本電気株式会社 移動体通信装置、基地局、サーバ装置、移動体通信システム、移動体通信方法及びプログラム
JP2015072650A (ja) * 2013-10-04 2015-04-16 株式会社デンソーアイティーラボラトリ 経路算出装置、車両制御装置、車両運転支援装置、車両、経路算出プログラム、及び経路算出方法

Also Published As

Publication number Publication date
KR20170134713A (ko) 2017-12-06
CA2983680C (en) 2020-03-31
BR112017022816A2 (ja) 2018-07-17
RU2675767C1 (ru) 2018-12-24
JP6432677B2 (ja) 2018-12-12
CA2983680A1 (en) 2016-10-27
CN107533804B (zh) 2018-11-06
WO2016170646A1 (ja) 2016-10-27
EP3288004B1 (en) 2021-09-15
US10262215B2 (en) 2019-04-16
US20180144201A1 (en) 2018-05-24
CN107533804A (zh) 2018-01-02
EP3288004A4 (en) 2018-05-16
MX2017013367A (es) 2017-12-07
KR20190034360A (ko) 2019-04-01
EP3288004A1 (en) 2018-02-28
MX369189B (es) 2019-10-31

Similar Documents

Publication Publication Date Title
JP6432677B2 (ja) シーン理解装置
US11958504B2 (en) Method and apparatus for controlling a vehicle's driving operation using advance information
JP6856134B2 (ja) 運転支援方法及び運転支援装置
KR102402861B1 (ko) 운전 지원 방법 및 운전 지원 장치
JP6428928B2 (ja) オクルージョン制御装置
JP6521082B2 (ja) 走行制御方法および走行制御装置
ES2767729T3 (es) Método para comprobar una condición de posibilidad de adelantamiento
RU2760046C1 (ru) Способ помощи при вождении и устройство помощи при вождении
JP6973930B2 (ja) 運転支援方法及び運転支援装置
JP6812568B2 (ja) 車両制御装置
JP6605257B2 (ja) 車載装置、車線変更判定プログラム、車線変更判定方法
JPWO2020008220A1 (ja) 運転支援方法及び運転支援装置
JP6304393B2 (ja) 走行経路演算装置
KR102483716B1 (ko) 사전 정보를 이용하여 차량의 주행을 제어하는 방법 및 장치
JP2019106050A (ja) 運転支援装置
JP2017001596A (ja) 停車位置設定装置及び方法
JP2018190026A (ja) 自動運転車両の制御システムおよび制御方法
JP6721054B2 (ja) 車両はみ出し判断方法及び車両はみ出し判断装置
JP7129495B2 (ja) 運転支援方法及び運転支援装置
JP6650635B2 (ja) 判定装置、判定方法、および判定プログラム
JP2020129331A (ja) 逆走判定システム、逆走判定方法、及び逆走判定プログラム
JP4501879B2 (ja) 経路選択装置および経路選択用プログラム
JP6941677B2 (ja) 画像認識装置
JP5434535B2 (ja) 経路作成装置
JP2019219885A (ja) 運転支援方法及び運転支援装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R151 Written notification of patent or utility model registration

Ref document number: 6432677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151