JPWO2016170647A1 - オクルージョン制御装置 - Google Patents

オクルージョン制御装置 Download PDF

Info

Publication number
JPWO2016170647A1
JPWO2016170647A1 JP2017513908A JP2017513908A JPWO2016170647A1 JP WO2016170647 A1 JPWO2016170647 A1 JP WO2016170647A1 JP 2017513908 A JP2017513908 A JP 2017513908A JP 2017513908 A JP2017513908 A JP 2017513908A JP WO2016170647 A1 JPWO2016170647 A1 JP WO2016170647A1
Authority
JP
Japan
Prior art keywords
gaze
vehicle
ratio
blind spot
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017513908A
Other languages
English (en)
Other versions
JP6428928B2 (ja
Inventor
真規 義平
真規 義平
渡辺 省吾
省吾 渡辺
則政 岸
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2016170647A1 publication Critical patent/JPWO2016170647A1/ja
Application granted granted Critical
Publication of JP6428928B2 publication Critical patent/JP6428928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0132Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to vehicle motion parameters, e.g. to vehicle longitudinal or transversal deceleration or speed value
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

オクルージョン制御装置は、移動体の有無を注視すべき1又は2以上の注視領域に、注視検出基準31が設定されている地図データを取得する地図取得部と、注視検出基準31に対して自車41の死角33が占める割合を算出する割合算出部と、割合に基づいて自車41の対処行動を決定する行動決定部とを備える。

Description

本発明は、オクルージョン制御装置に関するものである。
自車周辺の状況に対する自車の規範的な運転行動の候補である少なくとも1以上の規範行動候補について、規範行動候補に係る運転行動により自車が走行した場合における自車周辺の障害物と自車との接触のリスクを予測する運転支援装置が知られている(特許文献1参照)。
特許文献1は、自車の死角には等加速度で移動してくる障害物がいるとみなし、潜在的な接触リスクを算出し、接触リスクに基づいて運転行動を決定している。
特開2011−096105号公報
しかし、特許文献1では、接触リスクに影響を与える地図上の領域に対して、自車の死角が占める割合を考慮していない。よって、安全性を過度に偏重した運転行動を決定してしまい、周囲に対して違和感を与える可能性がある。
本発明は、上記課題に鑑みて成されたものであり、その目的は、移動体との接触リスクを必要以上に下げる運転行動を抑制するオクルージョン制御装置を提供することである。
本発明の一態様に係わるオクルージョン制御装置は、移動体の有無を注視すべき1又は2以上の注視領域に設定された注視検出基準に対して、自車の死角が占める割合を算出して、この割合に基づいて自車の対処行動を決定する。
図1は、第1実施形態に係わるオクルージョン制御装置1の全体構成を示すブロック図である。 図2は、演算回路17aにより構成される複数の演算処理回路を示すブロック図である。 図3は、図1及び図2に示したオクルージョン制御装置1を用いたオクルージョン制御方法の一例を示すフローチャートである。 図4は、注視検出基準が注視領域の外周を囲む注視枠31である実施例を示す。図4(a)は図4(b)の時刻Bにおける自車41の位置を示す平面図であり、図4(b)は自車41の速度と見通し割合算出部28により算出される割合の時間変化を示すグラフであり、図4(c)は図4(b)の時刻Aにおける自車41の位置を示し、図4(d)は図4(b)の時刻Cにおける自車41の位置を示す。 図5は、複数の注視点42からなる注視点群の例を示す平面図である。 図6は、1または2以上の注視線分44からなる線束の例を示す平面図である。 図7は、楕円形45からなる注視枠31の例を示す平面図である。 図8(a)は過去の事故データ(46、47)の例を示す平面図であり、図8(b)は重み付けがされた注視枠48の一例を示す平面図であり、図8(c)は重み付けの一例としての事故確率Zのガウス分布を示すグラフである。 図9は、死角対処行動を開始する判断基準となる開始しきい値(Ts)の一例を示すグラフである。 図10は、死角対処行動を終了する判断基準となる終了しきい値(Te)の一例を示すグラフである。 図11は、注視領域31aに移動体(他車53)がいる場合に設定される注視枠(31aa、31ab)の一例を示す平面図である。 図12は自車41の走行予定経路51に関する死角対応制御の実施例を示す平面図であり、図12(a)は交差点の右折時の死角対応制御であり、図12(b)は交差点の直進時の死角対応制御である。
次に、図面を参照して、本発明の実施の形態を詳細に説明する。
(第1実施形態)
図1及び図4を参照して、第1実施形態に係わるオクルージョン制御装置1の全体構成を説明する。オクルージョン制御装置1は、地図上に設定された注視検出基準(31)に対して自車41の死角33が占める割合を算出し、この割合に基づいて自車41の対処行動を決定し、対処行動に従って自車41の運転支援を実行する。注視検出基準(31)とは、自車41が走行する上で移動体の有無を注視すべき1又は2以上の注視領域に設定される基準であって、1または2以上の枠(注視枠31;図4、7、8)、点(注視点:図5)、または線分(注視線分:図6)、或いは枠、点、線分の組合せによって表現される。自車41の死角33には、自車41の乗員から見た死角の他に、自車に搭載されたカメラまたはレーザセンサから見た死角も含まれる。自車41の対処行動には、少なくとも、自車41の死角33を考慮した対処行動(死角対処行動)と、自車41の死角33を考慮しない通常の対処行動(通常対処行動)とが含まれる。
図1に示すように、オクルージョン制御装置1は、GPS11と、地図データベース12と、車載カメラ13及びレーザセンサ14と、操作部15と、注視枠データベース16と、演算回路17aと、を備える。GPS11は、自車の現在位置及び姿勢を検出する自車位置検出部の一例であって、全地球測位システムにおけるNAVSTAR衛星からの電波を受信して、自車の位置及び姿勢をリアルタイムに測定する。自車位置検出部は、オドメトリ(自己位置推定)を行うためのヨーレートセンサ及び車速センサであってもよいし、GPS11と組合せて用いてもよい。
地図データベース12は、自車が走行可能な道路の形状を示す地図データを記憶する地図記憶部の一例である。注視枠データベース16は、注視検出基準の一例である注視枠31(図4参照)の地図上の位置及び大きさに関するデータを記憶する。なお、本実施形態では、地図データと注視枠に関するデータとを異なるデータベースに記憶する例を示すが、これに限らず、注視枠が予め設定されている地図データを、1つのデータベースに記憶していても構わない。注視枠を含む注視検出基準は、移動体の有無を注視すべき地図上の1又は2以上の注視領域に設定される。「移動体」には、道路上を走行或いは停止している車両及び軽車両、及び歩行者が含まれる。
車載カメラ13及びレーザセンサ14は、自車の周囲に存在する障害物の位置を検出する障害物検出部の例である。車載カメラ13は、自車に搭載され、自車周囲を撮像して周囲画像を取得する。演算回路17aは周囲画像を解析して障害物の有無及びその位置を判断する。「障害物」には、道路の周囲に存在する建物36、37(図4参照)、壁、樹木、看板などの地面に固定されている物の他に、上記した移動体が含まれる。レーザセンサ14は、パルス状のレーザを射出して障害物からの反射光を検出することにより、自車から障害物までの距離及び方位を検出する。操作部15には、自車の乗員の指示を受け付ける部材であって、マイク、インストルメントパネルに配置されたタッチパネル、ステアリングスイッチなどが含まれる。
演算回路17aは、自車位置、地図、障害物及び注視枠に関する情報を用いて、注視枠31に対して自車41の死角33が占める割合を算出し、そして、この割合に基づいて自車41の対処行動を決定し、自車41の運転支援を実行する一連の演算処理を実行する。例えば、演算回路17aは、CPU、RAM、ROM、メモリ、入出力制御回路なら成る汎用のマイクロコンピュータである。マイクロコンピュータには、一連の演算処理が記述されたコンピュータプログラムが予めインストールされ、マイクロコンピュータがコンピュータプログラムを実行することにより、マイクロコンピュータは、上記した一連の演算処理を実行するための複数の演算処理回路を構成する。演算回路17aにより構成される複数の演算処理回路については、図2を参照して後述する。
図2及び図4を参照して、演算回路17aにより構成される複数の演算処理回路を説明する。演算回路17aは、複数の演算処理回路として、シーン理解部21と、運転支援部22とを備える。シーン理解部21は、自車の死角が占める割合を算出し、割合から自車の対処行動を決定する。
運転支援部22は、シーン理解部21により決定された自車の対処行動に従って、自車の運転支援を実行する。具体的には、運転支援部22が、各種アクチュエータを駆動することにより、ステアリング操作及びペダル操作を含む全ての運転操作を自ら主体的に行う自動運転制御であってもよい。或いは、運転者の聴覚、視覚、触覚等の五感を通じて、運転者が行うべき運転操作を指示、示唆、或いは暗示してもよい。
シーン理解部21は、地図取得部23と、経路演算部24と、注視枠取得部25と、センシング範囲演算部26と、死角演算部27と、見通し割合算出部28(割合算出部)と、割合判断部29(行動決定部)とを備える。
経路演算部24は、GPS11によって測定された自車の現在位置から操作部15が受け付けた目的地までの走行予定経路51(図4参照)を演算する。なお、実施形態では、オクルージョン制御装置1が、自ら、走行予定経路を演算する機能を有する場合を説明する。しかし、オクルージョン制御装置1は、他の装置によって演算された走行予定経路51を外部から取得しても構わない。
地図取得部23は、地図データベース12から、走行予定経路51に係わる地図データを取得する。地図データとして、デジタル地図を用いることができる。デジタル地図は、縁石の位置を示す縁石情報もしくは道路ネットワーク情報を備える。縁石情報は自車の走行可能領域を算出する際に利用される。道路ネットワーク情報は、自車41が次の時刻で走行できる領域を求めるために利用される。
注視枠取得部25は、注視枠データベース16から、注視枠31の地図上の位置及び大きさに関するデータを取得する。地図取得部23は、取得された注視枠31に関するデータを用いて、注視枠31が設定された地図データを生成する。このようにして、地図取得部23は、移動体の有無を注視すべき1又は2以上の注視領域に、注視枠31が設定されている地図データを取得することができる。
センシング範囲演算部26は、自車の現在位置及び姿勢及び地図データから、地図上におけるセンシング範囲32(図4参照)を演算する。「センシング範囲32」は、自車41の周囲に障害物が存在しない場合における、車載カメラ13またはレーザセンサ14が障害物を検出可能な範囲を示す。センシング範囲32は、車載カメラ13及びレーザセンサ14の各々について演算可能であり、車載カメラ13及びレーザセンサ14の自車41に対する取り付け位置及び角度によって定まる。よって、自車41の現在位置及び姿勢及び地図データから、地図上におけるセンシング範囲32を演算することができる。
死角演算部27は、障害物によって生じる自車41の死角33の有無、及びその範囲を演算する。死角演算部27は、障害物(例えば、建物36、37)によって生じる自車41の死角のうち、センシング範囲32と重畳する部分を、自車の死角33として検出する。
見通し割合算出部28は、注視枠31(注視検出基準)に対して自車41の死角33が占める割合を算出する。例えば、見通し割合算出部28は、注視枠31全体の面積に対して、自車の死角33と重畳する注視枠の面積が占める割合を算出する。
割合判断部29は、見通し割合算出部28により算出された割合に基づいて、自車41の対処行動を決定する。具体的に、割合判断部29は、前記した割合に基づいて、死角対処行動、或いは通常対処行動を何れか選択する。
図4を参照して、注視検出基準が注視領域の外周を囲む注視枠31である実施例を説明する。図4(a)、(c)、(d)は、3つの道路が集まる三叉路の交差点を右折する走行予定経路51に沿って走行する自車41を示す。進行方向43から交差点に進入する自車41の両側に障害物としての建物36及び37が有るため、建物36及び37によって自車41の死角33が生じる。上記したように、死角33は死角演算部27により算出される。注視枠取得部25は、交差点を右折する走行予定経路51において、移動体の有無を注視すべき注視枠31を取得し、見通し割合算出部28は、注視枠31の面積に対して、自車41の死角33と重畳する注視枠31の面積が占める割合を算出する。図4(a)に示すように、建物36及び37によって自車41の死角33となりやすい領域に、注視枠31が設定されている。
時刻Aでは、図4(c)に示すように、注視枠31とセンシング範囲32とが重畳していないので、見通し割合算出部28は割合の算出動作を行わないので、割合は0%である。運転支援部22は、通常対処行動を実行する。注視枠31とセンシング範囲32とが重畳し始めることにより、見通し割合算出部28は割合の算出を開始する。そして、時刻Bでは、図4(a)に示すように、注視枠31の面積に対して、自車41の死角33と重畳する注視枠31の面積が占める割合が所定値(例えば、20%)よりも大きくなる。すると、割合判断部29は、自車41の対処行動として、死角対処行動を選択する。更に、時刻Cでは、図4(d)に示すように、注視枠31とセンシング範囲32とが重畳している領域に死角は発生していない。つまり、車両は注視枠31全体を見渡すことができる。よって、注視枠31の面積に対して、自車41の死角33と重畳する注視枠31の面積が占める割合は0%となり、割合判断部29は、自車41の対処行動として、通常対処行動を選択する。このように、注視枠31とセンシング範囲32とを用いて、自車の死角と注視枠31との重畳割合を、危険度として定量化することができるので、移動体との接触リスクの数値化に寄与する。
時刻Aで、自車41の車速は、通常対処行動に基づく速度である。時刻Bでは、死角対処行動への切り替わりに伴い、自車41は一旦ゼロまで減速する。その後、見通し割合が所定値以下になるまで徐行して、注視枠31全体を見渡す位置まで移動する。再び、通常対処行動のもとで、一時停止したあと、右折動作を再開する。
図3を参照して、第1実施形態に係わるオクルージョン制御方法の一例を説明する。図3のフローは、オクルージョン制御装置が起動すると、予め定めた周期で繰り返し実行され、オクルージョン制御装置の終了とともに終了する。
ステップS01において、地図取得部23は、地図データベース12から、地図データを取得する。ステップS03に進み、経路演算部24は、自車46の位置及び目的地の情報に基づいて、自車の走行予定経路51を演算する。なお、経路演算を先に行ったあとに、走行予定経路51に係わる部分の地図データを取得してもよい。これにより、取得するデータ量を削減することができる。
ステップS05において、注視枠取得部25は、注視枠データベース16から、注視枠31の地図上の位置及び大きさに関するデータを取得する。地図取得部23は、取得された注視枠31に関するデータを用いて、注視枠31が設定された地図データを生成する。ステップS07へ進み、センシング範囲演算部26は、自車の現在位置及び姿勢及び地図データから、地図上におけるセンシング範囲32を演算する。
ステップS09に進み、死角演算部27は、障害物(例えば、建物36、37)によって生じる自車41の死角のうち、センシング範囲32と重畳する部分を、自車の死角33として検出する。具体的には、車載カメラ13及びレーザセンサ14によって検出された、車両周囲にある建物36、37の位置情報を取得する。センシング範囲32と建物36、37の位置を比較することにより、センシング範囲32と重畳する自車の死角33を算出することができる。
ステップS11に進み、シーン理解部21は、注視枠31と自車の死角33が重畳しているか否かを判断する。重畳している場合(S11でYES)ステップS13に進み、重畳していない場合(S11でNO)ステップS07に戻る。ステップS13において、見通し割合算出部28は、注視枠31全体の面積に対して、自車の死角33と重畳する注視枠の面積が占める割合を算出する。
ステップS15に進み、割合判断部29は、現在の対処行動が、死角対処行動であるか通常対処行動であるかを判断する。具体的には、死角対処行動であることを示す死角対処フラグが立っているか否かを判断する。死角対処フラグが立っている(F=1)場合(S15でYES)、現在の対処行動は死角対処行動であるので、ステップS23へ進む。死角対処フラグが立っていない(F=0)場合(S15でNO)、現在の対処行動は通常対処行動であるので、ステップS17へ進む。
ステップS17において、図9に示すように、割合判断部29は、見通し割合算出部28により算出された割合が、所定の開始しきい値(Ts)以上であるか否かを判断する。割合が所定の開始しきい値以上である場合(S17でYES)、移動体との接触リスクが高いと判断できる。よって、ステップS19に進み、割合判断部29は、死角対処行動の開始を決定し、運転支援部22は、決定した死角対処行動に従って、自車の走行制御を実行する。その後、ステップS21に進み、死角対処フラグに1を設定する(F=1)。一方、割合が所定の開始しきい値以上でなければ(S17でNO)、移動体との接触リスクは依然として低いと判断できるので、通常対処行動を維持し、ステップS07へ戻る。
ステップS23において、図10に示すように、割合判断部29は、見通し割合算出部28により算出された割合が、所定の終了しきい値(Te)以下であるか否かを判断する。割合が所定の終了しきい値(Te)以下である場合(S23でYES)、移動体との接触リスクが低いと判断できる。よって、ステップS25に進み、割合判断部29は、死角対処行動の終了を決定し、運転支援部22は、通常対処行動に従って、自車の走行制御を実行する。ステップS27に進み、死角対処フラグに0を設定する(F=0)。一方、割合が所定の終了しきい値(Te)以下でない場合(S23でNO)、移動体との接触リスクが依然として高いと判断できるので、死角対処行動を維持し、ステップS07へ戻る。
例えば、図4(b)の時刻Bにおいて、割合(見通し割合)が所定の開始しきい値(Ts)を上回ったため、通常対処行動から死角対応行動に切り替わる(S19)。これにより、車速も通常速度からゼロまで減少する。このような死角対応行動を行うことにより、見通しが悪いシーンにおいて接触リスクを下げて安全に走行することができる。そして、死角対応行動は、割合が所定の終了しきい値(Te)を下回るまで継続される。具体的には、図10に示すように、割合が所定の終了しきい値(Te)を下回るまで、自車を徐行しながら移動させる。割合が所定の終了しきい値(Te)を下回った時点で、自車を停止させる。開始しきい値(Ts)と終了しきい値(Te)とは同じ値でも構わないが、開始しきい値(Ts)よりも終了しきい値(Te)を小さくすることによりヒステリシスを持たせることが望ましい。これにより、車両制御システムの安定性が向上する。例えば、開始しきい値(Ts)を10%とした場合、終了しきい値(Te)を5%に設定すればよい。
なお、割合が所定の終了しきい値(Te)を下回るまで移動している途中で、見通すことができるようになった領域で移動体が検出された場合、車両は停止される。或いは、移動体の移動速度が低速である場合には、自車の速度を高め、移動体の前方を通過させてもよい。
以上説明したように、本実施形態によれば、以下の作用効果が得られる。
注視枠31(注視検出基準)に対して自車41の死角33が占める割合に基づいて自車41の対処行動を決定することにより、移動体との接触リスクを必要以上に下げる運転行動を抑制することができる。よって、安全性を過度に偏重した運転行動を抑制して、周囲に与える違和感を低減することができる。
見通し割合算出部28は、注視領域に設けられた全ての注視枠31の面積に対して、自車41の死角33と重畳する注視枠31の面積が占める割合を算出する。注視領域の外周を囲む枠に対する死角33の面積比に応じて対処行動を決定するので、単純なモデルで精度の高いリスク演算を行うことができる。
割合判断部29は、割合が所定の開始しきい値(Ts)を上回った時に、自車41の死角33を考慮した対処行動の開始を決定する。開始しきい値(Ts)を境にして、走行制御を切り替えることにより、シーンに則した制御が可能となる。過度に接触リスクを軽減する対処行動を取ることが抑制される。
なお、自車41の速度が速いほど、開始しきい値(Ts)を小さく設定することが望ましい。これにより、制御開始時における急激な速度制御或いは操舵制御を抑制して、スムーズに制御を開始することができる。
運転支援部22は、割合が所定の終了しきい値(Te)を下回るまで、自車を移動させ、その後、停止させる。これにより、見通しの悪い状況においても安全な走行を行うことができる。
(第2実施形態)
図5に示すように、注視検出基準は、注視領域に設けられた複数の注視点42からなる注視点群であってもよい。この場合、見通し割合算出部28は、注視点群を構成する全ての注視点42の数に対して、自車41の死角33と重畳する注視点42の数が占める割合を算出する。その他の構成及び動作フローは、第1実施形態と同じであり、説明を省略する。注視点42は、注視領域内に不規則に配置されている。また、接触リスクの大きさに応じて、注視領域内における注視点42の密度分布が変化している。つまり、移動体がいる確率が高い位置、見通しにくい位置、或いは移動体がいた場合に自車41と接触するリスクが高い位置に、注視点42が高密度に分布している。これにより、接触リスクに応じて適切な割合の算出を行うことが可能となる。
1つの注視領域に設けられる注視点の総数が予め定められている場合、見通し割合算出部28は、単に、自車41の死角33と重畳する注視点42の数を求めればよい。この場合、開始しきい値(Ts)及び終了しきい値(Te)も注視点42の数で規定することができる。
1つの注視点42が所定の大きさを有し、注視点42の一部が死角33と重畳している場合、第1実施形態と同様にして、注視点42の外周を囲む注視枠との面積比を用いて、割合を算出してもよい。つまり、演算処理負荷が許す限りにおいて、各注視点42を図4の1または2以上の注視枠31として扱うことも可能である。
このように、注視検出基準を、注視領域に設けられた複数の注視点42からなる注視点群とすることにより、単純な注視点の個数で割合を求めることができるので、計算負荷を増大させずに、精度の高いリスク演算を行うことができる。
(第3実施形態)
図6に示すように、注視検出基準は、注視領域に設けられた1または2以上の注視線分44からなる線束であってもよい。この場合、見通し割合算出部28は、注視領域に設けられた全ての注視線分44の長さの合計値に対して、自車41の死角33と重畳する注視線分44の長さが占める割合を算出する。その他の構成及び動作フローは、第1実施形態と同じであり、説明を省略する。
注視線分44の長さ、数、配置は任意に変更可能である。接触リスクの大きさに応じて、注視領域内における注視線分44の密度分布が変化している。つまり、移動体がいる確率が高い位置、見通しにくい位置、或いは移動体がいた場合に自車41と接触するリスクが高い位置に、注視線分44が高密度に分布している。これにより、接触リスクに応じて適切な割合の算出を行うことが可能となる。
図6に示す例では、2つの注視領域に、車両の進行方向35に垂直な4本の線分と、車両の進行方向35に平行な2本の線分とが図示されている。何れの線分も直線状であるが、もちろん、全部或いは一部が曲線であっても構わない。
1つの注視領域に設けられる注視線分44の全体長さが予め定められている場合、見通し割合算出部28は、単に、自車41の死角33と重畳する注視線分44の長さを求めればよい。この場合、開始しきい値(Ts)及び終了しきい値(Te)も注視線分44の長さで規定することができる。
このように、注視検出基準を、注視領域に設けられた1または2以上の注視線分44とすることにより、単純な注視線分44の長さで割合を求めることができるので、計算負荷を増大させずに、精度の高いリスク演算を行うことができる。
なお、図4に示した注視枠31は、注視領域に設けられた4本の注視線分44からなる線束と解釈することも可能である。4本の注視線分44が1つの注視枠31を形成している場合、見通し割合算出部28は、注視枠31の全長に対して、自車41の死角33と重畳する注視枠31の長さが占める割合を算出すればよい。
また、注視枠31は、注視領域の外周を囲む線分からなる場合の他、図7に示すように、全体が1つの曲線からなる1つの線分であってもよい。換言すれば、注視枠31は、図4に示すような四角形に限らず、例えば図7に示すような楕円形45、真円形、三角形、或いは5角以上の多角形であってもよい。さらに、3本以上の注視線分44が1つの閉じた枠を形成されている場合、第1実施形態と同様にして、枠に囲まれた面積に対する死角の重畳割合を算出してもよい。
(第4実施形態)
注視検出基準には、地図上の位置に応じて変化する重み付けが含まれていてもよい。この場合、注視検出基準に対して自車の死角が占める割合は、自車の死角と重畳する地図上の位置に付された重み付けに応じて変化する。例えば、注視検出基準が注視枠である場合、注視枠全体の面積に対して、注視枠と自車の死角が重畳する面積が占める割合は、重み付けに応じて変化する。
図8は、重み付けが付された注視枠48の一例を示す。図8(b)に示すように、注視枠48は、大きさの異なる複数(図8では3つ)の楕円が重ねられて構成されている。各楕円には、図8(c)に示すように、重み付けの一例としての事故確率Zの情報が付加されている。具体的に、内側の小さな楕円には、外側の大きな楕円に比べて高い事故確率Zを示す情報が付されている。よって、自車41の死角33が外側の大きな楕円に重畳する場合よりも、自車41の死角33が内側の小さな楕円に重畳する方が、接触リスクが高まるため、割合(見通し割合)はより大きくなる。
なお、事故確率Zの情報は、例えば、図8(a)に示すように、過去の事故データ(46、47)を事故情報管理サーバからダウンロードすることで取得すればよい。また、高い事故確率Zを付す地図上の位置には、過去に事故が有った位置のみならず、過去に事故が有った位置に類似する他の位置であっても構わない。例えば、交差点の右左折時に他車を巻き込む事故が有った場合、他の交差点や同じ交差点への他の方向からの進入についても、同様な事故が想定される位置に、高い事故確率Zを付すことができる。
事故の内容に応じて、事故確率Zの値を変化させてもよい。例えば、物損事故に比べて、人身事故の事故確率Zを高くすればよい。図8(c)に示す事故確率Zの分布は、例えば、ガウス分布として計算することができる。
このように、注視検出基準に対して自車41の死角33が占める割合を、自車41の死角33と重畳する地図上の位置に付された重み付け(事故確率Z)に応じて変化させる。これにより、接触リスクを正確に評価し、接触リスクに応じて適切な割合の算出を行うことが可能となる。
第4実施形態では、注視検出基準が楕円形の枠からなる場合を例に説明した。これ以外にも、注視線分、注視点についても、同様にして、重み付けができることは言うまでもない。
(第5実施形態)
注視検出基準は、日時、自車41を取り巻く環境、或いは自車41周囲に存在する移動体の動き方に応じて変化してもよい。
日時に応じて注視検出基準を変化させる例は次の通りである。交差点において、時間の経過に伴って信号が点滅信号にかわる場合は、注視検出基準を設定する。信号が正しく動作している場合は、注視検出基準を設定しない。祝祭日など、日時に応じて交通量が増える特定地点では、注視検出基準を広く設定する。もしくは、交通量が増える日時において、死角対応制御の開始しきい値及び終了しきい値を低くする。これにより、接触リスクを下げて、安全性を高めることができる。
自車41を取り巻く環境に応じて注視検出基準を変化させる例は次の通りである。悪天候時や暴風時、あるいは夜間は、他車の乗員は周囲の安全確認をし難くなる。このため、自車の存在を気付いてもらい難くなるので、自車は、接触リスクを下げて、より安全性を高める必要がある。そのため、注視検出ポイントを通常時よりも広げる。もしくは、死角対応制御の開始しきい値及び終了しきい値を低くする。これにより、接触リスクを下げて、安全性を高めることができる。
自車41周囲に存在する移動体の動き方に応じて注視検出基準を変化させる例は次の通りである。図11に示すように、注視領域31aに移動体(他車53)がいる場合、他車53を挟んで自車41に近い側と遠い側とで、注視枠(31aa、31ab)を分割してもよい。この場合、近い側の注視枠31abは、歩行者を検出するために設定され、遠い側の注視枠31aaは、二輪車を検出するために設定される。
他車53が交差点入口の停止線で停止している時と、他車53が停止線付近を走行している時とで、異なる注視検出基準を設定することもできる。注視検出基準が注視枠である場合、他車53の速度が高いほど他車53の進行方向に短い注視枠を設定し、他車53が停止線で停止しているときは他車53の進行方向に長い注視枠を設定する。他車53が停止しているときに長くする理由は、二輪車の飛び出しを予見するためには遠くまで見通す必要あるからである。もしくは、他車53が停止線で停止している場合、死角対応制御の開始しきい値及び終了しきい値を低くする。これにより、接触リスクを下げて、安全性を高めることができる。
以上説明したように、注視検出基準を、日時、自車41を取り巻く環境、或いは自車41周囲の移動体の動き方に応じて変化させることにより、接触リスクを正確に評価し、接触リスクに応じて適切な割合の算出を行うことが可能となる。休日や通勤時間帯などの道路が混雑する状況や、夕暮れ時あるいは夜間など、他車が周囲の安全を確認し難い状況下においては、安全性を高めることができる。
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
たとえば、実施形態では、図4(b)で示したように、自車41の速度に関する死角対応制御について説明したが、自車41の速度に限らず、自車41の走行予定経路51に関する死角対応制御であっても構わない。たとえば、図12(a)に示すように、実施形態では、自車41は走行予定経路51に沿って交差点を右折する。これに対して、交差点の進入手前から左側に幅寄せを行い、走行予定経路51よりも外側を通る走行予定経路52に沿って、交差点を右折する。これにより、交差点への進入時に、注視領域31aと重複する死角を少なくすることができるので、過度の減速制御を行うことなく、自車41を交差点を安全に通過させることができる。
交差点への進入方向が変わっても同様して、自車41の走行予定経路に関する死角対応制御を行うことができる。たとえば、図12(b)に示すように、図12(a)と同じ三叉路の交差点を自車41が直進する場合、自車41から見て左側に注視領域31cが存在する。交差点の進入手前から右側に幅寄せを行い、走行予定経路51よりも右側を通る走行予定経路52に沿って、交差点を直進する。これにより、交差点への進入時に、注視領域31cと重複する死角を少なくすることができる。
特許文献1は、自車の死角には等加速度で移動してくる障害物がいるとみなし、潜在的な接触リスクを算出し、接触リスクに基づいて運転行動を決定していた。しかし、特許文献1では、自車経路内に静止物体がいたとしても、停止状態を考慮できないので、静止物体と衝突すると判断してしまう。自車が加速すれば移動体と接触しない場合であっても、加速できない。死角の裏側に障害物がいなくても、移動体がいないことは想定しないため、減速しなくてよいところで減速してしまう。実施形態によれば、接触リスクに影響を与える地図上の注視領域に対して、自車の死角が占める割合を考慮している。よって、安全性を過度に偏重した運転行動を抑制し、周囲に対して与える違和感を低減することができる。
1 オクルージョン制御装置
22 運転支援部(車両制御部)
23 地図取得部
28 見通し割合算出部
29 割合判断部(行動決定部)
31、48 注視枠(注視検出基準)
33 死角
41、46 自車
42 注視点(注視検出基準)
44 注視線分(注視検出基準)
51、52 走行予定経路
ステップS01において、地図取得部23は、地図データベース12から、地図データを取得する。ステップS03に進み、経路演算部24は、自車41の位置及び目的地の情報に基づいて、自車の走行予定経路51を演算する。なお、経路演算を先に行ったあとに、走行予定経路51に係わる部分の地図データを取得してもよい。これにより、取得するデータ量を削減することができる。

Claims (9)

  1. 移動体の有無を注視すべき1又は2以上の注視領域に、注視検出基準が設定されている地図データを取得する地図取得部と、
    前記注視検出基準に対して自車の死角が占める割合を算出する割合算出部と、
    前記割合に基づいて前記自車の対処行動を決定する行動決定部と、
    を備えることを特徴とするオクルージョン制御装置。
  2. 前記注視検出基準は、前記注視領域に設けられた複数の注視点からなる注視点群であり、
    前記割合算出部は、前記注視点群を構成する全ての前記注視点の数に対して、前記自車の死角と重畳する前記注視点の数が占める割合を算出する
    ことを特徴とする請求項1に記載のオクルージョン制御装置。
  3. 前記注視検出基準は、前記注視領域に設けられた1または2以上の注視線分を含み、
    前記割合算出部は、前記注視領域に設けられた全ての前記注視線分の長さの合計値に対して、前記自車の死角と重畳する前記注視線分の長さが占める割合を算出する
    ことを特徴とする請求項1または2に記載のオクルージョン制御装置。
  4. 前記注視検出基準は、前記注視領域に設けられた1または2以上の注視枠を含み、
    前記割合算出部は、前記注視領域に設けられた全ての前記注視枠の面積に対して、前記自車の死角と重畳する前記注視枠の面積が占める割合を算出する
    ことを特徴とする請求項1〜3のいずれか一項に記載のオクルージョン制御装置。
  5. 前記注視検出基準には、地図上の位置に応じて変化する重み付けが含まれ、
    前記注視検出基準に対して前記自車の死角が占める割合は、前記自車の死角と重畳する地図上の位置に付された前記重み付けに応じて変化する
    ことを特徴とする請求項1〜4のいずれか一項に記載のオクルージョン制御装置。
  6. 前記行動決定部は、前記割合が所定の開始しきい値を上回った時に、自車の死角を考慮した対処行動の開始を決定し、
    前記オクルージョン制御装置は、決定した前記対処行動に従って、自車の走行制御を実行する車両制御部を更に備える
    ことを特徴とする請求項1〜5のいずれか一項に記載のオクルージョン制御装置。
  7. 自車の速度が速いほど、前記開始しきい値を小さく設定することを特徴とする請求項6に記載のオクルージョン制御装置。
  8. 前記行動決定部は、前記割合が所定の終了しきい値を下回ったか否かを判断し、
    前記車両制御部は、前記割合が所定の終了しきい値を下回るまで、前記自車を移動させ、その後、停止させる
    ことを特徴とする請求項6または7に記載のオクルージョン制御装置。
  9. 前記注視検出基準は、日時、前記自車を取り巻く環境、或いは自車周囲の移動体の動き方に応じて変化することを特徴とする請求項1〜8のいずれか一項に記載のオクルージョン制御装置。
JP2017513908A 2015-04-23 2015-04-23 オクルージョン制御装置 Active JP6428928B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/062406 WO2016170647A1 (ja) 2015-04-23 2015-04-23 オクルージョン制御装置

Publications (2)

Publication Number Publication Date
JPWO2016170647A1 true JPWO2016170647A1 (ja) 2018-04-05
JP6428928B2 JP6428928B2 (ja) 2018-11-28

Family

ID=57143820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017513908A Active JP6428928B2 (ja) 2015-04-23 2015-04-23 オクルージョン制御装置

Country Status (10)

Country Link
US (1) US9988007B2 (ja)
EP (1) EP3288005B1 (ja)
JP (1) JP6428928B2 (ja)
KR (2) KR102009585B1 (ja)
CN (1) CN107533803B (ja)
BR (1) BR112017022775B1 (ja)
CA (1) CA2983682C (ja)
MX (1) MX360379B (ja)
RU (1) RU2663261C1 (ja)
WO (1) WO2016170647A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108475470B (zh) * 2016-01-28 2021-06-01 三菱电机株式会社 事故概率计算装置、事故概率计算方法及存储有事故概率计算程序的介质
US20190011913A1 (en) * 2017-07-05 2019-01-10 GM Global Technology Operations LLC Methods and systems for blind spot detection in an autonomous vehicle
KR102198809B1 (ko) * 2017-12-26 2021-01-05 한국자동차연구원 객체 추적 시스템 및 방법
JP7121532B2 (ja) * 2018-04-27 2022-08-18 株式会社小松製作所 積込機械の制御装置及び積込機械の制御方法
JP7182376B2 (ja) * 2018-05-14 2022-12-02 日産自動車株式会社 運転支援方法及び運転支援装置
CN108805042B (zh) * 2018-05-25 2021-10-12 武汉东智科技股份有限公司 道路区域监控视频被树叶遮挡的检测方法
EP3588006B1 (en) 2018-06-28 2021-08-11 Continental Automotive GmbH Determining visibility distances based a on dynamic field of view of a vehicle
CN110874549A (zh) * 2018-08-31 2020-03-10 奥迪股份公司 目标视野确定方法、系统、计算机设备和存储介质
CN109624858B (zh) * 2019-01-04 2021-02-02 斑马网络技术有限公司 外后视镜的图像显示方法及装置
JP7184160B2 (ja) * 2019-03-27 2022-12-06 日産自動車株式会社 運転支援方法及び運転支援装置
JP7148453B2 (ja) * 2019-04-19 2022-10-05 トヨタ自動車株式会社 運転支援システム
JP2020179808A (ja) * 2019-04-26 2020-11-05 トヨタ自動車株式会社 車両制御装置
WO2020225868A1 (ja) * 2019-05-08 2020-11-12 三菱電機株式会社 運転支援装置および運転支援方法
JP7295012B2 (ja) * 2019-12-24 2023-06-20 日立Astemo株式会社 車両制御システム、および、車両制御方法
CN111556295A (zh) * 2020-05-12 2020-08-18 新石器慧通(北京)科技有限公司 可移动监控云台的控制方法、装置及无人车
DE102020130069B4 (de) 2020-11-13 2024-05-23 Audi Aktiengesellschaft Steuerung eines Kraftfahrzeugs bei teilweiser Sichtfeldverdeckung
US11733054B2 (en) * 2020-12-11 2023-08-22 Motional Ad Llc Systems and methods for implementing occlusion representations over road features
JP7487658B2 (ja) 2020-12-24 2024-05-21 トヨタ自動車株式会社 駐車支援装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0235918A (ja) * 1988-07-25 1990-02-06 Terumo Corp ポリプロピレン多孔質中空糸膜およびその製造方法
JP2005165752A (ja) * 2003-12-03 2005-06-23 Fujitsu Ten Ltd 周辺監視装置
JP2010000941A (ja) * 2008-06-20 2010-01-07 Toyota Motor Corp 飲酒状態検出装置
JP2010165021A (ja) * 2009-01-13 2010-07-29 Toyota Motor Corp 運転支援装置
JP2011248870A (ja) * 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
JP2012038138A (ja) * 2010-08-09 2012-02-23 Honda Motor Co Ltd 車両用表示装置
US20130057689A1 (en) * 2010-04-15 2013-03-07 Valeo Schalter Und Sensoren Gmbh Method for displaying an image on a display device in a vehicle, driver assistance system and vehicle
JP2014074256A (ja) * 2012-09-14 2014-04-24 Yoshizawa Co Ltd 織物

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2552728B2 (ja) * 1989-05-31 1996-11-13 富士通株式会社 赤外線監視システム
US5724475A (en) * 1995-05-18 1998-03-03 Kirsten; Jeff P. Compressed digital video reload and playback system
US6532038B1 (en) * 1999-08-16 2003-03-11 Joseph Edward Haring Rail crossing video recorder and automated gate inspection
DE10132681C1 (de) * 2001-07-05 2002-08-22 Bosch Gmbh Robert Verfahren zur Klassifizierung von einem Hindernis anhand von Precrashsensorsignalen
US7671725B2 (en) * 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
JP4760562B2 (ja) * 2006-06-19 2011-08-31 日産自動車株式会社 車両用周辺情報提示装置及び車両用周辺情報提示方法
KR101075615B1 (ko) 2006-07-06 2011-10-21 포항공과대학교 산학협력단 주행 차량의 운전자 보조 정보 생성 장치 및 방법
US8068986B1 (en) * 2007-04-27 2011-11-29 Majid Shahbazi Methods and apparatus related to sensor signal sniffing and/or analysis
US8265800B2 (en) * 2007-08-20 2012-09-11 Raytheon Company Unmanned vehicle message conversion system
US8031062B2 (en) * 2008-01-04 2011-10-04 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
JP4527204B2 (ja) * 2008-09-26 2010-08-18 パナソニック株式会社 死角車両検出装置及びその方法
JP4784659B2 (ja) * 2009-02-16 2011-10-05 トヨタ自動車株式会社 車両用周辺監視装置
JP5613398B2 (ja) * 2009-10-29 2014-10-22 富士重工業株式会社 交差点運転支援装置
JP5407764B2 (ja) 2009-10-30 2014-02-05 トヨタ自動車株式会社 運転支援装置
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
JP5269755B2 (ja) * 2009-12-10 2013-08-21 株式会社日立製作所 人横断支援車両システム及び人横断支援方法
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
WO2011129014A1 (ja) * 2010-04-16 2011-10-20 トヨタ自動車株式会社 運転支援装置
CN103109313B (zh) * 2010-09-08 2016-06-01 丰田自动车株式会社 危险度计算装置
US9987506B2 (en) * 2010-12-15 2018-06-05 Robert Marcus UAV—or personal flying device—delivered deployable descent device
US10029621B2 (en) * 2013-05-16 2018-07-24 Ford Global Technologies, Llc Rear view camera system using rear view mirror location
US9335178B2 (en) * 2014-01-28 2016-05-10 GM Global Technology Operations LLC Method for using street level images to enhance automated driving mode for vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0235918A (ja) * 1988-07-25 1990-02-06 Terumo Corp ポリプロピレン多孔質中空糸膜およびその製造方法
JP2005165752A (ja) * 2003-12-03 2005-06-23 Fujitsu Ten Ltd 周辺監視装置
JP2010000941A (ja) * 2008-06-20 2010-01-07 Toyota Motor Corp 飲酒状態検出装置
JP2010165021A (ja) * 2009-01-13 2010-07-29 Toyota Motor Corp 運転支援装置
US20130057689A1 (en) * 2010-04-15 2013-03-07 Valeo Schalter Und Sensoren Gmbh Method for displaying an image on a display device in a vehicle, driver assistance system and vehicle
JP2011248870A (ja) * 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
JP2012038138A (ja) * 2010-08-09 2012-02-23 Honda Motor Co Ltd 車両用表示装置
JP2014074256A (ja) * 2012-09-14 2014-04-24 Yoshizawa Co Ltd 織物

Also Published As

Publication number Publication date
BR112017022775A2 (pt) 2018-07-10
JP6428928B2 (ja) 2018-11-28
US20180118144A1 (en) 2018-05-03
US9988007B2 (en) 2018-06-05
BR112017022775B1 (pt) 2023-11-07
KR102009585B1 (ko) 2019-08-09
EP3288005A4 (en) 2018-08-01
MX360379B (es) 2018-10-31
RU2663261C1 (ru) 2018-08-03
CA2983682C (en) 2018-06-12
EP3288005A1 (en) 2018-02-28
MX2017013408A (es) 2018-01-30
EP3288005B1 (en) 2021-04-07
CN107533803B (zh) 2019-03-12
WO2016170647A1 (ja) 2016-10-27
CA2983682A1 (en) 2016-10-27
KR20170129251A (ko) 2017-11-24
CN107533803A (zh) 2018-01-02
KR20190038675A (ko) 2019-04-08

Similar Documents

Publication Publication Date Title
JP6428928B2 (ja) オクルージョン制御装置
CN109426256B (zh) 自动驾驶车辆的基于驾驶员意图的车道辅助系统
US10037036B2 (en) Method and arrangement for determining safe vehicle trajectories
JP6592074B2 (ja) 車両制御装置、車両制御方法、プログラム、および情報取得装置
JP6468261B2 (ja) 自動運転システム
US10198951B2 (en) Models of the surroundings for vehicles
CN110692094B (zh) 用于自动驾驶车的控制的车辆控制装置及方法
WO2017022201A1 (ja) 自動運転支援装置、自動運転支援方法及び自動運転支援プログラム
CN106004876A (zh) 用于自动驾驶系统的基于间隙的速度控制
JP6007739B2 (ja) 運転支援装置及び運転支援方法
KR20150061781A (ko) 차량 코너링 제어 방법 및 그 장치
WO2021054051A1 (ja) 電子制御装置
JPWO2019220717A1 (ja) 車両制御装置
JPWO2019043847A1 (ja) 走行制御装置、車両および走行制御方法
JP2021115973A (ja) 車両制御装置
JP2010039718A (ja) 車両制御装置、車両制御方法および車両制御処理プログラム
JP6838769B2 (ja) 周辺環境認識装置、表示制御装置
JP7388208B2 (ja) 車両制御装置
JP6330868B2 (ja) 車両制御装置
WO2018198163A1 (ja) 周囲状況予測方法及び周囲状況予測装置
WO2023047148A1 (ja) 走行支援方法及び 走行支援装置
JP2023133522A (ja) 画像処理装置、撮像装置、移動体、および画像処理方法
JP2021095094A (ja) 他車両挙動推定方法、走行支援方法及び他車両挙動推定装置
JP2019219885A (ja) 運転支援方法及び運転支援装置
JP2019043246A (ja) 車両制御装置、車両、車両制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R151 Written notification of patent or utility model registration

Ref document number: 6428928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151