JP2020004400A - 車両の動的視野に基づく視認距離決定 - Google Patents

車両の動的視野に基づく視認距離決定 Download PDF

Info

Publication number
JP2020004400A
JP2020004400A JP2019110355A JP2019110355A JP2020004400A JP 2020004400 A JP2020004400 A JP 2020004400A JP 2019110355 A JP2019110355 A JP 2019110355A JP 2019110355 A JP2019110355 A JP 2019110355A JP 2020004400 A JP2020004400 A JP 2020004400A
Authority
JP
Japan
Prior art keywords
vehicle
road
fov
map
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019110355A
Other languages
English (en)
Other versions
JP7414410B2 (ja
Inventor
クリスティアン・ブルカ
Burca Cristian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Publication of JP2020004400A publication Critical patent/JP2020004400A/ja
Application granted granted Critical
Publication of JP7414410B2 publication Critical patent/JP7414410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

【課題】自車周辺の道路の2D/3D領域が理論上の視野内にあって自車のセンサに視認不能な、その2D/3D領域を識別する方法を提供する。【解決手段】本発明は、自車の動的視野(FoV)に基づいて視認距離を決定する方法及び構成されるシステム、並びにそのシステムを備える車両に関する。自車周辺のマップにおける道路のエッジをそれぞれが決定する、マップポリゴンが作成される。さらに、マップポリゴンを動的FoVと交差させることにより視認領域がマップにおいて決定される。視認領域に基づいて道路についての視認距離が決定される。【選択図】図1A

Description

本発明は、自車(ego vehicle)の動的視野(FoV)に基づいて視認距離を決定する方法及び自車両の動的視野(FoV)に基づいて視認距離を決定するように構成されるシステム、ならびにそのシステムを備える車両に関する。
車両、特に、人間による入力なしにその周辺をセンシングしナビゲーション可能な自動運転車や無人地上車両などの自動運転車両は、車両周辺のオブジェクトを検出できるセンサを備える。そのような車両は、レーダ、レーザ光、GPS、オドメトリ及びコンピュータビジョンを含む様々な技術を組み合わせて、その周辺を認識する。自動運転車両の先進制御システムは、センサ情報を解釈して適切なナビゲーション経路や障害物そして関連する標識を識別する。自動運転車両は、センサデータを分析して道路上の種々の静的及び/又は動的オブジェクトを区別できる制御システムを有する必要がある。
特に、追い越し操作は自動運転における大きな課題である。多くの安全措置を、追い越し操作を実施するのに安全かどうか意思決定できる前に、完了する必要がある。1つの鍵となるのが視認性の要因である。多くの場合、車両は高性能センサを備えているため、距離が離れていても周辺のオブジェクトを高い精確性で検出できる。センサがより遠くまで検出でき、より精確であればあるほど、追い越し操作に関する決定はより安全性の高いものになる。
確実性を向上させ、センサが検出する偽陰性オブジェクトを除くため、センサは車両上の一定位置に計算されたヨー角で配置されることにより、そのそれぞれの視野(略してFoVs)は車両周囲の重要な領域において重複する。この重複により真陽性検出の確実性が高くなり、複数のセンサ、例えば3より大きい数のセンサが包含する目標領域においてはエラーが略0に限定される。したがって、動的及び静的オブジェクト検出において満足のいく結果を得ることができる。
追い越し操作の意思決定に関して、1つのオプションは、利用可能なデータ(「知らないこと」)から得ることができる情報も学習する代わりに、車両周辺のオブジェクトに関するデータ(「知りたいこと」)の量と精度を高めることである。
多くの状況において、センサシステムが一定領域では何も検出できないと言明し、この言明をそこには何もないという推測と区別することは有利である。
1つの問題は、センサの性能を高めて、追い越し操作などの操作について安全な意思決定を達成するというアイディアが充分ではない場合があるのは、車両搭載センサは、例えば隣接車線上の車両などのオブジェクトの背後の領域といった、(「角の背後の」)死角を決して検出できないからである。
つまり、複雑なトラフィックシナリオにおいて未知とタグ付けされる領域がつねに存在するのは、センサが検出距離に関して限定されているからだけでなく、車両周辺のオブジェクトに起因するオクルージョン(又はオブストラクション)のためでもある。したがって、ますます高技術の装置を車両のオブジェクト検出システムに含むことは取得データの精確性について有益な場合があるが、いくつかの場合においては、シナリオ理解そして追い越し操作などの複雑な操作に関する意思決定には充分ではないことがある。
本発明の目的は、上記問題を解決するか、少なくとも軽減することである。特に、本目的は、2D/3D領域が理論上の視野(FoV)内にあるにもかかわらず自車両(ego vehicle)のセンサには視認できない、自車両周辺の道路のその2D/3D領域を識別する方法を提供することである。本発明のさらなる目的は、どれだけの自車両の前方及び/又は後方距離をセンサにより検出可能か、言い換えると、センサの「視認」はどれだけ遠くまで到達するか検出するために、現車線、隣接車線及び/又は道路上の投影FoVを得る方法を提供することである。
また、本発明は、自車両周辺のマップにおける動的FoVと、マップのあらゆる点における真陽性検出の精確性又は確率を決定する方法、そしてその動的FoVとその真陽性検出の精確性/確率を示す方法を提供する。
本明細書における「周辺」の用語は、所定、又は可変の距離以内、好ましくは300メートル以内、さらに好ましくは250メートル以内、最も好ましくは200メートル以内、そして特に150メートル以内の車両の周りの環境を意味すると理解されるべきである。
これらの目的は、請求項1又は請求項12に記載の方法、そして請求項13に記載のシステムと請求項15に記載の車両により達成される。本発明の改良及び有利な変形が従属請求項の対象である。
本発明の第1態様によると、自車両の動的視野(FoV)に基づいて視認距離を決定する方法は以下のステップを備える。
a)動的FoVを自車両の少なくとも1つのセンサのセンサデータに基づいて初期化するステップ。
b)自車両周辺のマップにおける道路のエッジをそれぞれが決定する、マップポリゴンを作成するステップ。
c)マップポリゴンを動的FoVと交差させることによりマップにおける視認領域を決定するステップ。
d)視認領域に基づいて道路についての視認距離を決定するステップ。
本発明の第2態様によると、自車両の動的視野(FoV)に基づいて視認距離を決定するように構成されるシステムは、少なくとも1つのセンサを備える。センサは、車両周辺のオブジェクトを検出するように構成される。システムは、コントローラをさらに備える。コントローラは、a)動的FoVを自車両の少なくとも1つのセンサのセンサデータに基づいて初期化するように構成される。コントローラは、b)自車両周辺のマップにおける道路のエッジをそれぞれが決定する、マップポリゴンを作成するようにさらに構成される。コントローラは、c)マップポリゴンを動的FoVと交差させることによりマップにおける視認領域を決定するようにさらに構成される。コントローラは、d)視認領域に基づいて道路についての視認距離を決定するようにさらに構成される。
本発明の第3態様によると、上記第2態様によるシステムを備える車両、特に自動運転車両が提供される。
自車両は自動運転車両であってよい。自車両は、自車両周辺をできるだけ大きく包含するように構成される少なくとも1つのセンサを備えるセンサ構成を有してよい。
周辺は少なくとも1つのセンサにより動的に測定される。少なくとも1つのセンサは、自車両周辺のオブジェクトを検出するように構成される。少なくとも1つのセンサは、レーダセンサ、光検出と測距(LiDAR)センサ、超音波センサなどであってよい。
少なくとも1つのセンサは、自車両の周りのオブジェクトを検出し、オブジェクトの現在位置を含む、検出オブジェクトに関する情報を有するセンサデータを生成する。センサデータは、検出された静的及び動的オブジェクトのセット又はリストを含んでよい。センサデータは、長さ、幅、高さ及び/又は速度などの各オブジェクトに関するさらなる情報も含んでよい。
自車両は1より大きい数のセンサを有してよく、各センサは、異なる技術を用いてよく、かつ/あるいは、異なる検出範囲及び/又は異なる検出精度及び/又は自車両に関して異なる方向を有してよい。自車両が1より大きい数のセンサを有する場合、センサの検出領域は、有利には、互いに重複する。
センサは、形状、検出範囲、方向及び検出精度に関して異なる検出領域を有してよい。少なくとも1つのセンサにより生成されるセンサデータに基づいて、動的FoVは初期化される。動的FoVは、オクルージョンに起因する死角を含まない、現時点における少なくとも1つのセンサの現在の実際のFoVを表す。
動的FoVは、自車両のいくつかのセンサの検出領域(理想FoV)の組み合わせであってよい。動的FoVを初期化する間、部分的に互いに重複する場合がある検出領域が組み合わされて、動的FoVを形成する。また、オクルージョンに起因する非視認領域は、動的FoVが初期化されてセンサが包含する実際の視認領域を示すように、検出領域から減算される。
オクルージョンは、自車両周辺の、他の車両、歩行者、交通標識又は交通信号などの静的及び動的オブジェクト、そして勾配、道路の曲率などの道路の幾何学的構成に基づく。自車両周辺のマップは、外部もしくは内部インスタンス、又はモジュールを構成して提供されてよい。
マップに含まれるかマップが提供する情報に基づいて、自車両が走行している道路は、マップにおける道路の境界を定義するマップポリゴンを作成することにより、マップにおいて画定される。少なくとも1つのセンサにより観測可能な(又は、言い換えると「見ることができる」又は「センシング可能な」)、マップにおける視認領域は、動的FoV情報をマップポリゴンの形状の道路情報と組み合わせることにより決定される。
また、マップにおいて道路を画定するマップポリゴンは、少なくとも1つのセンサにより現時点において実際に観測可能な領域を示す動的FoVと交差される。これにより、道路のどの領域又は部分が少なくとも1つのセンサにより観測可能かという現時点の情報を含む投影FoVが、マップにおける視認領域の形状で生成される。この視認領域に基づいて、道路についての視認距離が決定される。視認領域はそれぞれ評価又は測定され、マップにおける道路についての視認距離が得られる。
また、それぞれの方向の視認領域の長さを示す視認性を決定できる。各方向について、最小及び/又は最大視認性を決定できる。視認距離は、道路の中点から道路方向の一直線前方に投影される。道路の中点は、常に道路の中央に位置する。最初の中点は、自車両の始点かつ道路の中央に位置する。次の中点は、視認距離の終点に位置する。そこで、それぞれの視認性に基づく次の視認距離が得られる。この手順の繰り返しを道路の一定の長さにわたって継続できる。また、視認範囲、又は最小及び最大視認性もしくは視認距離に基づく平均視認範囲が決定されてよい。「現時点」の用語は、特に、瞬間又は短い期間、例えば1ms(ミリ秒)以内又は5s(秒)以内も表す。ステップa)及びb)は逆の順序又は並行して実施されてもよい。
視認距離に基づいて、例えば、ある操作が安全に実施可能かどうか決定する、意思決定プロセスは、決定の基準を改善するために、追加のデータを含んでよい。これにより、意思決定プロセスの安全性が向上し、劣悪な決定の確率が低下し、したがってアクシデントの確率も低下する。特に、自動運転車両の追い越し操作の安全性を、視認距離に基づいて向上させることができる。
本発明の有利な実施形態によると、動的FoVを初期化することに関するステップa)は以下のステップを備える。
a1)自車両のセンサのそれぞれについて、理想FoVを初期化するステップと、
a2)センサのそれぞれについて、各センサのセンサデータに基づいてオクルージョンを決定し、オクルージョンに基づいて非視認ポリゴンを作成するステップと、
a3)センサのそれぞれについて、各理想FoVから各非視認ポリゴンを減算するステップであって、改変FoVを形成するステップと、
a4)改変FoVを統合する(又は組み合わせる)ステップであって、動的FoV形成するステップ。
フュージョンアルゴリズムは自車両のあらゆるセンサから情報を収集し、車両周辺に存在する静的及び動的オブジェクトのセット/リストを含むセンサデータを出力する。理想FoVのそれぞれについて、各理想FoVを形成する点のポリゴンが形成されてよい。
理想FoV又は、言い換えると、(例えばポリゴン表示における)センサのそれぞれの理論上の検出領域から、非視認ポリゴンとして表示されるオクルージョンにより生成される非視認領域が減算され、改変FoVを生成する。非視認領域/ポリゴンは、マップの水平方向の検出オブジェクトのエッジを、センサポジションそれぞれから投影することにより作成される。改変FoVは、各センサにより観測可能な実際の検出領域を表す。センサのそれぞれの改変FoVは組み合わされるか(例えば簡単なポリゴン統合により)まとめられることで、車両周辺全体の動的FoVを生成する。ステップa1)及びa2)は逆の順序又は並行して実施されてもよい。
特に、1より大きい数のセンサを用いることで、オブジェクトの真陽性検出の精確性/確率を向上させることができ、それにより、追い越し操作などの操作の意思決定プロセスを、より確実で安全に実施できる。
本発明の有利な実施形態によると、ステップd)において、視認距離は、道路の中点が起点となる。中点は、道路の中央、かつ自車両の長さ方向に対して垂直に延在する長さ方向座標0線上に位置する。
長さ方向座標0線は、自車両のセンサ位置とは異なる、自車両の点を通ってよい。長さ方向座標0線上の中点を用いることで、視認距離は共通の基準線から測定される。これにより、異なる視認距離の比較可能性が向上する。
本発明の有利な実施形態によると、中点は、周辺のマップからの情報に基づいて決定される。
マップポリゴンを有する周辺のマップは、道路又は車線の中央を決定するのに用いられる、道路又は道路の車線の幅に関する情報を提供する。
本発明のある有利な実施形態によると、ステップa2)において、オクルージョンは、各センサのセンサデータに基づいて識別される静的もしくは動的オブジェクト又は道路の幾何学的構成に基づいて決定される。
センサの実際の検出領域(改変FoV)は、静的オブジェクトに起因するオクルージョンのための自車両の移動とともにのみ変化する。自車両に対して一定速度で移動する動的オブジェクトは、その相対速度に基づいてセンサの実際の検出領域(改変FoV)を変化させる。
静的及び/又は動的オブジェクトを考慮することにより、視認距離に基づく意思決定プロセスの精確性及び安全性を向上できる。
本発明のある有利な実施形態によると、ステップa4)において、改変FoVは、所定の高さについて、又は所定の高さにおいて、統合される。
所定の高さは、自車両が位置する地上に対する高さである。所定の高さは、10cm(センチメートル)より高くてよく、好ましくは50cmより高くてよい。
所定の高さにおけるセンサデータのみを考慮し、動的FoV形状を生成して、この所定の高さにおける改変FoVは、関連するオブジェクトのみが視認距離を決定するために検出されて考慮されることを確実にする。
本発明のある有利な実施形態によると、ステップb)において、マップポリゴンは道路の車線のエッジを決定する。また、ステップd)において、道路の車線のそれぞれについて、各視認距離が決定される。
マップポリゴンは、道路のそれぞれの車線に基づいてマップから受ける道路のトポロジーを画定する。それぞれの車線を画定するマップポリゴンは、自車両の車線と隣接車線の投影FoV(車線の領域又は部分が各センサにより観測可能)を決定するために用いられる。これにより、道路のそれぞれの車線すべて、つまり自車両が移動する車線及び隣接車線についての視認距離が決定される。
複数の車線を有する道路においては、あらゆる車線についての視認距離を決定して、追い越し操作などの操作の意思決定をさらに安全でいっそう確実に実施することは有利である。
本発明のある有利な実施形態によると、ステップd)において、道路の車線のそれぞれ及び道路について、各視認距離が決定される。
道路のあらゆる車線についての視認距離に加えて、道路全体の組み合わされた視認距離も生成されてよい。道路についての視認距離は、車線についての視認距離の最短視認距離であってよい。あらゆる車線についての視認距離は各車線の中点を起点としてよい。中点は、各車線の中央、かつ自車両の長さ方向に対して垂直に延在する長さ方向座標0線上に位置する。車線のそれぞれの中点は、周辺のマップからの情報に基づいて決定されてよい。
ある操作を開始するかどうかに関する意思決定プロセスは、1つの認識距離のみに基づいてよく、利用可能なあらゆる視認距離に基づかなくてよいことから、意思決定にかかる負担が低減される。
本発明のある有利な実施形態によると、ステップb)において、マップポリゴンは、マップデータ、特に自車両のナビゲーションシステムからのマップデータと、位置決定データ、特に自車両のGPSシステムからの位置決定データに基づいて作成される。
パーティクルフィルタなどの高精度位置決定方法、又はナビゲーションシステムからの高精細マップと組み合わされた、高精度GPSセンサなどの高精度位置決定センサにより、道路上の自車両の位置又は場所を高精度で識別することが可能になる。この場合の高精度とは、センチメートルの範囲で場所/位置の識別をすることを意味する。
自車両の精確な位置決定は、道路及び/又は車線の幾何学的構成に関連するものである視認距離の精度を向上させる。したがって、視認距離に基づく意思決定プロセスの安全性及び確実性を向上させることができる。
本発明のある有利な実施形態によると、ステップd)において、1つ又は複数の認識距離は、自車両の前方及び/又は後方の道路又は道路の車線について決定される。
本発明のある有利な実施形態によると、ステップa)において、動的FoVの初期化は、自車両周辺のマップから得られる道路の道路幾何学的構成に関する情報にもまた基づく。
オブジェクトによるオクルージョンとともに、勾配などの、道路の幾何学的構成による影響が考慮される。例えば、道路の勾配は、(高精細)マップ及び/又はセンサデータから得ることができ、視認性がそれによる影響を受けるかどうか決定する。
これにより、決定された視認距離の正確性が向上し、したがって、視認距離に基づく操作についての意思決定プロセスの確実性及び安全性が向上する。
本発明のさらなる態様によると、自車両の走行車線を自動変更する方法は以下の連続するステップを備える。
e)上記方法により道路又は道路の車線について決定される1つ又は複数の視認距離、自車両のダイナミクス及び自車両周辺のオブジェクトに基づいて衝突することなく走行車線を変更することが可能かどうか意思決定するステップ。
f)意思決定が肯定的な場合に走行車線を変更するために、自車両の自動運転コントローラに影響を及ぼすステップ。
意思決定が否定的な場合、自車両中の人が走行車線を変更するために手動制御の実施を試みると、警告が発せられてよい。
本方法及び上述のその改良により決定される1つ又は複数の視認距離から、少なくとも1つのセンサが観測又は「見る」ことができる、道路又は車線の各領域がわかる。速度、加速度及び/又はヨーレートなどの自車両のダイナミクス、そして自車両周辺の検出オブジェクトに関する、特に隣接車線を走行中の他の車両に関する、センサデータから得られる情報とともに、車両が現在移動中の車線から別の車線へと走行車線を変更するのが望ましいかどうか意思決定がなされる。この意思決定に基づいて、自動運転コントローラは、肯定的な決定の場合、走行車線の変更を実施するように影響を及ぼされる。
少なくとも1つのセンサが観測又は「見る」ことができる、道路又は車線の領域に関する情報を含む1つ又は複数の視認距離の情報に基づいて、走行車線を変更するかどうか、確実で情報に基づく意思決定がなされる。このようにして、走行車線を自動変更する確実な方法が提供される。
以下、本発明を図面に示される例示的な実施形態によりさらに詳細に説明する。例示的な実施形態は、単に本発明のより良い理解に資するものであり、本発明の範囲を限定するものと解釈されてはならない。
図1Aは、本発明の第2態様によるシステムを備える、本発明の第3態様による自動運転車を概略的に示す図である。 図1Bは、図1Aの自動運転車のセンサの改変FoVを概略的に示す図である。 図1Cは、道路の車線それぞれの中点の位置を示す図である。 図2は、動的FoVを、前方方向及び後方方向において各中点からの道路の車線のそれぞれについての視認距離とともに概略的に示す図である。 図3は、道路の連続する視認距離を概略的に示す図である。 図4は、オブジェクトに起因するオクルージョンが一切ない動的FoVを概略的に示す図である。 図5は、本発明の第1態様の実施形態による方法を示す、概略的なフロー図である。
本発明の第2態様の実施形態による、自車両の動的視野、つまりFoVに基づいて視認距離を決定するシステムについて、図1Aから図4を参照して以下説明する。
図1Aにおいて、自車両1、特に自動運転車1が概略的に示される。自動運転車1は、自動運転車1の動的視野、つまりFoVに基づいて視認距離を決定するように構成されるシステム2を備える。
システム2は、LiDARセンサ、レーダセンサ、超音波センサなどであってよい、少なくとも1つのセンサ3を有する。システム2は、コントローラ4をさらに有する。コントローラは、プロセッサ、メモリ及びインタフェースを有する別個のユニットであってよく、又は自動運転車1の自動運転コントローラの一部であってよい。自動運転車1は、2つの車線6を有する道路5上を移動する。道路5及び/又は車線6は、自動運転車1のナビゲーションシステムにより提供される、自動運転車1周辺のマップにおけるマップポリゴンにより画定される。センサ3は、それが構造体を検出できる領域を有する。最大検出領域が理想FoV7である。
図1Bにおいて、オブジェクトの検出が概略的に示される。オブジェクト8が検出領域内に位置する場合、理想FoV7はオブジェクト8により部分的にオクルードされる。ここで、オブジェクト8は別の車両であるが、オブジェクト8は、他の車両、歩行者、交通標識又は交通信号などのあらゆる動的又は静的オブジェクト、そして勾配、道路の曲率などの道路の幾何学的構成であってよい。道路の幾何学的構成は、自動運転車1周辺のマップから得られてもよい。
理想FoV7は、オブジェクト8に起因するオブストラクション又はオクルージョン9により、オブジェクト8のエッジ背後の死角を有する改変FoV10まで縮小する。自動運転車1がいくつかのセンサ3を有する場合、各改変FoVは統合されて(図5のS14)動的FoVになる(図2、参照符号14参照)。動的FoVと、道路5及び車線6を画定するマップポリゴンは交差され(図5のS30)、周辺のマップにおける視認領域を有する投影FoVを生成する。視認領域は、オブジェクト8が引き起こすオクルージョン9に起因する死角を含まない、少なくとも1つのセンサが観測可能な(又は、言い換えると「見ることができる」)車線6のそれぞれの領域及び/又は道路5の領域を与える。その視認領域に基づいて、視認性11a、11bが決定される。
少なくとも1つの視認性11a、11bが車線6のそれぞれ及び/又は道路5について決定され、視認性11a、11bのそれぞれは、一定方向の各センサ3からオブジェクト8まで、又は各センサ3の範囲の端までの最長距離を表す。したがって、自動運転車1が移動する車線についての最短視認性11aが、各車線6の1つの視認性として選択される。オブジェクト8(ここでは別の車両)が位置する車線6についても、最短視認性11bが選択される。視認性11a、11b全体を道路5についての視認性11として選択してよい。自動運転車1の車線6についての視認性11aと、オブジェクト8の車線6についての視認性11bに基づいて、代替として、道路5の視認性11が少なくとも1つの視認距離を得るために用いられる。
図1Cにおいて、中点13が概略的に示される。道路5の車線6のそれぞれについて、周辺のマップの情報に基づいて決定される各中点13が存在する。中点13のそれぞれは、各車線6の中央にある。中点13は、自動運転車1の長さ方向に対して垂直に延在する長さ方向座標0線上、かつ車線6のそれぞれの中央にある。ここでは、1つのFoV7を有する1つのセンサのみが示される。自動運転車1に隣接する車線上の左側中点13は、別のFoV(不図示)を有する別のセンサが、各中点13が存在するこの領域を包含する場合にのみ決定することができる。道路5の車線6のすべてについての中点及び視認距離の決定については、図2を参照して説明する。
図2において、自動運転車1のいくつかのセンサのいくつかのFoV7からなる動的FoV14が概略的に示される。道路5の車線6のそれぞれについての視認性11a、11bに基づいて、自動運転車1の前方方向の視認距離12と後方方向の視認距離12が決定される。視認距離12は各車線の各中点13を起点とし、中点13は自動運転車1の長さ方向に対して垂直に延在する長さ方向座標0線上、かつ車線6のそれぞれの中央にある。
方向のそれぞれ及び車線のそれぞれにおける視認距離12は、各方向における自動運転車1のセンサの視認性11に基づく、動的FoVの最大視認性まで到達できる。隣接車線6のオブジェクト8が動的FoV14のオクルージョン9を生じさせる。このオクルージョン9により、(自車両に関して)後方方向の隣接車線6の視認距離12は、オブジェクト8に起因するオクルージョン9がない場合よりも短い。
図3は、道路5についてのいくつかの視認距離12を示す。視認距離12は、道路5のあらゆる車線6から得ることもできる。周辺のマップから、道路又は各車線6の中点が得られる。中点13は、つねに道路5又は車線6それぞれの中央に位置する。視認巨路12.1は、中点13.1から道路方向の一直線前方に投影される。次の視認巨路12.2は、第1視認距離12.1の端に位置する中点13.2から道路方向の一直線前方に投影される。視認距離12.xのこの工程は、道路5又は車線6それぞれの一定の長さについて継続できる。
視認距離12は、車線変更を衝突のリスクがほとんどなくできるかどうか意思決定するために用いられる。この意思決定をするために、自動運転車1の速度、加速度及びヨーレート、オブジェクト8に関する情報(位置、そしてオブジェクト8が動的オブジェクトの場合は速度及び/又は加速度及び/又は得られた相対速度及び/又は加速度)が、1つ又は複数の視認距離12/12.xとともに用いられる。意思決定が肯定的な場合、自動運転車1の自動運転コントローラは、車線を変更するように自動運転車1を制御するように影響を及ぼされる。
図4において、自動運転車1の動的FoV14が概略的に示される。自動運転車1は、異なる半径の円のダッシュ部として示される、重複する検出領域(理想FoV)を有する8個のセンサを備える。この場合、センサの理想FoVをオクルードするオブジェクトがなく、動的FoV14は、静的又は動的オブジェクトが引き起こすオクルージョンに起因する死角を含まない、理想FoVのすべての重ね合わせとして初期化される。
図5において、自動運転車1の動的FoV14に基づいて視認距離12を決定する方法がフロー図として概略的に示される。図5の方法は上記システムとともに用いることができ、そのシステムについてのあらゆる修正、オプション又は変形にしたがって翻案してよく、その逆も当てはまる。本方法を記載するために、図1Aから図4のいくつかの参照符号がより良い説明のために用いられる場合がある。しかし、図5の方法はシステム2を使用することに限定されないことは理解されるべきである。
S10は、自動運転車1の少なくとも1つのセンサ3のセンサデータに基づいて動的FoV14を初期化することを示す。この場合、自動運転車1のセンサ3の理想FoV7(検出領域)は組み合わされて、オクルージョン9に起因する死角又は非視認領域が減算される。
S11は、自動運転車のセンサ3のそれぞれについて、理想FoV7を初期化することを示す。S12は、センサ3のそれぞれについて、各センサ3のセンサデータに基づいてオクルージョン9を決定し、オクルージョン9に基づいて非視認ポリゴンを作成することを示す。S13は、センサ3のそれぞれについて、各理想FoV7から各非視認ポリゴンを減算して、改変FoV10を形成することを示す。S14は、改変FoV10を統合して(又は組み合わせて)、動的FoV14を形成することを示す。S20は、自動運転車1周辺のマップにおける道路5又は道路5の車線6のエッジをそれぞれが決定する、マップポリゴンを作成することを示す。S30は、マップポリゴンを動的FoV14と交差させることによりマップにおける視認領域を決定することを示す。S40は、視認領域に基づいて道路5又は道路5の車線6についての視認距離12を決定することを示す。
また、図5において、自動運転車1の走行車線を自動変更する方法が概略的に示される。ステップ10からステップ40に加えて、ここではステップS50及びS60が実行される。S50は、自動運転車1のダイナミクスに基づく道路5又は道路5の車線6について決定される少なくとも1つの視認距離12、及び/又は自動運転車1周辺のオブジェクト8に基づいて衝突することなく走行車線を変更することが可能かどうか意思決定することを示す。S60は、意思決定が肯定的な場合に走行車線を変更するために、自動運転車1の自動運転コントローラに影響を及ぼすことを示す。
本明細書において具体的な実施形態が説明及び記載されたが、様々な代替及び/又は等価の実施が存在することは当業者に理解されるだろう。1つの例示の実施形態又は複数の例示の実施形態は一例に過ぎず、いかなる場合においても範囲、利用又は構成を限定することを意図するものではないことは理解されるべきである。むしろ、上記概要及び詳細な説明は当業者に少なくとも1つの例示の実施形態を実施するための便利な行程表を与えるものであり、添付の特許請求の範囲に記載される範囲及びその法的等価物から逸脱することなく例示の実施形態において記載される要素の機能及び配置について様々な変更がなされてよいことは理解される。一般に、本願は本明細書で説明される具体的な実施形態のあらゆる翻案あるいは変形を包含することを意図する。
上記詳細な説明において、様々な特徴が、開示を簡素化する目的で1つ又は複数の例においてまとめられている。上記記載は例示的であって限定的ではないことは理解される。発明の範囲に含まれる可能性がある代替、修正及び同等物のすべてを包含することが意図される。上記記載を概観すれば多くの別の例が当業者には明らかであろう。
上記記載において用いられる具体的な用語は本発明の完全な理解を提供するために用いられる。しかし、具体的な詳細は発明を実施するには必要ではないことは本明細書の記載に照らせば当業者には明らかである。したがって、本発明の具体的な実施形態の上記記載は例示及び説明を目的として提示される。これらは網羅的又は発明を開示されたまさにその形態に限定することを意図するものではなく、明らかに多くの修正及び変形が上記教示に鑑みて可能である。実施形態は、発明の原理及びその実際の適用を最良の形で説明することで、当業者が発明及び予期される具体的な使用に適合するような様々な修正を伴う様々な実施形態を利用できるように選択及び記載された。記載において、「含む(including)」及び「において(in which)」という用語は、それぞれ「備える(comprising)」及び「であって(wherein)」という用語の平易な英語の等価物として用いられている。また、「第1」、「第2」、「第3」などの用語は標識付けとして用いられるに過ぎず、その対象物に対して数に関する要件を課すこと又はその対象物の重要度の一定の順位付けを設けることを意図しない。本明細書及び請求項の文脈において、「又は」という接続詞は包含的(「及び/又は」)であって排他的(いずれか一方)ではないと理解されるべきである。
1 車両/自動運転車
2 システム
3 センサ
4 コントローラ
5 道路
6 車線
7 理想FoV
8 オブジェクト
9 オクルージョン
10 改変FoV
11 視認性
12 視認距離
13 中点
14 動的FoV

Claims (15)

  1. 自車両(1)の動的視野つまりFoV(14)に基づいて視認距離を決定する方法において、
    動的FoV(14)を自車両(1)の少なくとも1つのセンサ(3)のセンサデータに基づいて初期化するステップ(S10)と、
    自車両(1)周辺のマップにおける道路(5)のエッジをそれぞれが決定する、マップポリゴンを作成するステップ(S20)と、
    マップポリゴンを動的FoV(14)と交差させることによりマップにおける視認領域を決定するステップ(S30)と、
    視認領域に基づいて道路(5)についての視認距離(12)を決定するステップ(S40)と、
    を備える方法。
  2. 動的FoV(14)を初期化することは
    自車両(1)のセンサ(3)のそれぞれについて、理想FoV(7)を初期化するステップ(S11)と、
    センサ(3)のそれぞれについて、各センサ(3)のセンサデータに基づいてオクルージョン(9)を決定し、オクルージョン(9)に基づいて非視認ポリゴンを作成するステップ(S12)と、
    センサ(3)のそれぞれについて、各理想FoV(7)から各非視認ポリゴンを減算するステップであって、改変FoV(10)を形成するステップ(S13)と、
    改変FoV(10)を統合するステップであって、動的FoV(14)を形成するステップ(S14)と、
    を備える、請求項1に記載の方法。
  3. 視認距離(12)は、道路(5)の中点(13)が起点となり、中点(13)は、道路(5)の中央、かつ自車両(1)の長さ方向に対して垂直に延在する長さ方向座標0線上にある、請求項1又は2に記載の方法。
  4. 中点(13)は、周辺のマップからの情報に基づいて決定される、請求項3に記載の方法。
  5. オクルージョン(9)は、各センサ(3)のセンサデータに基づいて識別される静的又は動的オブジェクト(8)に基づいて決定される(S12)、請求項2に記載の方法。
  6. 改変FoV(10)は、所定の高さについて統合される(S14)、請求項2から5のいずれか1項に記載の方法。
  7. マップポリゴンは道路(5)の車線(6)のエッジを決定し、道路(5)の車線(6)のそれぞれについて、各視認距離(12)が決定される、請求項1から6のいずれか1項に記載の方法。
  8. 道路(5)の車線(6)のそれぞれ及び道路(5)について、各視認距離(12)が決定される、請求項7に記載の方法。
  9. マップポリゴンは、マップデータ、特に自車両(1)のナビゲーションシステムからのマップデータと、位置決定データ、特に自車両(1)のGPSシステムからの位置決定データに基づいて作成される(S20)、請求項1から8のいずれか1項に記載の方法。
  10. 1つ又は複数の認識距離(12)は、自車両(1)の前方及び/又は後方の道路(5)又は道路(5)の車線(6)について決定される、請求項1から9のいずれか1項に記載の方法。
  11. 動的FoV(14)の初期化(S10)は、自車両(1)周辺のマップから得られる道路(5)の道路幾何学的構成に関する情報にもまた基づく、請求項1から10のいずれか1項に記載の方法。
  12. 自車両(1)の走行車線を自動変更する方法において、
    請求項1から11のいずれか1項に記載の方法を用いて少なくとも1つの視認距離を決定するステップ(S10からS40)と、
    自車両(1)のダイナミクスに基づく道路(5)又は道路(5)の車線(6)について決定される少なくとも1つの視認距離(12)、及び/又は自車両(1)周辺のオブジェクト(8)に基づいて衝突することなく走行車線を変更することが可能かどうか意思決定するステップ(S50)と、
    意思決定が肯定的な場合に走行車線を変更するために、自車両(1)の自動運転コントローラに影響を及ぼすステップ(S60)と、
    を連続的に備える方法。
  13. 自車両(1)の動的視野つまりFoV(14)に基づいて視認距離を決定するように構成されるシステム(2)において、
    車両(1)周辺のオブジェクトを検出するように構成される少なくとも1つのセンサ(3)と、
    −動的FoV(14)を自車両(1)の少なくとも1つのセンサ(3)のセンサデータに基づいて初期化し(S10)、
    −自車両(1)周辺のマップにおける道路(5)のエッジをそれぞれが決定する、マップポリゴンを作成し(S20)、
    マップポリゴンを動的FoV(14)と交差させることによりマップにおける視認領域を決定し(S30)、
    視認領域に基づいて道路(5)についての視認距離(12)を決定する(S40)用に構成されるコントローラ(4)と、
    を備えるシステム(2)。
  14. コントローラ(4)は、請求項2から12のいずれか1項に記載の方法のステップを実行するようにさらに構成される、請求項13に記載のシステム(2)。
  15. 請求項13又は14に記載のシステム(2)を備える車両(1)、特に自動運転車両(1)。
JP2019110355A 2018-06-28 2019-06-13 車両の動的視野に基づく視認距離決定 Active JP7414410B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18465543.9 2018-06-28
EP18465543.9A EP3588006B1 (en) 2018-06-28 2018-06-28 Determining visibility distances based a on dynamic field of view of a vehicle

Publications (2)

Publication Number Publication Date
JP2020004400A true JP2020004400A (ja) 2020-01-09
JP7414410B2 JP7414410B2 (ja) 2024-01-16

Family

ID=63165320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110355A Active JP7414410B2 (ja) 2018-06-28 2019-06-13 車両の動的視野に基づく視認距離決定

Country Status (3)

Country Link
US (1) US11285953B2 (ja)
EP (1) EP3588006B1 (ja)
JP (1) JP7414410B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3757870A1 (en) * 2019-06-27 2020-12-30 Visteon Global Technologies, Inc. Method and system for handling occlusion of an environment sensor
WO2021035012A1 (en) * 2019-08-22 2021-02-25 Cubic Corporation Self-initializing machine vision sensors
KR20210076412A (ko) * 2019-12-16 2021-06-24 현대자동차주식회사 차량 센서 성능 평가 장치 및 그의 성능 평가 방법
KR20220000073A (ko) * 2020-06-25 2022-01-03 현대모비스 주식회사 거리센서를 이용한 장애물 검출 시스템 및 방법
CN114312562A (zh) * 2020-10-12 2022-04-12 怀化市联翰信息科技有限公司 一种基于gps的车辆碰撞预警系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018087004A (ja) * 2016-11-29 2018-06-07 三星電子株式会社Samsung Electronics Co.,Ltd. 車両速度制御方法及び装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3882568B2 (ja) 2001-10-17 2007-02-21 日産自動車株式会社 車両用接近報知装置
JP3878008B2 (ja) 2001-12-07 2007-02-07 株式会社日立製作所 車両用走行制御装置及び地図情報データ記録媒体
JP4604103B2 (ja) * 2008-03-31 2010-12-22 トヨタ自動車株式会社 交差点見通し検出装置
JP5004865B2 (ja) 2008-05-08 2012-08-22 日立オートモティブシステムズ株式会社 自動車用障害物検知装置
US8692739B2 (en) * 2011-09-22 2014-04-08 GM Global Technology Operations LLC Dynamic information presentation on full windshield head-up display
US9221396B1 (en) * 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
JP2015057686A (ja) 2012-12-21 2015-03-26 株式会社デンソー 注意喚起装置
US9242647B2 (en) 2013-02-06 2016-01-26 GM Global Technology Operations LLC Display systems and methods for autonomous vehicles
JP6323064B2 (ja) 2014-02-26 2018-05-16 日産自動車株式会社 走行車線識別装置、車線変更支援装置、走行車線識別方法
KR102009585B1 (ko) * 2015-04-23 2019-08-09 닛산 지도우샤 가부시키가이샤 오클루전 제어 장치
JP2017114155A (ja) 2015-12-21 2017-06-29 三菱自動車工業株式会社 運転支援装置
US20190072648A1 (en) * 2017-09-01 2019-03-07 Panasonic Intellectual Property Management Co., Ltd. Imaging control apparatus, imaging control method, imaging control program, and recording medium having imaging control program recorded thereon
JP2019045301A (ja) 2017-09-01 2019-03-22 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、撮像制御プログラムおよび撮像制御プログラムを記録した記録媒体
KR101962701B1 (ko) 2017-09-25 2019-03-27 주식회사 만도 가시 거리에 따라 경보 영역이 변경되는 차량 경보 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018087004A (ja) * 2016-11-29 2018-06-07 三星電子株式会社Samsung Electronics Co.,Ltd. 車両速度制御方法及び装置

Also Published As

Publication number Publication date
JP7414410B2 (ja) 2024-01-16
EP3588006B1 (en) 2021-08-11
US11285953B2 (en) 2022-03-29
US20200001877A1 (en) 2020-01-02
EP3588006A1 (en) 2020-01-01

Similar Documents

Publication Publication Date Title
JP7414410B2 (ja) 車両の動的視野に基づく視認距離決定
US10293748B2 (en) Information presentation system
US10377376B2 (en) Vehicle with environmental context analysis
US10713952B2 (en) Road information recognition system and road information recognition method
US9507345B2 (en) Vehicle control system and method
US10452930B2 (en) Information display device mounted in vehicle including detector
US8983679B2 (en) Movement trajectory generator
CN110214106B (zh) 可操作用于确定车道的一部分的位置的装置
US20170036678A1 (en) Autonomous vehicle control system
CN110036426B (zh) 控制装置和控制方法
JP4992764B2 (ja) 安全確認判定装置および運転教示支援システム
CN110198875B (zh) 对驾驶员辅助系统的改进或与之相关的改进
US20180144199A1 (en) Vehicle vision
JP2023174676A (ja) 車両用表示制御装置、方法およびプログラム
JP3857698B2 (ja) 走行環境認識装置
US20190389488A1 (en) Surroundings monitoring device
JP5771930B2 (ja) 走行軌跡作成装置
EP3888987B1 (en) Lane selection method for vehicle when self-driving, selection system, and vehicle
JP4277678B2 (ja) 車両運転支援装置
CN108725319B (zh) 一种影像式倒车指导方法
US11610488B2 (en) Notification device and vehicle control device
JP2022012246A (ja) 運転計画装置及び運転計画用コンピュータプログラム
JP2020129331A (ja) 逆走判定システム、逆走判定方法、及び逆走判定プログラム
WO2019127076A1 (en) Automated driving vehicle control by collision risk map
JP7552484B2 (ja) 表示制御システム、表示制御方法及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R150 Certificate of patent or registration of utility model

Ref document number: 7414410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150