JP2024527491A - 自動運転および/または支援運転のための駆動装置、車両、および方法 - Google Patents
自動運転および/または支援運転のための駆動装置、車両、および方法 Download PDFInfo
- Publication number
- JP2024527491A JP2024527491A JP2023577492A JP2023577492A JP2024527491A JP 2024527491 A JP2024527491 A JP 2024527491A JP 2023577492 A JP2023577492 A JP 2023577492A JP 2023577492 A JP2023577492 A JP 2023577492A JP 2024527491 A JP2024527491 A JP 2024527491A
- Authority
- JP
- Japan
- Prior art keywords
- occupancy grid
- vehicle
- data
- drivable
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000001514 detection method Methods 0.000 claims abstract description 95
- 230000003287 optical effect Effects 0.000 claims abstract description 88
- 230000004807 localization Effects 0.000 claims abstract description 55
- 230000004927 fusion Effects 0.000 claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 12
- 238000002156 mixing Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 description 42
- 238000004891 communication Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000005670 electromagnetic radiation Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000010485 coping Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013531 bayesian neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
本発明は、車両に関し、車両は、記憶装置(33)から地図データを受信し、位置特定装置(22)から位置特定データを受信するように構成され、かつ地図データおよび/または位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するように構成された走行可能道路検出部(32)と、光学検知装置(20)から画像データを受信するように構成され、かつ画像データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するように構成された光学センサベースの走行可能道路検出部(32c)と、第1占有グリッドと第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するように構成された融合部(32d)と、を備える。【選択図】図3
Description
本発明は、車両の自動運転および/または支援運転のための駆動装置に関し、駆動装置は、地図データを記憶するように構成された記憶装置と、車両の位置特定データを受信するように構成された位置特定入力ポートと、車両の周囲を示す画像データおよび/または幾何学的データを受信するように構成された光入力ポートとを備える。
本発明はさらに、車両に関し、車両は、地図データを記憶するように構成された記憶装置と、車両の位置特定データを出力するように構成された位置特定装置と、車両の周囲を示す画像データおよび/または幾何学的データを出力するように構成された光学検知装置とを備える。
本発明はまた、自動モードおよび/または運転支援モードで車両を運転するためのコンピュータ実装された方法に関し、方法は、位置特定装置を使用して車両の位置特定データを生成するステップと、光学検知装置を使用して車両の周囲を示す画像データおよび/または幾何学的データを生成するステップと、記憶装置から地図データを受信し、位置特定装置から位置特定データを受信するステップとを備える。
自律モード(例えば、無人運転)または半自律モード(運転支援を使用)で動作する車両は、運転者をいくつかの運転関連タスクから解放する。自律モードで動作する場合、車両は様々な場所にナビゲートすることができ、最小限の人的相互作用で、または場合によっては乗員なしで、車両が走行することを可能にする。同様に、支援運転モードでは、運転者のいくつかのタスクが運転者支援システムによって実行される。
自律的または半自律的に運転する車両は、通常、ルートおよび地図サービスによって提供されるルートに基づいてナビゲートされる。道路および道路内の車線の構成は、車両のための経路を計画する際に重要である。したがって、地図の精度は非常に重要である。しかしながら、場合によっては、例えば地図作成の誤り、道路の損傷、または道路の新規建設などの様々な要因のために、道路の境界が地図から取得された境界とは異なることがあり得る。このような地図による道路と実際の道路状況との不一致は、車両の計画および制御に誤りを生じさせる可能性がある。
米国特許出願公開第2019/0078896号明細書は、自動運転車両のためのデータ駆動型地図更新システムを開示している。米国特許出願公開第2017/0297571号明細書は、自律車両の融合システムの性能を監視し、適応させるための方法および装置に関する。米国特許出願公開第2019/0384304号は、ディープニューラルネットワークを使用した自律機械のための経路検出を開示している。米国特許出願公開第2020/0160068号明細書は、自律車両のための地図化がなされていない走行可能な路面を自動的に検出することに関する。米国特許出願公開第2016/0061612号明細書は、自律車両の運転環境を認識するための装置および方法を開示している。米国特許出願公開第2020/0183011号明細書は、占有グリッドマップを作成するための方法に関する。
本発明の目的は、安全で快適な経路を計画することができるように走行可能道路の境界を予測するための駆動装置、車両、およびコンピュータ実装された方法を提供することである。
この目的は、独立請求項の主題によって解決される。従属請求項は、本発明の好ましい実施形態を記載する。
車両の自動運転および/または支援運転のための駆動装置は、地図データを記憶するように構成された記憶装置と、前記車両の位置特定データを受信するように構成された位置特定入力ポートと、前記車両の周囲を示す画像データおよび/または幾何学的データを受信するように構成された光入力ポートと、走行可能道路検出部とを備える。走行可能道路検出部は、地図ベースの走行可能道路検出部と、光学センサベースの走行可能道路検出と、融合部とを含む。前記地図ベースの走行可能道路検出部は、前記記憶装置から前記地図データを受信し、前記位置特定入力ポートから前記位置特定データを受信するように構成されている。前記地図ベースの走行可能道路検出部は、前記地図データおよび/または前記位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するようにさらに構成されている。前記光学センサベースの走行可能道路検出部は、前記光入力ポートから前記画像データおよび/または前記幾何学的データを受信するように構成され、かつ前記画像データおよび/または前記幾何学的データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するように構成されている。前記融合部は、前記第1占有グリッドと前記第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するように構成されている。
任意選択で、前記駆動装置は、前記第3占有グリッドに基づいて、自動運転および/または支援運転のための駆動信号を生成するように構成された制御部を含み、前記駆動信号は制御目的のために前記車両に出力される。
車両は、地図データを記憶するように構成された記憶装置と、前記車両の位置特定データを出力するように構成された位置特定装置と、前記車両の周囲を示す画像データおよび/または幾何学的データを出力するように構成された光学検知装置と、走行可能道路検出部とを備え、前記走行可能道路検出部は、地図ベースの走行可能道路検出部と、光学センサベースの走行可能道路検出部と、融合部とを含む。前記地図ベースの走行可能道路検出部は、前記記憶装置から前記地図データを受信し、前記位置特定装置から前記位置特定データを受信するように構成されている。前記地図ベースの走行可能道路検出部は、前記地図データおよび/または前記位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するようにさらに構成されている。前記光学センサベースの走行可能道路検出部は、前記光学検知装置から前記画像データおよび/または前記幾何学的データを受信するように構成され、かつ前記画像データおよび/または前記幾何学的データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するように構成されている。前記融合部は、前記第1占有グリッドと前記第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するように構成されている。
任意選択で、前記車両は、前記第3占有グリッドに基づいて、自動運転モードおよび/または支援運転モードで前記車両を運転するように構成された制御部を含む。
本発明は、走行可能道路識別システムの正確性、精度、冗長性、および/または安全性を高めるために、リアルタイムAI(人工知能)および地図ベースのアプローチを融合する一般的な技術的思想に基づく。言い換えると、高精細な車線地図データからの情報と、車両の周囲に関するデータの走行可能道路のリアルタイムセマンティックセグメンテーションによって生成されたデータとを融合するためのユニットを備える、走行可能道路を冗長/確実に認識するためのシステムが提供される。本発明によれば、走行可能道路を高い正確性および高い精度で予測することができる。
車両および/または車両の駆動装置は、ロボカーと呼ばれることもある自律または自動運転車両であってもよい。代替的にまたは追加的に、車両および/または駆動装置は、半自律車両であってもよい。したがって、駆動装置は、高度運転者支援システムの制御装置とみなされてもよい。自動車標準化団体であるSAEインターナショナルによってJ3016_202104「自動車用運転自動化システムのレベル分類及び定義(Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles)」として2021年に発行された6つのレベルを有する分類システムに従って、自律車両は、レベル4またはレベル5とみなされてもよく、半自律または支援運転車両は、レベル1からレベル3とみなされてもよい。
車両は、任意の種類の自走式自動車とすることができ、好ましくは道路上を走行するように構成される。例えば、車両は、車両の車輪を駆動するためのエンジンおよび/または電気モータを備える。しかしながら、本発明は、地上を走行する車両に限定されない。車両は、ボートまたは船舶などの海上車両であり得る。概して、本発明は、障害物を回避しながら、ルート/車線においてリアルタイムにナビゲートされる必要がある車両に関する。
記憶装置は、所与の容量のメモリを提供するために複数のメモリ装置を介して実装できる1つ以上のメモリを含んでもよい。記憶装置は、ランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、スタティックRAM(SRAM)、または他のタイプの記憶装置など、1つ以上の揮発性記憶(またはメモリ)装置を含んでもよい。記憶装置はまた、ソリッドステート装置(SSD)を含んでもよい。しかしながら、他の実施形態では、記憶装置は、システムアクティビティの再開時に高速の電源投入が起こり得るように、電源切断事象中にコンテキスト状態および他のそのような情報の不揮発性記憶を可能にするSSDキャッシュとして機能する、より小さい容量のSSDストレージを備えた、または備えていないハードディスクドライブ(HDD)を含んでもよい。
記憶装置は、あらゆるタイプの情報または地図データを記憶するように構成することができる。地図データは、車両の周囲の地図を再構成することができるデータである。地図データは、周期的にまたは断続的に更新することができる。この目的のために、記憶装置は、ネットワークとの、ひいてはサーバとの、車両の外部にある他のタイプの記憶装置との、および/または他の車両との有線または無線通信を可能にする通信部に、電子的に接続または結合され得る。
通信部は、無線トランシーバおよび/またはネットワークインターフェースカード(NIC)を含むことができるネットワークインターフェース装置とみなされてもよい。無線トランシーバは、WiFiトランシーバ、赤外線トランシーバ、Bluetoothトランシーバ、WiMaxトランシーバ、無線携帯電話トランシーバ、もしくは他の無線周波数(RF)トランシーバ、またはそれらの組み合わせであってもよい。
位置特定装置は、車両の現在位置を判定するための衛星トランシーバ(例えば、全地球測位システム(GPS)トランシーバ)であってもよい。位置特定装置は、周囲の画像を分析し、画像をデータバンク画像と比較して、画像を撮影しているユーザの位置を判定するビジュアルポジショニングシステム(VPS)を含んでもよい。車両の現在位置は、位置特定装置によって車両の位置特定データとして処理される、および/または出力される。したがって、位置特定データに基づいて車両の現在位置を判定することができる。言い換えると、位置特定データは、車両の現在位置を示す情報を含む。
光学検知装置は、車両の周囲を感知および/または探査するために、可視波長範囲および/または無線周波波長範囲(RF)などの様々な波長範囲の電磁放射線を使用してもよい。光学検知装置ユニットは、単一の波長範囲または複数の波長範囲の電磁放射線を検出および/または放出するように構成されてもよい。光学検知装置は、光学的手段を使用して電磁放射線を検出および/または放出するためのセンサユニットであってもよい。
光学検知装置は、車両の周囲を3次元で判定することができるセンサを含んでもよい。光学検知装置は、複数のセンサによって生成されたデータを追加/コーミングすることによって視野を拡張するための複数のセンサを含んでもよい。例えば、光学検知装置は、モノカメラおよび/またはステレオカメラ、すなわち、車両の周囲のステレオ画像を得るために互いに間隔を空けた2つのカメラを含んでもよい。カメラは、スチルカメラおよび/またはビデオカメラであってもよい。カメラは、例えば、回転および/または傾斜プラットフォームにカメラを取り付けることによって、機械的に移動可能であってもよい。カメラは、画像データを生成することができる。
しかしながら、電磁波放射線を使用する他の撮像または走査技術が使用されてもよく、ひいては光学検知装置の一部を形成してもよい。光学検知装置は、代替的にまたは追加的に、レーダ装置および/または光検出・測距(LiDAR)装置を含んでもよい。LiDAR装置は、レーザを使用して車両の周囲の物体を感知し得る。LiDAR装置は、他のシステム構成要素の中でも特に、1つ以上のレーザ源、レーザスキャナ、および1つ以上の検出器を含むことができる。レーダ装置は、車両のローカル環境内の物体を感知するために無線信号を利用するシステムとすることができる。いくつかの実施形態では、レーダユニットは、物体を感知することに加えて、道路上の他の車両などの他の物体の速度および/または進行方向をさらに感知し得る。LiDAR装置および/またはレーダ装置は、幾何学的データを生成することができる。
地図ベースの走行可能道路検出部は、記憶装置および/または位置特定装置に電子的におよび/または通信可能に接続または結合される。地図ベースの走行可能道路検出部は、記憶装置から地図データを受信し、および/または位置特定装置から位置特定データを受信するように構成される。走行可能道路検出部、地図ベースの走行可能道路検出部、光学センサベースの走行可能道路検出部、および/または融合部は、以下に概説するタスクを実行するコンピュータまたはプロセッサの一部であってもよい。コンピュータは、以下に概説するタスクを実行するために必要なハードウェア(例えば、プロセッサ、メモリ、ストレージ)およびソフトウェア(例えば、オペレーティングシステム、プログラム)を含む。
地図ベースの走行可能道路検出部は、地図データおよび位置特定データに基づいて、車両の周囲を表すグリッドを生成、作成、および/または計算するように構成される。したがって、地図ベースの走行可能道路検出部は、地図データおよび位置特定データを処理する。位置特定データは、地図データによって表される地図内のどの点に車両が位置するかを示す。グリッドは、車両の周囲を示す。
グリッドは、複数のセルを有する、または複数のセルから構成される第1占有グリッドであってもよい。各セルは、車両の周囲のそれぞれの領域に対応する。グリッドの各セルは、セルによって表される領域が走行可能である可能性を示す第1信頼度に関連付けられている。信頼度は、信頼水準とみなされてもよい。グリッドと各セルに対するそれぞれの信頼度または信頼水準との組み合わせを第1占有グリッドとみなしてもよい。車両が移動している場合、車両の位置が変化して位置特定データが変化するので、地図ベースの走行可能道路検出部は、第1占有グリッドを更新する必要がある。
第1および第2占有グリッドは、車両の周囲の表現であり得、複数のセルを含むことができ、複数のセルの各々は、周囲環境が走行可能であることのそれぞれの信頼度に関連付けられている。したがって、信頼度は、グリッドのそれぞれのセルに対応する領域が占有されているかどうかの情報を含む。これは、実世界における領域が非占有であることが、この領域が走行可能であり得ることの前提条件だからである。信頼度は、最小値(例えば、0または0%)と最大値(例えば、1または100%)との間の値とすることができる。
各セルの信頼度が高いほど、グリッドのそれぞれのセルに対応する領域が走行可能である尤度が高くなる。例えば、信頼度0は、それぞれのセルに対応する領域が走行可能でないことを示し、信頼度1は、実世界のそれぞれの領域が確実に走行可能であることを示す。
光学センサベースの走行可能道路検出部は、走行可能道路検出部の一部であってもよく、画像データおよび/または幾何学的データを受信することができるように、光学検知装置に電子的におよび/または通信可能に接続または結合することができる。光学センサベースの走行可能道路検出部は、上述のようにコンピュータの一部であってもよい。光学センサベースの走行可能道路検出部は、画像データおよび/または幾何学的データに基づいて、車両の周囲を表すグリッドを生成、作成、および/または計算するように構成される。地図ベースの走行可能道路検出部によって生成されるグリッドと同様に、グリッドは、実世界の対応する領域を表す複数のセルを含む。グリッドの各セルは、セルによって表される領域が走行可能であるか否かを示す第2信頼度に関連付けられる。グリッドと各セルに対するそれぞれの信頼度との組み合わせを第2占有グリッドとみなしてもよい。
光学センサベースの走行可能道路検出部は、ディープラーニングソリューション(例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワーク(DNN)を使用する)を含んでもよい。ニューラルネットワークまたは人工知能(AI)は、画像データおよび/または幾何学的データに基づいて、走行可能道路または走行可能な車両の周囲の部分を識別するために使用される。光学センサベースの走行可能道路検出部は、道路上の他の車両または物体を識別するように構成されてもよい。光学センサベースの走行可能道路検出部のこれらの機能は、訓練されてもよい。
第2信頼度は、走行可能道路を識別するためのニューラルネットワークの特性または能力に基づいて計算されてもよいし、他の方法で生成されてもよい。例えば、車両が霧や画像データの品質を低下させる他の環境条件に囲まれているときなど、画像データが低品質であると認識される場合、光学センサベースの走行可能道路検出部は、それぞれのセルに対する信頼度を下げるように構成されている。しかしながら、走行可能道路の識別の信頼度を評価するための他の基準が適用されてもよい。
画像データおよび/または幾何学的データから生成されるグリッドは、複数のセルから構成されてもよい。各セルは、車両の周囲のそれぞれの領域に対応する。グリッドの各セルは、セルによって表される領域が走行可能である可能性を示す第2信頼度に(上述の方法によって)関連付けられている。グリッドと各セルに対するそれぞれの信頼度との組み合わせを第2占有グリッドとみなしてもよい。車両が移動している場合、車両の位置が変化して画像データおよび/または幾何学的データが変化するので、光学センサベースの走行可能道路検出部は、第2占有グリッドを更新する必要がある。
融合部は、走行可能道路検出部の一部であってもよく、第1占有グリッドおよび第2占有グリッドを受信するために、地図ベースの走行可能道路検出部および光学センサベースの走行可能道路検出部に電子的におよび/または通信可能に接続または結合されてもよい。融合部は、上述のコンピュータの一部または機能ユニットであってもよい。
融合部は、新たな第3占有グリッドを作成するために、第1占有グリッドと第2占有グリッドとを融合するように構成される。この融合プロセスは、第1占有グリッドおよび第2占有グリッドの処理に相当する。特に、第1占有グリッドの各セルの第1信頼度を、第2占有グリッドの対応するセルの第2信頼度と関連付けてから融合させることができる。しかしながら、融合ステップはこれに限定されない。第1占有グリッドの各セルの第1信頼度を、第2占有グリッドの複数の対応するセルの第2信頼度と関連付けてから融合させることができ、あるいはその逆も可能である。また、第1占有グリッドの複数のセルの第1信頼度または第1信頼水準を、第2占有グリッドの複数の対応するセルの第2信頼度または第2信頼水準と関連付けてから融合させることもできる。融合プロセスは、第1および第2占有グリッドの整列のための初期段階を有してもよい。例えば、占有グリッドを空間的に整列させることが有益であり得る。これについては、以下でより詳細に説明する。
第3信頼度または第3信頼水準は、第1信頼水準および第2信頼水準の(数学)関数とすることができる。第3信頼度は、このように、第1信頼度および第2信頼度の情報に基づく。融合プロセスは、各セルに対して個別に、または第1占有グリッドと第2占有グリッドとを結合/融合することによって行われてもよい。
第3占有グリッドは、このように、地図データおよび位置特定データに基づく情報、ならびに画像データおよび/または幾何学的データからの情報を含む。第3占有グリッドを生成するためにより多くの情報が使用されるので、走行可能道路の予測は、精度が高く正確である可能性がより高い。
制御部は、本発明に必須ではない。制御部は、車両を自律的または半自律的に運転するための公知の制御部によって実装することができる。本発明は、制御部が動作するために基づく情報/データを提供することにあるとみなすことができる。
制御部は、第3占有グリッドを受信するために、融合部に電子的におよび/または通信可能に接続または結合することができる。制御部は、上述のコンピュータの一部または機能ユニットであってもよい。制御部は、走行可能な道路上で車両を運転するためのステアリング装置、スロットル装置(加速装置ともいう)、およびブレーキ装置を制御するための信号を生成するように構成される。ステアリング装置、スロットル装置、およびブレーキ装置は、車両を(機械的に)ナビゲートするための制御装置の一部であってもよい。
ステアリング装置は、車両の向きまたは進行方向を調整するための車両の一部とすることができる。スロットル装置もまた、モータまたはエンジンの速度を制御し、ひいては車両の速度および加速度を制御するための車両の一部であってよい。ブレーキ装置は、車両の車輪またはタイヤの速度を緩めるための摩擦を提供することによって車両を減速させるための車両の一部とすることができる。ステアリング装置、スロットル装置、および破断装置は、制御部によって出力される信号に基づいて制御されてもよい。
制御部は、走行可能道路(第3占有グリッド)の情報に基づいて車両をナビゲートするためのアルゴリズムを実行してもよいし、かつ/またはそのようなニューラルネットワーク(AI)を含んでもよい。
駆動装置は、車両の一部であってもよく、それぞれ位置特定入力ポートおよび光入力ポートによって、位置特定装置および光学検知装置に電子的におよび/または通信可能に接続または結合される。言い換えると、位置特定装置は、位置特定入力ポートを介して駆動装置に入力される位置特定データを出力し、光学検知装置は、光入力ポートを介して駆動装置に入力される画像データおよび/または幾何学的データを出力する。地図ベースの走行可能道路検出部は、位置特定入力ポートに電子的に接続または結合される。光学センサベースの走行可能道路検出部は、光入力ポートに電子的におよび/または通信可能に接続または結合される。
任意選択の実施形態では、前記地図ベースの走行可能道路検出部は、前記位置特定データの位置特定精度および前記地図データの更新日に基づいて算出された前記第1信頼度を作成するように構成されている。任意選択で、前記光学センサベースの走行可能道路検出部は、前記画像データのセマンティックセグメンテーションの処理の不確実性に基づいて前記第2信頼度を作成するように構成されている。
地図ベースの走行可能道路検出部は、車両の位置特定の精度を判定するための機能を含んでもよい。例えば、GPS信号の信号強度、GPS信号が受信される衛星の数、および/または他の特性が、車両の位置特定または位置の精度を判定するために使用されてもよい。地図ベースの走行可能道路検出部は、GPSまたは全地球航法衛星システム(GNSS)を使用して判定された車両の位置に関する情報と慣性計測ユニット(IMU)からのデータとを結合して、位置特定データの精度を高めてもよい。地図ベースの走行可能道路検出部は、位置特定の精度に基づいて信頼度を算出または計算するための処理システムおよび/または機能を含んでもよい。例えば、地図ベースの走行可能道路検出部は、第1信頼度を位置特定精度に結び付ける(数学)関数を含む。
第1信頼度はまた、地図データの更新日に基づいてもよい。例えば、最終更新までの期間が長くなるほど、第1信頼度は小さくなり得る。言い換えると、地図のバージョンが古いほど、地図データが正確である可能性は低くなる。例えば、最終更新と第1信頼度の算出との間に経過した時間が長いほど、地図データが正確である可能性は低くなる。地図データが最新でない別の原因として、セマンティック情報、例えば、走行可能道路、舗装道路、線路などの別々のラベルが考えられる。したがって、第1信頼度は、地図データが最新である状態と比較して低くなる必要がある。例えば、地図ベースの走行可能道路検出部は、第1信頼度を地図データの最終更新から経過した期間に結び付ける(数学)関数を含む。
光学センサベースの走行可能道路検出部は、画像データおよび/または幾何学的データのセマンティックセグメンテーションの処理の不確実性を考慮して第2信頼度を決定するための機能を含んでもよい。例えば、光学センサベースの走行可能道路検出部は、画像データのセマンティックセグメンテーションの処理の不確実性に基づいて、第2信頼度を算出または計算する。光学センサベースの走行可能道路検出部は、第2信頼度を画像データのセマンティックセグメンテーションの処理の不確実性に結び付ける(数学)関数を含んでもよい。セマンティック情報は、走行可能道路、舗装道路、車両、および/または車両の周囲に関する他の情報を指し得る。
画像データのセマンティックセグメンテーションの処理の不確実性は、光学センサベースの走行可能道路検出部によって決定されてもよい。この目的のために、光学センサベースの走行可能道路検出部は、画像データのセマンティックセグメンテーションの処理の不確実性を示す統計または他のタイプの情報を含んでもよい。例えば、統計または他のタイプの情報は、処理の不確実性を決定することができる画像データのセマンティックセグメンテーションのプロセスをシミュレートすることによって収集され得る。
任意選択の実施形態では、前記第1占有グリッドの第1解像度は、前記第2占有グリッドの第2解像度とは異なり、任意選択で、前記融合部は、前記第1占有グリッドおよび前記第2占有グリッドのうちのより高い方の解像度と一致するように、前記第1占有グリッドまたは前記第2占有グリッドのうちのより低い方の前記解像度を修正するように構成されたグリッド解像度更新部をさらに含み、さらに任意選択で、前記融合部は、前記グリッド解像度更新部によって修正された前記第1占有グリッドと前記第2占有グリッドとを融合するように構成されている。
第1解像度は、地図データの粗さによって決定されてもよい。地図データの粗さがグリッドの解像度を決定する。例えば、各セルのサイズ(言い換えると、実世界で各セルがカバーする領域)に対応し得るグリッドの解像度は、単位領域当たりのデータ点の数によって決定され得る。
第2解像度は、光学検知装置の分解能によって決定されてもよい。例えば、光学センサ装置のカメラの画素分解能は、周囲の画像の解像度、したがって、画像データおよび/または幾何学的データの粗さを決定し得る。画像データおよび/または幾何学的データの粗さは、単位セルのサイズ、したがって、単位セルに対応する実世界の領域を決定し得る。言い換えると、1画素に対応する実世界の領域は、第2解像度に等しい。光学検知装置がLiDARまたはレーダを含む場合、光学検知装置の分解能にも同様の議論が適用される。
加えて、第2解像度は、実世界の物体のカメラからの距離によって決まる。物体がカメラから離れるほど、物体を撮像するのに必要な画素数は少なくなる。したがって、第2解像度は、車両の動きに起因して変化し得る。結果として、第1解像度は通常、第2解像度とは異なっている。
グリッド解像度更新部は、上述のコンピュータの一部または機能ユニットであってもよい。グリッド解像度更新部は、第1解像度を第2解像度に、または第2解像度を第1解像度に、調整もしくは一致させるために設けられてもよい。グリッド解像度更新部は、第1解像度および第2解像度のより低い解像度に変化させてもよい。
第1解像度または第2解像度の修正は、補間、平均化、および/またはグリッドの解像度を高めるための他の数学的方法によって行われてもよい。融合は、入力の離散ガウス平均化の適用からなる可能性がある。例えば、セルは、解像度を高めるために複数のサブセルに分割される。サブセルの数は、より高い解像度を有する占有グリッドのセルの数と一致するように選択される。サブセルの信頼度は、前のセルの値、隣接セル間の平均値を有してもよく、および/または、1つの隣接セルからサブセルへの、サブセル間の、およびサブセルから別の隣接セルへの円滑な遷移があるように補間される。信頼度を修正する方法の1つは、他のセルへのそれらの近接度に基づいており、例えば、結果として得られるセルの値は周囲のセルの値によって規定される。これが補間の例である。
融合部は、修正された解像度に基づいて第1および第2占有グリッドを融合してもよい。これにより、第1占有グリッドからの各セルを第2占有グリッドの対応するセルに一致させることが可能になる。
任意選択の実施形態では、前記第1占有グリッドの前記第1解像度は、前記第2占有グリッドの前記第2解像度よりも低く、任意選択で、前記グリッド解像度更新部は、前記第2占有グリッドの前記第2解像度と一致するように、前記第1占有グリッドの前記第1解像度を修正するように構成されている。
光学検知装置の解像度が高いため、地図データの粗さにより、第2占有グループと比較して第1占有グリッドの解像度はより低くなる。この場合、グリッド解像度更新部は、上述したように第1占有グリッドの解像度を上げる。このステップの後、第1占有グリッドの解像度は第2占有グリッドの解像度と一致する。したがって、融合部は、第1占有グリッドの各セルと第2占有グリッドの対応するセルとを融合させることができる。
グリッド解像度更新部は、第1占有グリッドの各セルが第2占有グリッドに同じサイズおよび/または位置を有する対応するセルを有するように、第1占有グリッドおよび第2占有グリッドを修正するように構成された部分として集約され得る。この目的のために、グリッド解像度更新部は、第1占有グリッドおよび/または第2占有グリッド内のセルを追加、削除、および/または分割してもよい。任意選択で、セルの削除は、より大きい寸法を有する占有グリッドの寸法を、より小さい寸法を有する占有グリッドに揃えるために行われる。例えば、第2占有グリッドは、光学検知装置が撮像することができる領域によって決定される寸法を含む。この領域は、通常、地図データによってカバーされる領域よりも小さい。したがって、グリッド解像度更新部は、第1占有グリッドが第2占有グリッドと一致するように、第1占有グリッドおよび/または地図データをクロップしてもよい。これは、第2占有グリッドに対応するセルを有さない第1占有グリッドからセルを削除することによって行われてもよい。
任意選択の実施形態では、前記第1信頼度および前記第2信頼度の欠損値は、前記第1信頼度および前記第2信頼度の最大値と、前記第1信頼度および前記第2信頼度の最小値との間に設定され、任意選択で、前記融合部は、前記第1欠損信頼値または前記第2欠損信頼値を前記最大値と前記最小値との間の所定値に設定するように構成された対処部をさらに含む。
地図データ、画像データおよび/または幾何学的データは、それぞれ、第1占有グリッドおよび第2占有グリッドを完全にカバーするために必要とされるであろう特定のデータ点が欠損している可能性がある。これらの欠損しているデータ点は、第1および/または第2信頼度の欠損値とみなすことができる。したがって、「欠損値」は、第1占有グリッドおよび/または第2占有グリッドの欠損しているエントリを指し得る。言い換えると、第1占有グリッドおよび/または第2占有グリッドのセルは、それぞれの信頼度に関連付けられないことがある。
代替的に、第1占有グリッドおよび第2占有グリッドは完全であるが、占有グリッドのいくつかのセルは信頼度が欠けていることがある。どちらの場合も、第1および第2信頼度の値は欠損している。これらの欠損値は、画像データ、幾何学的データおよび/または地図データを取得および/または処理する際の測定アーチファクトおよび/または他の矛盾に起因し得る。
対処部は、これらの欠損値を埋めてもよい。対処部は、上述のコンピュータの一部または機能ユニットであってもよい。対処部は、信頼度の最大値と最小値との間の欠損値を設定するように構成されてもよい。例えば、最大値および最小値は可能な信頼度範囲の境界を指し、最大値は1であり得、および/または最小値はゼロであり得る。最大値および最小値は、近くのグリッドの信頼度、または周囲のグリッドの信頼度の平均とすることが可能である。
対処部は、適応的に、すなわち状況に応じて、欠損値を設定するようにプログラムされてもよい。しかしながら、好ましい実施形態では、対処部は、第1および/または第2信頼度の欠損値を所定値に設定するように構成される。この所定値は、欠損している信頼度の通常値または期待値を考慮して、事前に設定されてもよい。対処部は、第1欠損信頼値のための所定値および第2欠損信頼値のための別の所定値を設定するように構成されてもよい。
任意選択の実施形態では、所定値は最大値と最小値との平均である。対処部は、欠損値を、最大値と最小値との平均である固定値、例えば0.5に設定してもよい。
任意選択の実施形態では、前記融合部は、前記第1信頼度と前記第2信頼度との平均を計算することによって前記第3占有グリッドを作成するように構成されている。
本実施形態では、第1占有グリッドと第2占有グリッドとの融合は、第1占有グリッドの特定のセルの信頼度および第2占有グリッドの対応するセルの信頼度の平均を算出することによって行われる。これは、(第3占有グリッドのセルに対応する)特定の実世界領域の第3の、すなわち融合された信頼度が、(第1占有グリッドの対応するセルに対応する)同じ実世界領域の第1信頼度および(第2占有グリッドの対応するセルに対応する)同じ実世界領域の第2信頼度の平均値であることを意味する。言い換えると、第3占有グリッドは、第1および第2の占有グループのそれぞれのセルの第1および第2信頼度をそれぞれ平均化することによって取得される。この融合方法は、計算労力をほとんど必要とせず、したがって、短期間で算出される。この融合アプローチは、決定論的であると考えてもよい。
代替的なおよび/または追加的な任意選択の実施形態では、前記融合部は、ベイズの規則を使用することによって前記第3占有グリッドを作成するように構成され、任意選択で、前記走行可能道路検出部は、前記第1占有グリッドとのマップマッチングアルゴリズムを使用することによって前記第2信頼度が真である尤度を計算するように構成された尤度計算部をさらに含む。この融合アプローチは確率論的であるとみなされてもよい。
ベイズの規則(あるいはベイズの法則またはベイズの定理)は、事象に関連し得る条件の予備知識に基づいて、事象の確率を表す。ここで、道路が走行可能である尤度p(Mx,y|AIx,y)は、地図データ(第1信頼度または第1信頼水準)に基づいて道路が走行可能である尤度p(Mx,y)と、画像データおよび/または幾何学的データ(第2信頼度または第2信頼水準)に基づいて道路が走行可能である尤度p(AIx,y)と、初期信念または第1信頼水準(尤度p(Mx,y))が与えられたときに第2信頼水準(尤度p(AIx,y))がどの程度真であるかの尤度p(AIx,y|Mx,y)とによって決まる。インデックスx,yは、第1占有グリッドのセルMおよび第2占有グリッドのセルAIの個別のセルインデックスを示す。詳細には、これらの尤度は以下の式によって結び付けられる。
尤度p(AIx,y|Mx,y)は、上述のコンピュータの一部または機能ユニットであり得る尤度計算部を使用して算出/計算される。尤度計算部は、ICP(Iterative Closest Point)やNDT(Normal Distributions Transform)などの周知のマップマッチングアルゴリズムを実行するように構成されてもよい。ICPは、2つの点群間の差を最小にするために用いられるアルゴリズムである。NDTでは、正規分布が各セルに割り当てられ、各セルは点を測定する確率を局所的にモデル化する。変換の結果は、区分的に連続した微分可能な確率密度である。ICPおよびNCPは当業者に公知であり、これらの変換技術のさらなる説明は実質的に無用である。尤度p(AIx,y|Mx,y)は、マップマッチング結果の不確実性に反比例する。不確実性は、マップマッチングアルゴリズムの共分散行列から推定され得る。
尤度p(AIx,y|Mx,y)は、上述のコンピュータの一部または機能ユニットであり得る尤度計算部を使用して算出/計算される。尤度計算部は、ICP(Iterative Closest Point)やNDT(Normal Distributions Transform)などの周知のマップマッチングアルゴリズムを実行するように構成されてもよい。ICPは、2つの点群間の差を最小にするために用いられるアルゴリズムである。NDTでは、正規分布が各セルに割り当てられ、各セルは点を測定する確率を局所的にモデル化する。変換の結果は、区分的に連続した微分可能な確率密度である。ICPおよびNCPは当業者に公知であり、これらの変換技術のさらなる説明は実質的に無用である。尤度p(AIx,y|Mx,y)は、マップマッチング結果の不確実性に反比例する。不確実性は、マップマッチングアルゴリズムの共分散行列から推定され得る。
記憶装置、位置特定装置、駆動部、走行可能道路検出部、地図ベースの走行可能道路検出部、光学センサベースの走行可能道路検出部、融合部、制御部、グリッド解像度更新部、対処部、および/または尤度計算部は、相互接続、ネットワーク、バス、および/またはこれらの組み合わせを介して、互いに通信可能におよび/または電子的に結合されてもよい。例えば、これらの構成要素は、コントローラエリアネットワーク(CAN)バスを介して互いに結合されてもよい。CANバスは、マイクロコントローラおよびデバイスがホストコンピュータなしでアプリケーションにおいて互いに通信することができるように設計された車両バス規格である。
自動モードおよび/または運転支援モードで車両を運転するためのコンピュータ実装された方法は、以下のステップを備える。
a)位置特定装置を使用して前記車両の位置特定データを生成するステップ、
b)光学検知装置を使用して前記車両の周囲の画像データおよび/または幾何学的データを生成するステップ、
c)走行可能道路検出部によって、記憶装置から地図データを受信し、前記位置特定装置から前記位置特定データを受信し、前記地図データおよび/または前記位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するステップ、
d)光学センサベースの走行可能道路検出部によって、前記光学検知装置から前記画像データおよび/または前記幾何学的データを受信し、前記画像データおよび/または前記幾何学的データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するステップ、および
e)融合部によって、前記第1占有グリッドと前記第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するステップ。
a)位置特定装置を使用して前記車両の位置特定データを生成するステップ、
b)光学検知装置を使用して前記車両の周囲の画像データおよび/または幾何学的データを生成するステップ、
c)走行可能道路検出部によって、記憶装置から地図データを受信し、前記位置特定装置から前記位置特定データを受信し、前記地図データおよび/または前記位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するステップ、
d)光学センサベースの走行可能道路検出部によって、前記光学検知装置から前記画像データおよび/または前記幾何学的データを受信し、前記画像データおよび/または前記幾何学的データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するステップ、および
e)融合部によって、前記第1占有グリッドと前記第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するステップ。
任意選択的に、本方法は、制御部によって、前記第3占有グリッドに基づいて、前記車両を運転するステップを追加的に含む。
駆動装置および車両に関する上記のコメント、注釈、および任意選択の実施形態は、自動モードおよび/または運転支援モードで車両を運転するためのコンピュータ実装された方法にも同様に適用される。本方法は、走行可能道路検出部、光学センサベースの走行可能道路検出部、融合部、および/または制御部の機能を実行するコンピュータによって実行されてもよい。
任意選択の実施形態では、前記第1占有グリッドを作成するステップは、前記位置特定データの位置特定精度および前記地図データの更新日に基づいて算出される前記第1信頼度を作成することを含み、任意選択で、前記第2占有グリッドを作成するステップは、前記画像データのセマンティックセグメンテーションの処理の不確実性に基づいて算出される前記第2信頼度を作成することを含む。
任意選択の実施形態では、前記第1占有グリッドの第1解像度は、前記第2占有グリッドの第2解像度とは異なり、任意選択で、前記第3占有グリッドを作成するステップは、グリッド解像度更新部を使用して、前記第1占有グリッドおよび前記第2占有グリッドのうちのより高い方の解像度と一致するように、前記第1占有グリッドまたは前記第2占有グリッドのうちのより低い方の前記解像度を修正することを含み、さらに任意選択で、前記第3占有グリッドを作成するステップは、前記グリッド解像度更新部によって修正された前記第1占有グリッドと前記第2占有グリッドとを融合することをさらに含む。
任意選択の実施形態では、前記第1占有グリッドの前記第1解像度は、前記第2占有グリッドの前記第2解像度よりも低く、任意選択で、前記第3占有グリッドを作成するステップは、前記第2占有グリッドの前記第2解像度と一致するように、前記第1占有グリッドの前記第1解像度を修正することを含む。
任意選択の実施形態では、第1および第2信頼度の欠損値が最大値と最小値との間に設定され、任意選択で、第3占有グリッドを作成するステップは、第1または第2欠損信頼値を、最大値と最小値との間の所定値に設定することをさらに含む。
任意選択の実施形態では、前記所定値は、前記最大値と前記最小値との平均である。
任意選択の実施形態では、前記第3占有グリッドを作成するステップは、前記第1信頼度と前記第2信頼度との平均を計算することによって前記第3占有グリッドを作成することをさらに含む。
任意選択の実施形態では、前記第3占有グリッドを作成するステップは、ベイズの規則を使用することによって前記第3占有グリッドを作成することをさらに含み、任意選択で、前記第1占有グリッドを作成するステップは、前記第1占有グリッドとのマップマッチングアルゴリズムを使用することによって前記第2信頼度が真である尤度を計算することをさらに含む。
本発明はさらに、プログラムがコンピュータによって実行されると、コンピュータに上述の方法のステップを実行させる命令を含むコンピュータプログラムに関する。
本発明はまた、コンピュータによって実行されると、コンピュータに上述の方法のステップを実行させる命令を含むコンピュータ可読記憶媒体に関する。
本発明の任意選択の実施形態を、添付の図面と併せて説明する。
図1は、ネットワーク16によってサーバ12および1つ以上の他の車両14に電子的に接続された車両10を示す。車両10は、任意の種類の自走式自動車とすることができ、好ましくは道路上を走行するように構成される。例えば、車両10は、車両10の車輪を駆動するためのエンジンおよび/または電気モータを備える。
サーバ12は、そのストレージへのアクセスを可能にするコンピュータまたはコンピュータシステムであってもよい。サーバ12は、車両10または他の車両14が走行することができる走行可能道路の地図を示す地図データを記憶してもよい。サーバ12は、地図データを更新するように構成することができる。地図データの更新は、外部入力によって達成することができ、および/またはサーバ12は、ネットワーク16を介して、車両10および/または他の車両14から更新された地図データを受信してもよい。
他の車両14は、車両10と同じ道路を走行してもよい。他の車両は、車両10と同じ型またはモデルであってもよいし、異なる型またはモデルであってもよい。ネットワーク16は、モバイル通信ネットワークおよび/または無線ローカルエリアネットワーク(WLAN)を含んでもよい。
車両10は、光学検知装置20、位置特定装置22、制御装置24、通信装置26、および/または駆動装置30を含む。光学検知装置20、位置特定装置22、制御装置24、通信装置26、および/または駆動装置30は、データまたは他のタイプの情報を交換するために、互いに通信可能におよび/または電子的に接続されている。
光学検知装置20は、1つ以上のカメラ、LiDAR装置、および/またはレーダ装置を含んでもよい。カメラはステレオカメラであってもよい。光学検知装置20は、車両10の周囲を撮像することができる。特に、光学検知装置20は、車両10の周囲の3D表現を提供するように構成される。光学検知装置20は、車両10の周囲を画像データおよび/または幾何学的データとして出力する。
位置特定装置22は、車両10の位置を判定するための装置であってもよい。位置特定装置22は、GPS(全地球測位システム)トランシーバとすることができる。位置特定装置22は、車両10の位置を位置特定データとして出力するように構成される。
制御装置24は、車両10を運転またはナビゲートするために制御される必要がある車両10の(機械的な)構成要素を含む。制御装置24は、車両10を走行可能な道路上で走行させるためのステアリング装置、スロットル装置(加速装置ともいう)、およびブレーキ装置を含んでもよい。
ステアリング装置は、車両10の向きまたは進行方向を調整するための車両10の一部とすることができる。スロットル装置もまた、モータまたはエンジンの速度を制御し、ひいては車両10の速度および加速度を制御するための車両10の一部であってよい。ブレーキ装置は、車両10の車輪またはタイヤの速度を緩めるための摩擦を提供することによって車両10を減速させるための車両10の一部とすることができる。ステアリング装置、スロットル装置、および破断装置は、制御部34によって出力される信号に基づいて制御されてもよい。
通信装置26は、ネットワーク16を介して車両10の通信を可能にする任意の構成要素であってよい。通信装置26は、ネットワーク16とデータを交換するための有線または無線トランシーバを含んでもよい。通信装置26は、車両10がサーバ12と通信することができるインターフェースとみなされてもよい。通信装置26はまた、他の車両14との直接的な通信を容易にし得る。
駆動装置30は、複数のプロセッサ(図示せず)と記憶装置33とを含むコンピュータまたはコンピュータシステムとみなすことができる。駆動装置30は、記憶装置33に記憶され得る複数のアルゴリズムを実行するように構成されている。駆動装置30によって処理される複数のアルゴリズムは、車両10を自律的および/または半自律的にナビゲートすることを可能にする。駆動装置30は、車両10のオートパイロットまたは運転支援システムとみなされてもよい。
この目的のために、駆動装置30は、走行可能道路検出部32および/または制御部34に関連付けることができる様々な機能を実行することができる。これらの部品の各々は、車両10の自律的および/または半自律的ナビゲーションを達成するために特定のアルゴリズムを実行する駆動装置30の一部または機能ユニットとみなすことができる。走行可能道路検出部32は、地図ベースの走行可能道路検出部32a、尤度計算部32b、光学センサベースの走行可能道路検出部32c、および/または融合部32dを含むことができる。したがって、部品32(特に、部品32a、32b、32c、および/または32d)、および/または34は、コンピュータソフトウェアまたはプログラムの実装とみなすことができる。
部品32、32a、32b、32c、32d、および/または34のためのアルゴリズムまたは命令は、記憶装置33に記憶することができる。駆動装置30は、位置特定入力ポート35を介して位置特定装置22から位置特定データを受信することができる。同様に、駆動装置30は、光入力ポート36を介して光学検知装置20から画像データおよび/または幾何学的データを受信することができる。位置特定入力ポート35および/または光入力ポート36は、それぞれ、駆動装置30と位置特定装置22および光学検知装置20との通信を可能にするインターフェースとみなすことができる。
地図ベースの走行可能道路検出部32aは、記憶装置33から地図データを受信し、位置特定入力ポート35を介して位置特定装置22から位置特定データを受信するように構成される。
地図ベースの走行可能道路検出部32aは、地図データおよび/または位置特定データに基づいて第1占有グリッドを作成するようにさらに構成される。第1占有グリッドは、車両10の周囲の表現であり、複数のセルを含み、複数のセルの各々は、周囲環境が走行可能であることの第1信頼度に関連付けられている。したがって、第1占有グリッドの各セルの第1信頼度は、第1占有グリッドのセルに対応する実世界の領域が走行可能である可能性を示す。第1信頼度は、尤度p(Mx,y)とみなすことができる。したがって、p(Mx,y)は、信頼度pを各セルMx,yに結び付ける関係やテーブルなどであり、x,yは、占有グリッドの個別のセルインデックスを示す。
地図ベースの走行可能道路検出部32aは、複数のセルMx,yを含むグリッドを生成し、各セルは、車両10の周囲の特定の領域に対応する。そして、地図ベースの走行可能道路検出部32aは、各セルMx,yと、それぞれのセルに対応する実世界の領域が走行可能であるか否かの可能性を示す信頼度pとを関連付ける。この関連付けは、第1占有グリッドp(Mx,y)をもたらす。
尤度p(Mx,y)は、位置特定装置22によって決定された位置特定データの位置特定精度および/または地図データの最終更新日に基づいて算出または決定される。位置特定データの位置特定精度が低いほど、特定のセルに対応する実世界の領域が走行可能である尤度p(Mx,y)が低くなる。同様に、地図データの最終更新がより過去に行われているほど、特定のセルに対応する実世界の領域が走行可能である尤度p(Mx,y)は小さくなる。一方では位置特定精度および/または最終更新時刻と、尤度p(Mx,y)との間の関係は、数学関数、テーブル、または記憶装置33内に記憶することができる任意の他のタイプの関係とすることができる。
光学センサベースの走行可能道路検出部32cは、位置特定入力ポート35を介して光学検知装置20から画像データおよび/または幾何学的データを受信するように構成される。光学センサベースの走行可能道路検出部32cは、画像データおよび/または幾何学的データに基づいて第2占有グリッドを作成するようにさらに構成される。第2占有グリッドは、車両10の周囲の表現であり、複数のセルを含み、複数のセルの各々は、周囲環境が走行可能であることの第2信頼度に関連付けられている。したがって、第2占有グリッドの各セルは、第2占有グリッドのセルに対応する実世界の領域が走行可能である可能性を示す。第2信頼度は、尤度p(AIx,y)とみなすことができる。したがって、p(AIx,y)は、信頼度pを各セルAIx,yに結び付ける関係やテーブルなどであり、x,yは、占有グリッドの個別のセルインデックスを示す。
光学センサベースの走行可能道路検出部32cは、このように複数のセルAIx,yを含むグリッドを生成し、各セルは、車両10の周囲の特定の領域に対応する。そして、光学センサベースの走行可能道路検出部32cは、各セルMx,yと、それぞれのセルに対応する実世界の領域が走行可能であるか否かの可能性を示す信頼度pとを関連付ける。この関連付けは、第2占有グリッドp(AIx,y)を与える。
尤度p(AIx,y)は、ニューラルネットワークまたは他の形態の人工知能(AI)を使用して、画像データおよび/または幾何学的データに基づいて算出または計算される。第2占有グリッドp(AIx,y)を決定するために、当業者に公知の技術を使用することができる。
尤度計算部32bは、ICP(Iterative Closest Point)やNDT(Normal Distributions Transform)などの周知のマップマッチングアルゴリズムを使用して、尤度p(AIx,y|Mx,y)を計算または算出する。尤度p(AIx,y|Mx,y)は、尤度p(Mx,y)を考慮して、観測値p(AIx,y)がどの程度真であるか、または可能性があるかを示す。尤度p(AIx,y|Mx,y)は、マップマッチング結果の不確実性に反比例する。不確実性は、マップマッチングアルゴリズムの共分散行列から推定され得る。
融合部32dは、第1占有グリッドと第2占有グリッドとを融合して、新たな第3占有グリッドを作成する。第3占有グリッドの各セルは、このセルに対応する実世界の領域が走行可能であるか否かの第3信頼度に関連付けられる。特に、融合部32dは、第1占有グループの各セルの第1信頼度を、第2占有グリッドの対応するセルの第2信頼度と融合する。
第3信頼度は、それぞれのセルに対応する実世界の領域が走行可能であるか否かの可能性を示す尤度p(p(AIx,y);p(Mx,y))である。尤度p(p(AIx,y);p(Mx,y))は、尤度p(Mx,y)、p(AIx,y)、および/またはp(AIx,y|Mx,y)によって決まる。
別の実施形態では、第3占有グリッドを作成するための第2占有グリッドにおける第1占有グループの融合は、以下の式を使用して行われる。
本実施形態では、尤度p(p(AIx,y);p(Mx,y))は、p(Mx,y)とp(AIx,y)との平均である。この場合、尤度p(AIx,y|Mx,y)は不要であり、尤度計算部32bは省略することができる。この式は、決定論的融合アプローチに相当する。
本実施形態では、尤度p(p(AIx,y);p(Mx,y))は、p(Mx,y)とp(AIx,y)との平均である。この場合、尤度p(AIx,y|Mx,y)は不要であり、尤度計算部32bは省略することができる。この式は、決定論的融合アプローチに相当する。
融合部32dは、グリッド解像度更新部32d1および/または対処部32d2を含んでもよい。グリッド解像度更新部32d1は、第1占有グリッドおよび第2占有グリッドの解像度が不一致である状況に対処する。これは、2つの占有グリッドの一方のセルが、2つの占有グリッドの他方に対応するセルを有さないことを意味する。言い換えると、実世界の特定の領域は、第1占有グリッドと第2占有グリッドとの両方に対応するセルを有さない。
これらの解像度の差は、画像データ、幾何学的データ、位置特定データ、および地図データの異なる粗さに基づき得る。この場合、第1占有グリッドの各セルと第2占有グリッドの対応するセルとを融合させることは不可能である。2つの占有グリッドの一方のセルの数を、2つの占有グリッドの他方のセルの数と揃えるために、より低い解像度(より少ない数のセル)を有する占有グリッドが、グリッド解像度更新部32d1によって処理される。特に、グリッド解像度更新部32d1は、セルをサブセルに分割して解像度を高める。サブセルの信頼度は、分割されたセルの信頼度に対応するように選択され得る。しかしながら、補間法または平均法を使用して、サブセルに信頼度を割り当ててもよい。融合部32dは、グリッド解像度更新部32d1によって更新された占有グリッドに基づいて、2つの占有グリッドを融合する。
対処部32d2は、第1占有グリッドおよび/または第2占有グリッドの特定のセルが対応する信頼度に帰属できない状況において機能する。この理由は、画像データ、幾何学的データ、地図データの決定におけるアーチファクトおよび/または第1および第2信頼度の処理における誤差であり得る。対処部32d2は、欠損している信頼度を、信頼度の最小値と最大値との間の所定値に設定する。任意選択の実施形態では、対処部32d2は、所定値を最大値と最小値との平均に設定する。最小値は、実世界の領域が走行可能でないことを示すゼロであってもよく、最大値は、実世界の領域が100%の信頼度で走行可能であることを示す1であってもよい。
制御部34は、車両10をナビゲートするための駆動信号を生成するために、公知のニューラルネットワークまたは他のタイプの公知の人工知能(AI)を含んでもよい。駆動システムは、自動運転および/または支援運転(半自動運転)のために使用されてもよい。制御部34は、駆動信号に基づいてステアリング装置、スロットル装置、および/またはブレーキ装置を制御する制御装置24に駆動信号を出力するための出力ポートを含むことができる。
車両10を自律的および/または半自律的にナビゲートする方法を図3と共に説明する。
第1のステップは、地図ベースの検出ステップである。車両10の前方の走行可能道路は、位置特定装置22(例えば、GPS)を使用した車両10の位置特定に関する情報と、記憶装置33から取得した地図データとを考慮して検出される。地図ベースの走行可能道路検出p(Mx,y)の信頼度は、位置特定精度および地図更新日の関数であり得る。結果として得られる走行可能道路は、所定の寸法および解像度を有する第1占有グリッドの形式で表される。第1占有グリッドの各セルは、周囲環境が走行可能である尤度を表す(例えば、0は走行不可能、0.5は50%の信頼度で走行可能、1は100%の信頼度で走行可能)。
第2のステップは、第1のステップと並行して実行され得るAIベースの検出ステップである。車両10の前方の走行可能道路は、光学検知装置20(例えば、カメラ)と、光学センサベースの走行可能道路検出部32cによって実行されるセマンティックセグメンテーションのためのAIとを用いて、リアルタイムで検出される。走行可能道路検出p(AIx,y)の信頼度は、AIの不確実性(例えば、ベイジアンニューラルネットワーク)の関数である。結果として得られる走行可能道路は、所定の寸法および解像度を有する第2占有グリッドの形式で表される。第2占有グリッドの各セルは、周囲環境が走行可能である尤度を表す(0は走行不可能、0.5は50%の信頼度で走行可能、1は100%の信頼度で走行可能)。
第3のステップは、グリッド寸法および解像度更新ステップである。第1占有グリッドと第2占有グリッドとを融合できるようにするために、占有グリッドの寸法および解像度が同じであることを確実にする必要がある。より低い解像度の占有グリッドは、より高い解像度の占有グリッドのメートル当たりのセルの数に一致するように修正される(例えば、補間を使用して)。より大きい寸法を有する占有グリッドは、より小さい寸法を有する占有グリッドに一致するようにクロップされてもよい。これは、グリッド解像度更新部32d1によって実行される。さらに、対処部32d2は、必要に応じて、第1占有グリッドおよび/または第2占有グリッドの欠損している信頼度を埋める。
第4のステップは、AIが真である尤度のステップである。AIの走行可能道路検出p(AIx,y)が真である尤度p(AIx,y|Mx,y)は、ICPおよびNDTのような周知のマップマッチングアルゴリズムアプローチを用いて、地図ベースの検出p(Mx,y)を考慮して算出される。尤度p(AIx,y|Mx,y)は、マップマッチングアルゴリズムの出力のうちの1つであるマッチング誤差に反比例する。これは、尤度計算部32bによって実行される。
第5のステップは、最終結果ステップである。ベイズの規則を用いた走行道路検出の新たな信念p(Mx,y|AIx,y)の場合の融合プロセスの最終的な出力。これは確率論的融合アプローチである。より単純な代替手段は、地図ベースのp(Mx,y)検出とAIベースのp(AIx,y)検出との平均信頼度を計算することによって融合することであろう。これは決定論的融合アプローチである。
図3の車両10を自律的におよび/または半自律的にナビゲートするための方法を、図4a~図4cと併せてより詳細に説明する。
図4aは、上述の第2のステップを説明する。まず、画像データおよび/または幾何学的データが光学検知装置20から受信される。画像データおよび/または幾何学的データは、車両10の周囲の3次元画像を生成することを可能にするデータである。車両10の周囲の画像データまたは3次元画像は、次に、車両10の座標系のような共通座標系に投影される。光学検知装置20が画像データおよび/または幾何学的データを生成する複数の光学センサ(例えば、ステレオカメラおよびLiDAR装置)を含む場合、それぞれの光学センサの画像データおよび/または幾何学的データは、コメント座標系における車両10の周囲の共通の3次元表現に融合される。この目的のために、異なるタイプの画像データおよび/または幾何学的データが、補間、平均化、および/または他のタイプの融合技術を使用して融合され、その結果、共通座標系における融合された画像データおよび/または幾何学的データは、同じ解像度および寸法を有する。
次のステップでは、融合された画像データおよび/または幾何学的データは、事前訓練済みのニューラルネットワークを使用して、走行可能な道路区間および走行不可能な道路区間にセグメント化される。これにより、各区間は、各区間が走行可能であるか否かの可能性を示す推定信頼度に関連付けられる。これは、共通座標系において行われる。
その後、解像度Mを有する第2占有グリッドが作成され、これは、セルに対応する道路の区間が走行可能であるか否かの信頼度または尤度にそれぞれ関連付けられた複数のセルを含む。
別の任意選択のステップでは、ニューラルネットワークを訓練するために、全てのセンサからの融合された画像データおよび/または幾何学的データを収集してもよい。走行可能な道路区間はそれに応じてラベル付けされ、ニューラルネットワークの訓練セッションに供給されて、共通座標系におけるセンサデータから走行可能な道路区間をセグメント化する。
図4bは、上述の第1のステップを説明する。まず、位置特定データが位置特定装置22から受信される。位置特定データは、世界座標系にあり、すなわち、共通座標系にはない。同時に、記憶装置33にアクセスして地図データを受信する。地図データもまた、世界座標系にあり、すなわち、共通座標系にはない。
任意選択のオフラインプロセスでは、関心領域の衛星画像が見つけられ、これらの衛星画像は、実世界座標とそれぞれ位置合わせされる。次に、ジオタグ付きの地図データベースを作成するために、詳細な道路網が衛星画像に描かれる。
位置特定データは、地図データベース内の最も近いウェイポイントまたはノードを見つけるために使用される。これは、依然として世界座標で行われる。選択されたノードに基づいて、ノードの前方(すなわち、車両10の前方)の領域内の走行可能道路が抽出され、走行可能道路の各区間に信頼度が割り当てられる。このステップは依然として世界座標で行われるので、次のステップとして、走行可能道路は共通座標系、すなわち車両座標系に投影される。投影された走行可能路に基づいて、解像度Nを有する第2占有グリッドが作成される。
図4cは、上述の第3~第5のステップを説明する。第1のステップでは、解像度Nを有する第1占有グリッドおよび解像度Mを有する第2占有グリッドが、道路が走行可能であることが関連付けられた信頼度または尤度を有さないセルを含むかどうかがチェックされる。そうである場合、欠損している信頼度は、最小値と最大値との間の平均、例えば0.5であるように割り当てられ得る。加えて、第1占有グリッドと第2占有グリッドの解像度および寸法が一致するかどうかがチェックされる。そうでない場合、より高い解像度および/またはより大きい寸法を有する占有グリッドの解像度および/または寸法がクロップされる。代替的にまたは追加的に、より低い解像度を有する占有グリッドの解像度は、セルをサブセルに分割することによって高められる。サブセルの信頼度は、分割されたセルの信頼度および/または分割されたセルに隣接するセルの信頼度を参照して設定される。
その後、第1占有グリッドと第2占有グリッドとを融合させることによって、新たな第3占有グリッドが作成される。第3占有グループの各セルは、それぞれの第1信頼度とそれぞれの第2信頼度とを融合することによって作成される第3信頼度を有する。融合方法は、上述されている。第3占有グリッドは、第1解像度Nおよび第2解像度Mの最大値である解像度を有する。
最終的な任意選択のステップにおいて、車両10は、第3占有グリッドに基づいてナビゲートされる。
Claims (15)
- 車両(10)の自動運転および/または支援運転のための駆動装置であって、
地図データを記憶するように構成された記憶装置(33)と、
前記車両(10)の位置特定データを受信するように構成された位置特定入力ポート(35)と、
前記車両(10)の周囲を示す画像データおよび/または幾何学的データを受信するように構成された光入力ポート(36)と、
地図ベースの走行可能道路検出部(32a)を含む走行可能道路検出部(32)であって、前記地図ベースの走行可能道路検出部(32a)は、前記記憶装置(33)から前記地図データを受信し、前記位置特定入力ポート(35)から前記位置特定データを受信するように構成され、かつ前記地図データおよび/または前記位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するように構成されている、走行可能道路検出部(32)と、を備え、
前記走行可能道路検出部(32)は、光学センサベースの走行可能道路検出部(32c)をさらに含み、前記光学センサベースの走行可能道路検出部(32c)は、前記光入力ポート(36)から前記画像データおよび/または前記幾何学的データを受信するように構成され、かつ前記画像データおよび/または前記幾何学的データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するように構成され、
前記走行可能道路検出部(32)は、前記第1占有グリッドと前記第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するように構成された融合部(32d)を含み、
前記駆動装置(30)は、前記第3占有グリッドに基づいて、自動運転および/または支援運転のための駆動信号を生成するように構成された制御部(34)を含み、前記駆動信号は前記車両(10)に出力される、駆動装置。 - 車両であって、
地図データを記憶するように構成された記憶装置(33)と、
前記車両(10)の位置特定データを出力するように構成された位置特定装置(22)と、
前記車両(10)の周囲を示す画像データおよび/または幾何学的データを出力するように構成された光学検知装置(20)と、
地図ベースの走行可能道路検出部(32a)を含む走行可能道路検出部(32)であって、前記地図ベースの走行可能道路検出部(32a)は、前記記憶装置(33)から前記地図データを受信し、前記位置特定装置(22)から前記位置特定データを受信するように構成され、かつ前記地図データおよび/または前記位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するように構成されている、走行可能道路検出部(32)と、を備え、
前記走行可能道路検出部(32)は、光学センサベースの走行可能道路検出部(32c)をさらに含み、前記光学センサベースの走行可能道路検出部(32c)は、前記光学検知装置(20)から前記画像データおよび/または前記幾何学的データを受信するように構成され、かつ前記画像データおよび/または前記幾何学的データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するように構成され、
前記走行可能道路検出部(32)は、前記第1占有グリッドと前記第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するように構成された融合部(32d)を含み、
前記車両(10)は、前記第3占有グリッドに基づいて、自動運転モードおよび/または支援運転モードで前記車両(10)を運転するように構成された制御部(34)を含む、車両。 - 前記地図ベースの走行可能道路検出部(32a)は、前記位置特定データの位置特定精度および前記地図データの更新日に基づいて算出された前記第1信頼度を作成するように構成され、
前記光学センサベースの走行可能道路検出部(32c)は、前記画像データのセマンティックセグメンテーションの処理の不確実性に基づいて前記第2信頼度を作成するように構成されている、請求項1または2に記載の駆動装置または車両。 - 前記第1占有グリッドの第1解像度は、前記第2占有グリッドの第2解像度とは異なり、
前記融合部(32d)は、前記第1占有グリッドおよび前記第2占有グリッドのうちのより高い方の解像度と一致するように、前記第1占有グリッドまたは前記第2占有グリッドのうちのより低い方の前記解像度を修正するように構成されたグリッド解像度更新部(32d1)をさらに含み、
前記融合部(32d)は、前記グリッド解像度更新部(32d1)によって修正された前記第1占有グリッドと前記第2占有グリッドとを融合するように構成されている、請求項1から3のいずれか一項に記載の駆動装置または車両。 - 前記第1占有グリッドの前記第1解像度は、前記第2占有グリッドの前記第2解像度よりも低く、
前記グリッド解像度更新部(32d1)は、前記第2占有グリッドの前記第2解像度と一致するように、前記第1占有グリッドの前記第1解像度を修正するように構成されている、請求項4に記載の駆動装置または車両。 - 前記第1信頼度および前記第2信頼度の欠損値は、前記第1信頼度および前記第2信頼度の最大値と、前記第1信頼度および前記第2信頼度の最小値との間に設定され、
前記融合部(32d)は、前記第1欠損信頼値または前記第2欠損信頼値を前記最大値と前記最小値との間の所定値に設定するように構成された対処部(32d2)をさらに含む、請求項1から5のいずれか一項に記載の駆動装置または車両。 - 前記所定値は、前記最大値と前記最小値との平均である、請求項6に記載の駆動装置または車両。
- 前記融合部(32d)は、前記第1信頼度と前記第2信頼度との平均を計算することによって前記第3占有グリッドを作成するように構成されている、請求項1から7のいずれか一項に記載の駆動装置または車両。
- 前記融合部(32d)は、ベイズの規則を使用することによって前記第3占有グリッドを作成するように構成され、
前記走行可能道路検出部(32)は、前記第1占有グリッドとのマップマッチングアルゴリズムを使用することによって前記第2信頼度が真である尤度を計算するように構成された尤度計算部(32b)をさらに含む、請求項1から7のいずれか一項に記載の駆動装置または車両。 - 自動モードおよび/または運転支援モードで車両(10)を運転するためのコンピュータ実装された方法であって、
位置特定装置(22)を使用して前記車両(10)の位置特定データを生成するステップと、
光学検知装置(20)を使用して前記車両(10)の周囲を示す画像データおよび/または幾何学的データを生成するステップと、
記憶装置(33)から地図データを受信し、前記位置特定装置から前記位置特定データを受信し、前記地図データおよび/または前記位置特定データに基づいて、周囲環境が走行可能であることの第1信頼度を各セルが表す第1占有グリッドを作成するステップと、
前記光学検知装置(20)から前記画像データおよび/または前記幾何学的データを受信し、前記画像データおよび/または前記幾何学的データに基づいて、周囲環境が走行可能であることの第2信頼度を各セルが表す第2占有グリッドを作成するステップと、
前記第1占有グリッドと前記第2占有グリッドとを融合することによって、周囲環境が走行可能であることの第3信頼度を各セルが表す第3占有グリッドを作成するステップと、
前記第3占有グリッドに基づいて、前記車両(10)を運転するステップと、を備える、方法。 - 前記第1占有グリッドを作成するステップは、前記位置特定データの位置特定精度および前記地図データの更新日に基づいて算出される前記第1信頼度を作成することを含み、
前記第2占有グリッドを作成するステップは、前記画像データのセマンティックセグメンテーションの処理の不確実性に基づいて算出される前記第2信頼度を作成することを含む、請求項10に記載の方法。 - 前記第1占有グリッドの第1解像度は、前記第2占有グリッドの第2解像度とは異なり、
前記第3占有グリッドを作成するステップは、グリッド解像度更新部(32d1)を使用して、前記第1占有グリッドおよび前記第2占有グリッドのうちのより高い方の解像度と一致するように、前記第1占有グリッドまたは前記第2占有グリッドのうちのより低い方の前記解像度を修正することを含み、
前記第3占有グリッドを作成するステップは、前記グリッド解像度更新部(32d1)によって修正された前記第1占有グリッドと前記第2占有グリッドとを融合することをさらに含む、請求項10または11に記載の方法。 - 前記第1占有グリッドの前記第1解像度は、前記第2占有グリッドの前記第2解像度よりも低く、
前記第3占有グリッドを作成するステップは、前記第2占有グリッドの前記第2解像度と一致するように、前記第1占有グリッドの前記第1解像度を修正することを含む、請求項12に記載の方法。 - 前記第3占有グリッドを作成するステップは、前記第1信頼度と前記第2信頼度との平均を計算することによって前記第3占有グリッドを作成することをさらに含む、請求項10から13のいずれか一項に記載の方法。
- 前記第3占有グリッドを作成するステップは、ベイズの規則を使用することによって前記第3占有グリッドを作成することをさらに含み、
前記第1占有グリッドを作成するステップは、前記第1占有グリッドとのマップマッチングアルゴリズムを使用することによって前記第2信頼度が真である尤度を計算することをさらに含む、請求項10から13のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21386049.7A EP4134623A1 (en) | 2021-08-11 | 2021-08-11 | Drive device, vehicle, and method for automated driving and/or assisted driving |
EP21386049.7 | 2021-08-11 | ||
PCT/JP2022/006807 WO2023017625A1 (en) | 2021-08-11 | 2022-02-21 | Drive device, vehicle, and method for automated driving and/or assisted driving |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024527491A true JP2024527491A (ja) | 2024-07-25 |
Family
ID=77627079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023577492A Pending JP2024527491A (ja) | 2021-08-11 | 2022-02-21 | 自動運転および/または支援運転のための駆動装置、車両、および方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240265713A1 (ja) |
EP (1) | EP4134623A1 (ja) |
JP (1) | JP2024527491A (ja) |
DE (1) | DE112022002046T5 (ja) |
WO (1) | WO2023017625A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116804560B (zh) * | 2023-08-23 | 2023-11-03 | 四川交通职业技术学院 | 一种管制路段下无人驾驶汽车安全导航方法及装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3795299B2 (ja) * | 2000-04-07 | 2006-07-12 | 本田技研工業株式会社 | 車両制御装置 |
JP4819166B2 (ja) * | 2010-01-25 | 2011-11-24 | 富士通テン株式会社 | 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置 |
KR101610502B1 (ko) | 2014-09-02 | 2016-04-07 | 현대자동차주식회사 | 자율주행차량의 주행환경 인식장치 및 방법 |
JP6579699B2 (ja) * | 2015-07-29 | 2019-09-25 | 株式会社Subaru | 車両の走行制御装置 |
JP6055525B1 (ja) * | 2015-09-02 | 2016-12-27 | 富士重工業株式会社 | 車両の走行制御装置 |
EP3232285B1 (en) | 2016-04-14 | 2019-12-18 | Volvo Car Corporation | Method and arrangement for monitoring and adapting the performance of a fusion system of an autonomous vehicle |
US10296795B2 (en) * | 2017-06-26 | 2019-05-21 | Here Global B.V. | Method, apparatus, and system for estimating a quality of lane features of a roadway |
US10520319B2 (en) | 2017-09-13 | 2019-12-31 | Baidu Usa Llc | Data driven map updating system for autonomous driving vehicles |
WO2019241022A1 (en) | 2018-06-13 | 2019-12-19 | Nvidia Corporation | Path detection for autonomous machines using deep neural networks |
IT201800006594A1 (it) * | 2018-06-22 | 2019-12-22 | "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico" | |
US10762360B2 (en) | 2018-11-19 | 2020-09-01 | Waymo Llc | Automatically detecting unmapped drivable road surfaces for autonomous vehicles |
JP7199937B2 (ja) * | 2018-11-28 | 2023-01-06 | フォルシアクラリオン・エレクトロニクス株式会社 | 駐車支援装置 |
CN111307166B (zh) | 2018-12-11 | 2023-10-03 | 北京图森智途科技有限公司 | 一种构建占据栅格地图的方法及其装置、处理设备 |
EP3882885A4 (en) * | 2019-03-12 | 2022-11-23 | Hitachi Astemo, Ltd. | VEHICLE CONTROL DEVICE |
CN112172810A (zh) * | 2019-06-18 | 2021-01-05 | 广州汽车集团股份有限公司 | 车道保持装置、方法、系统及汽车 |
CN114667437A (zh) * | 2019-08-31 | 2022-06-24 | 辉达公司 | 用于自主驾驶应用的地图创建和定位 |
-
2021
- 2021-08-11 EP EP21386049.7A patent/EP4134623A1/en active Pending
-
2022
- 2022-02-21 JP JP2023577492A patent/JP2024527491A/ja active Pending
- 2022-02-21 WO PCT/JP2022/006807 patent/WO2023017625A1/en active Application Filing
- 2022-02-21 US US18/567,536 patent/US20240265713A1/en active Pending
- 2022-02-21 DE DE112022002046.6T patent/DE112022002046T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023017625A1 (en) | 2023-02-16 |
EP4134623A1 (en) | 2023-02-15 |
DE112022002046T5 (de) | 2024-04-04 |
US20240265713A1 (en) | 2024-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11126187B2 (en) | Systems and methods for controlling the operation of a vehicle | |
US11250576B2 (en) | Systems and methods for estimating dynamics of objects using temporal changes encoded in a difference map | |
EP3745158B1 (en) | Methods and systems for computer-based determining of presence of dynamic objects | |
EP3517893A1 (en) | Path and speed optimization fallback mechanism for autonomous vehicles | |
US10553117B1 (en) | System and method for determining lane occupancy of surrounding vehicles | |
US20200020117A1 (en) | Pose estimation | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
RU2750243C2 (ru) | Способ и система для формирования траектории для беспилотного автомобиля (sdc) | |
US10974730B2 (en) | Vehicle perception system on-line diangostics and prognostics | |
RU2767949C2 (ru) | Способ (варианты) и система для калибровки нескольких лидарных датчиков | |
US20200320339A1 (en) | System and method for merging clusters | |
CN116051779A (zh) | 用于自主系统和应用的使用深度神经网络利用点云致密化的3d表面重建 | |
US20240037961A1 (en) | Systems and methods for detecting lanes using a segmented image and semantic context | |
CN116048060A (zh) | 用于自主系统和应用的使用神经网络基于真实世界数据的3d表面结构估计 | |
US11210941B2 (en) | Systems and methods for mitigating anomalies in lane change detection | |
CN116051780A (zh) | 用于自主系统和应用的使用人工智能利用点云致密化的3d表面重建 | |
US20220284623A1 (en) | Framework For 3D Object Detection And Depth Prediction From 2D Images | |
Gao et al. | Autonomous driving of vehicles based on artificial intelligence | |
WO2023017625A1 (en) | Drive device, vehicle, and method for automated driving and/or assisted driving | |
US11760384B2 (en) | Methods and systems for determining trajectory estimation order for vehicles | |
JP2023066377A (ja) | 自律システム及びアプリケーションのための人工知能を使用した点群高密度化を有する3d表面再構成 | |
Salzmann et al. | Online Path Generation from Sensor Data for Highly Automated Driving Functions | |
US11544899B2 (en) | System and method for generating terrain maps | |
WO2023017624A1 (en) | Drive device, vehicle, and method for automated driving and/or assisted driving | |
US20230351679A1 (en) | System and method for optimizing a bounding box using an iterative closest point algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231214 |