JP2023146579A - Map generation device - Google Patents
Map generation device Download PDFInfo
- Publication number
- JP2023146579A JP2023146579A JP2022053817A JP2022053817A JP2023146579A JP 2023146579 A JP2023146579 A JP 2023146579A JP 2022053817 A JP2022053817 A JP 2022053817A JP 2022053817 A JP2022053817 A JP 2022053817A JP 2023146579 A JP2023146579 A JP 2023146579A
- Authority
- JP
- Japan
- Prior art keywords
- map
- vehicle
- lane
- detected
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims description 17
- 230000007613 environmental effect Effects 0.000 description 28
- 238000000034 method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 23
- 238000005192 partition Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
Abstract
Description
本発明は、走行中に得られた外界状況を示すデータに基づき地図を生成する地図生成装置に関する。 The present invention relates to a map generation device that generates a map based on data indicating external conditions obtained while driving.
この種の装置として、従来、車両に搭載されたカメラにより撮像された画像を利用して道路の区画線を認識するとともに車線変更を検出し、これにより自車両が走行していない車線を推定し、地図データを更新するようにした装置が知られている(例えば上記特許文献1参照)。特許文献1記載の装置では、カメラ画像内における道路区画線の位置する領域が左右方向に徐々に移動すると、車線変更を検出する。 Conventionally, this type of device uses images captured by a camera mounted on a vehicle to recognize road markings and detect lane changes, thereby estimating the lane in which the vehicle is not driving. 2. Description of the Related Art A device that updates map data is known (for example, see Patent Document 1 mentioned above). The device described in Patent Document 1 detects a lane change when the area where the road marking line is located in the camera image gradually moves in the left-right direction.
しかしながら、上記特許文献1記載の装置では、車線変更の検出のために道路区画線が連続的に検出される必要がある。このため、区画線が途中で途切れているような場合には車線変更を検出することができず、区画線の位置情報を含む地図を精度よく生成することが難しい。 However, in the device described in Patent Document 1, road marking lines need to be detected continuously in order to detect a lane change. Therefore, if the lane markings are interrupted in the middle, a lane change cannot be detected, and it is difficult to accurately generate a map that includes positional information of the lane markings.
本発明の一態様である地図生成装置は、自車両の周囲の外界状況を検出する外界検出部と、外界検出部により検出された外界状況の情報に基づいて、自車両の走行車線を規定する区画線の位置情報を含む地図を生成する地図生成部と、第1時点で外界検出部により検出された外界状況の情報に基づいて、第1時点よりも後の第2時点に外界検出部により検出されると予測される区画線の位置を推定する区画線推定部と、区画線推定部により推定された区画線の位置と、第2時点に外界検出部により検出された区画線の位置との差異に基づいて、自車両の車線変更の有無を判定する判定部と、を備える。地図生成部は、判定部による判定結果に基づいて地図を生成する。 A map generation device that is one aspect of the present invention includes an external world detection unit that detects the external environment surrounding the host vehicle, and defines a driving lane for the host vehicle based on information about the external world situation detected by the external world detection unit. a map generation unit that generates a map including position information of the lane markings; and a map generation unit that generates a map that includes position information of the lane markings; a parking line estimating unit that estimates the position of the parking line that is predicted to be detected; the position of the parking line estimated by the parking line estimating unit; and the position of the partition line detected by the external world detection unit at a second time point; and a determination unit that determines whether or not the host vehicle changes lanes based on the difference between the two. The map generation section generates a map based on the determination result by the determination section.
本発明によれば、区画線が途中で途切れているような場合であっても、区画線の位置情報を含む地図を精度よく生成することができる。 According to the present invention, even in a case where the lane markings are interrupted in the middle, it is possible to accurately generate a map including positional information of the lane markings.
以下、図1~図6を参照して本発明の実施形態について説明する。本発明の実施形態に係る地図生成装置は、例えば自動運転機能を有する車両(自動運転車両)が走行するときに用いられる地図(後述する環境地図)を生成するように構成される。なお、本実施形態に係る地図生成装置が設けられる車両を、他車両と区別して自車両と呼ぶことがある。 Embodiments of the present invention will be described below with reference to FIGS. 1 to 6. A map generation device according to an embodiment of the present invention is configured to generate a map (environmental map described below) used when, for example, a vehicle having an automatic driving function (automatic driving vehicle) travels. Note that the vehicle provided with the map generation device according to this embodiment may be referred to as the own vehicle to distinguish it from other vehicles.
地図生成装置による地図の生成は、ドライバが自車両を手動で運転するときに実行される。したがって、地図生成装置は、自動運転機能を有しない車両(手動運転車両)に設けることができる。なお、地図生成装置は、手動運転車両だけでなく、ドライバによる運転操作が不要な自動運転モードからドライバの運転操作が必要な手動運転モードへの切換が可能な自動運転車両に設けることもできる。以下では、自動運転車両に地図生成装置が設けられるものとして地図生成装置に関する説明を行う。 The map generation device generates a map when the driver manually drives the vehicle. Therefore, the map generation device can be provided in a vehicle (manually driven vehicle) that does not have an automatic driving function. Note that the map generation device can be provided not only in manually driven vehicles but also in automatic driving vehicles that can switch from an automatic driving mode that does not require a driver's driving operation to a manual driving mode that requires a driver's driving operation. In the following, a map generation device will be described assuming that the map generation device is installed in an automatic driving vehicle.
まず、自動運転車両の構成について説明する。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。図1は、本発明の実施形態に係る地図生成装置を有する車両制御システム100の全体構成を概略的に示すブロック図である。
First, the configuration of the automated driving vehicle will be explained. The host vehicle may be an engine vehicle having an internal combustion engine as a driving source, an electric vehicle having a traveling motor as a driving source, or a hybrid vehicle having an engine and a driving motor as a driving source. FIG. 1 is a block diagram schematically showing the overall configuration of a
図1に示すように、車両制御システム100は、コントローラ10と、CAN通信線等を介してコントローラ10にそれぞれ通信可能に接続された外部センサ群1と、内部センサ群2と、入出力装置3と、測位ユニット4と、地図データベース5と、ナビゲーション装置6と、通信ユニット7と、走行用のアクチュエータACとを主に有する。
As shown in FIG. 1, the
外部センサ群1は、自車両の周辺情報である外部状況を検出する複数のセンサ(外部センサ)の総称である。例えば外部センサ群1には、レーザ光を照射して反射光を検出することで自車両の周辺の物体の位置(自車両からの距離や方向)を検出するライダ、電磁波を照射し反射波を検出することで自車両の周辺の物体の位置を検出するレーダ、CCDやCMOS等の撮像素子を有し、自車両の周辺(前方、後方および側方)を撮像するカメラなどが含まれる。 The external sensor group 1 is a general term for a plurality of sensors (external sensors) that detect external conditions that are information around the own vehicle. For example, external sensor group 1 includes a lidar that detects the position (distance and direction from the own vehicle) of objects around the own vehicle by emitting laser light and detecting reflected light, and a lidar that detects the position (distance and direction from the own vehicle) of objects around the own vehicle by emitting laser light and detecting reflected light. These include a radar that detects the position of objects around the vehicle, and a camera that has an imaging device such as a CCD or CMOS and captures images of the surroundings of the vehicle (front, rear, and sides).
内部センサ群2は、自車両の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群2には、自車両の車速を検出する車速センサ、自車両の前後方向および左右方向の加速度を検出する加速度センサ、走行駆動源の回転数を検出する回転数センサなどが含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群2に含まれる。
The
入出力装置3は、ドライバから指令が入力されたり、ドライバに対し情報が出力されたりする装置の総称である。例えば入出力装置3には、操作部材の操作によりドライバが各種指令を入力する各種スイッチ、ドライバが音声で指令を入力するマイク、ドライバに表示画像を介して情報を提供するディスプレイ、ドライバに音声で情報を提供するスピーカなどが含まれる。 The input/output device 3 is a general term for devices through which commands are input from the driver and information is output to the driver. For example, the input/output device 3 includes various switches through which the driver inputs various commands by operating operating members, a microphone through which the driver inputs commands by voice, a display which provides information to the driver via displayed images, and a display that provides information to the driver via a displayed image. This includes speakers that provide information.
測位ユニット(GNSSユニット)4は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位センサを内部センサ群2に含めることもできる。測位衛星は、GPS衛星や準天頂衛星などの人工衛星である。測位ユニット4は、測位センサが受信した測位情報を利用して、自車両の現在位置(緯度、経度、高度)を測定する。
The positioning unit (GNSS unit) 4 has a positioning sensor that receives positioning signals transmitted from positioning satellites. A positioning sensor can also be included in the
地図データベース5は、ナビゲーション装置6に用いられる一般的な地図情報を記憶する装置であり、例えばハードディスクや半導体素子により構成される。地図情報には、道路の位置情報、道路形状(曲率など)の情報、交差点や分岐点の位置情報が含まれる。なお、地図データベース5に記憶される地図情報は、コントローラ10の記憶部12に記憶される高精度な地図情報とは異なる。
The
ナビゲーション装置6は、ドライバにより入力された目的地までの道路上の目標経路を探索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置3を介して行われる。目標経路は、測位ユニット4により測定された自車両の現在位置と、地図データベース5に記憶された地図情報とに基づいて演算される。外部センサ群1の検出値を用いて自車両の現在位置を測定することもでき、この現在位置と記憶部12に記憶された高精度な地図情報とに基づいて目標経路を演算するようにしてもよい。
The navigation device 6 is a device that searches for a target route on a road to a destination input by the driver and provides guidance along the target route. Input of the destination and guidance along the target route are performed via the input/output device 3. The target route is calculated based on the current position of the own vehicle measured by the
通信ユニット7は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報などを定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、地図データベース5や記憶部12に出力され、地図情報が更新される。通信ユニット7を介して他車両と通信することもできる。
The communication unit 7 communicates with various servers (not shown) via networks including wireless communication networks such as the Internet and mobile phone networks, and periodically or arbitrarily transmits map information, driving history information, traffic information, etc. Obtained from the server at the timing of Networks include not only public wireless communication networks but also closed communication networks established for each predetermined management area, such as wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), and the like. The acquired map information is output to the
アクチュエータACは、自車両の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。 Actuator AC is a travel actuator for controlling travel of the own vehicle. When the traveling driving source is an engine, the actuator AC includes a throttle actuator that adjusts the opening degree of a throttle valve of the engine (throttle opening degree). When the travel drive source is a travel motor, the travel motor is included in the actuator AC. The actuator AC also includes a brake actuator that operates the braking device of the host vehicle and a steering actuator that drives the steering device.
コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図1では、便宜上、これらECUの集合としてコントローラ10が示される。
The
記憶部12には、高精度の道路地図情報が記憶される。この道路地図情報には、道路の位置情報、道路形状(曲率など)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸などの路面プロファイルの情報が含まれる。記憶部12に記憶される地図情報には、通信ユニット7を介して取得した自車両の外部から取得した地図情報と、外部センサ群1の検出値あるいは外部センサ群1と内部センサ群2との検出値を用いて自車両自体で作成される地図情報とが含まれる。記憶部12には、地図情報に対応付けて、外部センサ群1と内部センサ群2の検出値からなる走行履歴情報も記憶される。
The
演算部11は、機能的構成として、自車位置認識部13と、外界認識部14と、行動計画生成部15と、走行制御部16と、地図生成部17とを有する。
The
自車位置認識部13は、測位ユニット4で得られた自車両の位置情報および地図データベース5の地図情報に基づいて、地図上の自車両の位置(自車位置)を認識する。記憶部12に記憶された地図情報と、外部センサ群1が検出した自車両の周辺情報とを用いて自車位置を認識してもよく、これにより自車位置を高精度に認識することができる。なお、道路上や道路脇の外部に設置されたセンサで自車位置を測定可能であるとき、そのセンサと通信ユニット7を介して通信することにより、自車位置を認識することもできる。
The own vehicle
外界認識部14は、ライダ、レーダ、カメラ等の外部センサ群1からの信号に基づいて自車両の周囲の外部状況を認識する。例えば自車両の周辺を走行する周辺車両(前方車両や後方車両)の位置や速度や加速度、自車両の周囲に停車または駐車している周辺車両の位置、および他の物体の位置や状態などを認識する。他の物体には、標識、信号機、道路の区画線や停止線等の標示、建物、ガードレール、電柱、看板、歩行者、自転車等が含まれる。他の物体の状態には、信号機の色(赤、青、黄)、歩行者や自転車の移動速度や向きなどが含まれる。
The external
行動計画生成部15は、例えばナビゲーション装置6で演算された目標経路と、記憶部12に記憶された地図情報と、自車位置認識部13で認識された自車位置と、外界認識部14で認識された外部状況とに基づいて、現時点から所定時間先までの自車両の走行軌道(目標軌道)を生成する。目標経路上に目標軌道の候補となる複数の軌道が存在するときには、行動計画生成部15は、その中から法令を順守し、かつ効率よく安全に走行する等の基準を満たす最適な軌道を選択し、選択した軌道を目標軌道とする。そして、行動計画生成部15は、生成した目標軌道に応じた行動計画を生成する。行動計画生成部15は、先行車両を追い越すための追い越し走行、走行車線を変更する車線変更走行、先行車両に追従する追従走行、走行車線を逸脱しないように車線を維持するレーンキープ走行、減速走行または加速走行等に対応した種々の行動計画を生成する。行動計画生成部15は、目標軌道を生成する際に、まず走行態様を決定し、走行態様に基づいて目標軌道を生成する。
The action
走行制御部16は、自動運転モードにおいて、行動計画生成部15で生成された目標軌道に沿って自車両が走行するように各アクチュエータACを制御する。より具体的には、走行制御部16は、自動運転モードにおいて道路勾配などにより定まる走行抵抗を考慮して、行動計画生成部15で算出された単位時間毎の目標加速度を得るための要求駆動力を算出する。そして、例えば内部センサ群2により検出された実加速度が目標加速度となるようにアクチュエータACをフィードバック制御する。すなわち、自車両が目標車速および目標加速度で走行するようにアクチュエータACを制御する。なお、運転モードが手動運転モードであるとき、走行制御部16は、内部センサ群2により取得されたドライバからの走行指令(ステアリング操作等)に応じて各アクチュエータACを制御する。
The
地図生成部17は、手動運転モードで走行しながら、外部センサ群1により検出された検出値を用いて、3次元の点群データからなる環境地図を生成する。具体的には、カメラにより取得されたカメラ画像から、画素ごとの輝度や色の情報に基づいて物体の輪郭を示すエッジを抽出するとともに、そのエッジ情報を用いて特徴点を抽出する。特徴点は例えばエッジ上の点やエッジの交点であり、路面上の区画線、建物の角、道路標識の角などに対応する。地図生成部17は、抽出された特徴点までの距離を求めて、特徴点を順次、環境地図上にプロットし、これにより自車両が走行した道路周辺の環境地図が生成される。カメラに代えて、レーダやライダにより取得されたデータを用いて自車両の周囲の物体の特徴点を抽出し、環境地図を生成するようにしてもよい。
The
自車位置認識部13は、地図生成部17による地図生成処理と並行して、自車両の位置推定処理を行う。すなわち、特徴点の時間経過に伴う位置の変化に基づいて、自車両の位置を推定する。地図作成処理と位置推定処理とは、例えばカメラやライダからの信号を用いてSLAM(Simultaneous Localization and Mapping)のアルゴリズムにしたがって同時に行われる。地図生成部17は、手動運転モードで走行するときだけでなく、自動運転モードで走行するときにも同様に環境地図を生成することができる。既に環境地図が生成されて記憶部12に記憶されている場合、地図生成部17は、新たに得られた特徴点により環境地図を更新してもよい。
The own vehicle
次に、本実施形態に係る地図生成装置、すなわち車両制御システム100の地図生成装置としての構成について説明する。図2は、本実施形態に係る地図生成装置が適用される道路200の一例を示す図である。図2には、自車両101が車線変更する例が示される。すなわち、自車両101は、左右の区画線201,202によって規定される第1車線LN1から、矢印Aに示すように、左右の区画線202,203によって規定される第2車線LN2に車線変更する。自車両101は、第1時点t1で第1車線LN1を走行し(状態B1)、その後、第2時点t2で第2車線LN2を走行する(状態B2)。
Next, a description will be given of the map generation device according to this embodiment, that is, the configuration of the
自車両101の前部にはカメラ1aが搭載される。カメラ1aは、所定の視野角θによって定まる、カメラ1aを中心とした略扇形の撮影領域ARを撮影可能である。第1時点t1における自車両101の撮影領域ARには区画線201,202が含まれ、第2時点t2における撮影領域ARには区画線202,203が含まれる。したがって、カメラ画像からエッジ点を抽出することにより、第1時点t1で区画線201,202を、第2時点t2で区画線202,203をそれぞれ検出することができる。このようにカメラ画像によって検出された区画線(厳密には区画線に対応した特徴点)を時系列に沿って順次接続することで、区画線201~203を含む地図を生成することができる。
A
しかしながら、第1車線LN1から第2車線LN2への車線変更時に、図2に示すように区画線202が途切れていると、区画線202を連続して検出できないことがある。区画線202が途切れていなくても、カメラ1aの視野を遮るような障害物(例えば他車両)が存在する場合や、天候の影響などによってカメラ1aの検知精度が低下する場合においても、区画線202を検出できないことがある。その結果、第1時点t1で検出された区画線201と第2時点t2で検出された区画線202、および第1時点t1で検出された区画線202と第2時点t2で検出された区画線203とがそれぞれ接続され、誤った地図が生成されるおそれがある。そこで、車線変更があった場合においても正確に地図を生成することができるよう、本実施形態は以下のように地図生成装置を構成する。
However, when changing lanes from the first lane LN1 to the second lane LN2, if the
図3は、本実施形態に係る地図生成装置20の要部構成を示すブロック図である。地図生成装置20は、図1の車両制御システム100に含まれる。図3に示すように、地図生成装置20は、カメラ1aと、センサ2aと、コントローラ10とを有する。
FIG. 3 is a block diagram showing the main configuration of the
カメラ1aは、CCDやCMOS等の撮像素子(イメージセンサ)を有する単眼カメラであり、図1の外部センサ群1の一部を構成する。カメラ1aはステレオカメラであってもよい。カメラ1aは、図2に示すように自車両101の前部の所定位置に取り付けられ、自車両101の前方空間を連続的に撮像し、対象物の画像(カメラ画像)を取得する。対象物には、道路上の区画線201~203が含まれる。なお、カメラ1aに代えて、あるいはカメラ1aとともに、ライダなどにより対象物を検出するようにしてもよい。
The
センサ2aは、自車両101の移動量と移動方向とを算出するために用いられる検出器である。センサ2aは、内部センサ群2の一部であり、例えば車速センサとヨーレートセンサとにより構成される。すなわち、コントローラ10(自車位置認識部13)は、車速センサにより検出された車速を積分して自車両101の移動量を算出するとともに、ヨーレートセンサにより検出されたヨーレートを積分してヨー角を算出し、地図を作成する際にオドメトリにより自車両101の位置を推定する。なお、センサ2aの構成はこれに限らず、他のセンサの情報を用いて自車位置を推定するようにしてもよい。
The sensor 2a is a detector used to calculate the amount and direction of movement of the
図3のコントローラ10は、演算部11(図1)が担う機能的構成として、記憶部12と地図生成部17の他に、区画線推定部21と、判定部22と、を有する。なお、区画線推定部21および判定部22は、地図生成の機能も有するため、これらを地図生成部17に含めることもできる。
The
記憶部12には、地図情報が記憶される。記憶される地図情報には、通信ユニット7を介して自車両101の外部から取得した地図情報(外部地図情報と呼ぶ)と、自車両自体で作成される地図情報(内部地図情報と呼ぶ)とが含まれる。外部地図情報は、例えばクラウドサーバを介して取得した地図(クラウド地図と呼ぶ)の情報であり、内部地図情報は、例えばSLAM等の技術を用いてマッピングにより生成される点群データからなる地図(環境地図と呼ぶ)の情報である。外部地図情報は、自車両101と他車両とで共有されるのに対し、内部地図情報は、自車両101の独自の地図情報(例えば自車両が単独で有する地図情報)である。記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等についての情報も記憶される。
The
区画線推定部21は、過去時点(または現在時点)で取得されたカメラ画像に基づいて、現在時点(または将来時点)でカメラ1aにより検出されると予測される区画線の位置を推定する。具体的には、過去時点(例えば図2の第1時点t1)で取得されたカメラ画像から、カメラ画像に含まれる区画線201,202に対応した特徴点を抽出し、特徴点を通るような近似曲線を算出する。過去時点のみでなく、過去時点以前の特徴点から、例えば過去時点以前の数フレーム分の特徴点から、近似曲線を算出してもよい。図4は、近似曲線L1,L2の一例を示す図である。図中、横軸および縦軸は、任意の地点を座標原点としたときの特徴点PのX座標およびY座標である。X座標およびY座標は、路面上にとった座標である。特徴点Pは、左右一対の区画線の一方(例えば左方)に対応した特徴点群P1(左特徴点群と呼ぶ)と、他方(例えば右方)に対応した特徴点群P2(右特徴点群と呼ぶ)とに分けられる。
The marking line estimating unit 21 estimates the position of the marking line that is predicted to be detected by the
近似曲線L1,L2は、例えば第1時点t1で検出された複数の特徴点Pを通るような多項式、すなわちY座標の値がX座標の値の関数となるような多項式によって表される。なお、車両進行方向に沿って特徴点を順次滑らかに接続して得られた曲線を、車両進行方向に沿って滑らかに延長することにより、近似曲線L1,L2を算出することもできる。近似曲線L1,L2は、特徴点Pを含む点線領域Ra内では、カメラ画像により検出された区画線201,202に一致ないしほぼ一致する。算出された近似曲線L1,L2は、記憶部12に記憶される。
The approximate curves L1 and L2 are expressed, for example, by polynomials that pass through the plurality of feature points P detected at the first time point t1, that is, polynomials such that the value of the Y coordinate is a function of the value of the X coordinate. Note that the approximate curves L1 and L2 can also be calculated by smoothly extending curves obtained by sequentially and smoothly connecting feature points along the vehicle traveling direction. The approximate curves L1 and L2 match or almost match the
自車両101の移動に伴い、区画線に対応した新たな特徴点Pが検出されると、区画線推定部21は、新たな特徴点Pを用いて近似曲線L1,L2を算出する。これにより、時間経過に伴い近似曲線L1,L2が随時更新される。連続する複数の時点(tn,tn-1,tn-2,・・・)でそれぞれ算出された近似曲線を平均化することにより、時点tnにおける代表的な近似曲線を求め、これを記憶部12に記憶するようにしてもよい。
When a new feature point P corresponding to a marking line is detected as the
区画線が途切れている等の理由により、区画線に対応した新たな特徴点が検出されないとき、近似曲線L1,L2は更新されない。したがって、図2に示すように、区画線202が検出されない地点で自車両101が第1車線LN1から第2車線LN2に車線変更したとき、車線変更の直後(第2時点t2)には、車線変更の直前(第1時点t1)に算出された近似曲線L1,L2(区画線201,202に対応する近似曲線)が記憶部12に記憶されたままである。現在時点から所定時間前に算出された近似曲線L1,L2を、記憶部12に記憶するようにしてもよい。自車両101の現在位置よりも所定距離手前の地点で算出された近似曲線L1,L2を、記憶部12に記憶するようにしてもよい。換言すると、現在時点から所定時間経過後(例えば数秒程度経過後)に、記憶部12に記憶された近似曲線L1,L2を更新するようにしてもよく、現在位置から所定距離進んだ後(例えば数m程度進んだ後)、記憶部12に記憶された近似曲線L1,L2を更新するようにしてもよい。
If a new feature point corresponding to the partition line is not detected due to a break in the partition line, etc., the approximate curves L1 and L2 are not updated. Therefore, as shown in FIG. 2, when the
判定部22は、区画線推定部21により推定され、記憶部12に記憶された近似曲線L1,L2の位置と、現在時点でカメラ画像により検出された区画線に対応する特徴点の位置との差異を算出する。そして、差異の大きさに基づいて自車両101の車線変更の有無を判定する。図5A~図5Cは、それぞれ過去時点に算出された近似曲線L1,L2と、現在時点で検出された特徴点Pとの関係の一例を示す図である。すなわち、過去時点で図4に示すように特徴点Pに基づき近似曲線L1,L2が算出された後、区画線に対応する特徴点が一時的に検出されなくなり、記憶部12に過去時点で算出された近似曲線L1,L2が記憶されたままの状態で、現時点で再び特徴点Pが検出された場合の例である。
The determining
図5Aでは、そのa部拡大図に示すように、左側の区画線に対応する近似曲線L1と左特徴点群P1との差異(例えばY座標の差異Δy1)が所定値Δy1a以下である。なお、右側の区画線に対応する近似曲線L2と右特徴点群P2との差異Δyも所定値Δy1a以下である。所定値Δy1aは、車線幅の1/2倍以下の値(例えば1m程度)に設定される。このように互いに左右方向同一側の近似曲線L1と左特徴点群P1との差異Δy1が所定値Δy1a以下であるとき、判定部22は、過去時点から現時点までの間に自車両101が車線変更していない、つまり車線維持と判定する。
In FIG. 5A, as shown in the enlarged view of part a, the difference between the approximate curve L1 corresponding to the left partition line and the left feature point group P1 (for example, the difference in Y coordinate Δy1) is less than the predetermined value Δy1a. Note that the difference Δy between the approximate curve L2 corresponding to the right partition line and the right feature point group P2 is also less than the predetermined value Δy1a. The predetermined value Δy1a is set to a value less than or equal to 1/2 the lane width (for example, about 1 m). In this way, when the difference Δy1 between the approximate curve L1 and the left feature point group P1, which are on the same side in the left-right direction, is less than or equal to the predetermined value Δy1a, the
図5Bでは、そのa部拡大図に示すように、右側の区画線に対応する近似曲線L2と左特徴点群P1との差異Δy2が所定値Δy2a以下である。所定値Δy2aは、所定値Δy1aと異なる値または同一の値であり、車線幅の1/2倍以下の値に設定される。このように右側の近似曲線L2と左側の特徴点群P1との差異Δy2が所定値Δy2a以下であるとき、判定部22は、自車両101が右側車線に車線変更したと判定する。一方、図5Cでは、そのa部拡大図に示すように、左側の区画線に対応する近似曲線L1と右特徴点群P2との差異Δy3が所定値Δy3a以下である。所定値Δy3aは例えば所定値Δy2aと同一の値であり、車線幅の1/2倍以下の値に設定される。このように左側の近似曲線L1と右側の特徴点群P2との差異Δy3が所定値Δy3a以下であるとき、判定部22は、自車両101が左側車線に車線変更したと判定する。
In FIG. 5B, as shown in the enlarged view of part a, the difference Δy2 between the approximate curve L2 corresponding to the right partition line and the left feature point group P1 is less than or equal to the predetermined value Δy2a. The predetermined value Δy2a is a value different from or the same as the predetermined value Δy1a, and is set to a value equal to or less than half the lane width. In this manner, when the difference Δy2 between the right-hand approximate curve L2 and the left-hand feature point group P1 is less than or equal to the predetermined value Δy2a, the
なお、図5A~図5Cにおいて、判定部22が、近似曲線L1,L2と特徴点群P1,P2とのY座標の差異Δy1,Δy2,Δy3がそれぞれ所定値Δy1a,Δy2a,Δy3a以下であるか否かを判定する代わりに、近似曲線L1,L2から特徴点群P1,P2までの最短距離が所定値以下であるか否かを判定するようにしてもよい。そして、その判定結果に応じて、車線維持、右側車線へ車線変更または左側車線へ車線変更したと判定するようにしてもよい。
In addition, in FIGS. 5A to 5C, the
地図生成部17は、判定部22による判定結果に基づいて、区画線が認識されなかった地点の環境地図を生成する。すなわち、判定部22により自車両101が車線変更していないと判定されると(図5A)、過去時点でカメラ画像により認識された自車両101の左右の区画線と、現時点でカメラ画像により認識された自車両101の左右の区画線とを接続する。
The
一方、判定部22により自車両101が右側に車線変更したと判定されると(図5B)、過去時点でカメラ画像により認識された自車両101の右側の区画線と、現時点でカメラ画像により認識された自車両101の左側の区画線とを接続する。判定部22により自車両101が左側に車線変更したと判定されると(図5C)、過去時点でカメラ画像により認識された自車両101の左側の区画線と、現時点でカメラ画像により認識された自車両101の右側の区画線とを接続する。これにより車線の位置を特定することができる。位置が特定された車線は、地図情報の一部として記憶部12に記憶される。
On the other hand, when the
図6は、予め定められたプログラムに従い図3のコントローラ10で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば環境地図を生成するために自車両101が手動運転モードで走行しているときに開始され、所定周期で繰り返される。
FIG. 6 is a flowchart showing an example of a process executed by the
図6に示すように、まず、ステップS1で、カメラ1aとセンサ2aとからの信号を読み込む。次いで、ステップS2で、カメラ画像に基づき、自車両101の走行車線(自車線)を規定する左右一対の区画線が検出されているか否かを判定する。ステップS2で否定されるとステップS9に進み、フラグを1に設定する。なお、フラグは、初期状態では0であり、左右の区画線の少なくとも一方が検出されないとき、1に設定される。次いで、ステップS8で環境地図を生成し、記憶部12に記憶する。この場合には、自車線が特定されていない状態の環境地図の情報が記憶される。
As shown in FIG. 6, first, in step S1, signals from the
ステップS2で肯定されるとステップS3に進み、フラグが1であるか否かを判定する。すなわち、区画線が再び検出されるようになった直後であるか否かを判定する。ステップS3で否定されるとステップS10に進み、ステップS2で検出された区画線、より厳密には区画線に対応した複数の特徴点に基づき、複数の特徴点を通るような左右一対の近似曲線L1,L2を算出する。次いで、ステップS8で環境地図を生成し、記憶部12に記憶する。この状態では、左右の区画線が検出され続けており、自車線の位置情報を含む地図情報が記憶される。このように左右の区画線が検出され続けている状態においては、自車両101が区画線をまたいだか否かを判定することにより、自車両101の車線変更の有無を判定することができる。ステップS8では、ステップS10で算出した近似曲線L1,L2も併せて記憶する。
If the result in step S2 is affirmative, the process proceeds to step S3, where it is determined whether the flag is 1 or not. That is, it is determined whether or not the marking line has just started to be detected again. If the result in step S3 is negative, the process proceeds to step S10, where a pair of left and right approximate curves are created that pass through the plurality of feature points based on the marking line detected in step S2, more precisely, the plurality of feature points corresponding to the marking line. Calculate L1 and L2. Next, in step S8, an environmental map is generated and stored in the
ステップS3で肯定されると、すなわち区画線が再び検出されるようになった直後であると判定されると、ステップS4に進み、記憶部12に記憶された左側の近似曲線L1と、ステップS2で検出された左特徴点群P1との差異Δy1が所定値Δy1a以下であるか否かを判定する。ステップS4で肯定されるとステップS11に進み、車線維持と判定し、ステップS8に進む。ステップS8では、過去時点で検出された左右の区画線、すなわちステップS10からステップS8への処理で記憶された区画線と、現在時点(ステップS2)で検出された左右の区画線とを互いに接続するような地図を生成し、記憶部12に記憶する。すなわち、区画線が未検出である領域において、その前後の区画線を互いに接続するような地図を生成する。これにより、車線の位置情報を含めた環境地図を生成することができる。
If the determination in step S3 is affirmative, that is, if it is determined that the marking line has just started to be detected again, the process proceeds to step S4, and the left approximate curve L1 stored in the
一方、ステップS4で否定されるとステップS5に進み、記憶部12に記憶された右側の近似曲線L2と、ステップS2で検出された左特徴点群P1との差異Δy2が所定値Δy2a以下であるか否かを判定する。ステップS5で肯定されるとステップS12に進み、自車両101が右側に車線変更したと判定し、ステップS8に進む。ステップS8では、過去時点で検出された右側の区画線、すなわちステップS10からステップS8への処理で記憶された左右の区画線のうち右側の区画線と、現在時点(ステップS2)で検出された左側の区画線とを互いに接続するような地図を生成し、記憶部12に記憶する。これにより車線変更時に区画線が明確に検出されない場合であっても、車線の位置情報を含めた環境地図を生成することができる。
On the other hand, if the result in step S4 is negative, the process proceeds to step S5, where the difference Δy2 between the right approximate curve L2 stored in the
一方、ステップS5で否定されるとステップS6に進み、記憶部12に記憶された左側の近似曲線L1と、ステップS2で検出された右特徴点群P2との差異Δy3が所定値Δy3a以下であるか否かを判定する。ステップS6で肯定されるとステップS7に進み、自車両101が左側に車線変更したと判定し、ステップS8に進む。ステップS8では、過去時点で検出された左側の区画線、すなわちステップS10からステップS8への処理で記憶された左右の区画線のうち左側の区画線と、現在時点(ステップS2)で検出された右側の区画線とを互いに接続するような地図を生成し、記憶部12に記憶する。これにより左右いずれの車線変更の場合であっても、車線の位置情報を含めた環境地図を生成することができる。
On the other hand, if the result in step S5 is negative, the process proceeds to step S6, where the difference Δy3 between the left approximate curve L1 stored in the
ステップS6で否定されるとステップS8に進む。この場合、車線変更の有無が未確定である。したがって、区画線が未検出である領域での区画線の接続は行わずに地図を生成し、記憶部12に記憶する。その後、繰り返しの処理で車線変更の有無が確定されると、区画線が未検出の領域で区画線の接続が行われ、地図情報が更新される。
If the result in step S6 is negative, the process advances to step S8. In this case, whether or not to change lanes is undetermined. Therefore, a map is generated without connecting the lane markings in areas where lane markings have not been detected, and is stored in the
本実施形態に係る地図生成装置50の動作をより具体的に説明する。自車両101が手動運転モードで走行しながら、カメラ画像に基づいて自車両101の周囲の環境地図が生成される。この環境地図には、自車線を規定する左右一対の区画線の位置情報が含まれる。図2に示すように自車両101が第1車線LN1から第2車線LN2に車線変更した場合、車線変更前(第1時点t1)の左右の区画線201、202と、車線変更後(第2時点t2)の左右の区画線202,203とが、仮に検出され続けていれば、カメラ画像に基づき自車両101が区画線202をまたいだことを検出することによって、自車両101が車線変更したと判断できる。その結果、車線の位置情報を含む地図情報を生成することができる。このとき、カメラ画像により検出された最新の特徴点を用いて、区画線に沿った近似曲線L1,L2が随時算出され、記憶部12に記憶される(ステップS10→ステップS8)。
The operation of the map generation device 50 according to this embodiment will be explained in more detail. While the
これに対し、図2に示すように、自車両101が第1車線LN1から第2車線LN2へ車線変更したときに、区画線202をまたいだことが検出されないと、近似曲線を用いて車線変更の有無が判定される。すなわち、この場合には、第1時点t1に算出された区画線202に沿った右側の近似曲線L2と、第2時点t2に検出された左特徴点P1との差異Δy2が所定値Δy2a以下となり、これにより右側車線への車線変更が判定される(ステップS12)。その結果、車線変更前の右側の区画線202と車線変更後の右側の区画線203とが誤って接続されることを防止することができる。このため、同一の区画線同士を接続した正確な環境地図を生成することができる。
On the other hand, as shown in FIG. 2, when the
本実施形態によれば以下のような作用効果を奏することができる。
(1)地図生成装置20は、自車両101の周囲の外界状況を検出するカメラ1aと、カメラ1aにより検出された外界状況の情報に基づいて、自車両101の走行車線を規定する区画線201~203の位置情報を含む地図を生成する地図生成部17と、第1時点t1でカメラ1aにより検出された外界状況の情報に基づいて、第1時点t1よりも後の第2時点t2にカメラ1aにより検出されると予測される区画線201~203の位置、すなわち近似曲線L1,L2を推定する区画線推定部21と、区画線推定部21により推定された区画線の位置と、第2時点t2にカメラにより検出された区画線の位置との差異に基づいて、自車両101の車線変更の有無を判定する判定部22と、を備える(図3)。地図生成部17は、判定部22による判定結果に基づいて地図を生成する。
According to this embodiment, the following effects can be achieved.
(1) The
これにより、地図情報がない道路を自車両101が走行中に、区画線が途中で途切れているような場合であっても、車線変更の有無を精度よく判定することができる。このため、区画線の位置情報を含む地図を精度よく生成することができる。その結果、例えば自動運転モードにおいて最適な目標経路を設定することができるとともに、交通の安全性や利便性をより一層改善して持続可能な輸送システムの発展に寄与する運転支援技術を提供することができる。カメラ画像のみに基づいて車線変更が判定されるため、地図生成装置20を安価に構成できる。認識情報を利用した環境地図生成においては、逐次認識された区画線をつなぎ合わせて連続した車線を形成する必要があるため、同一の区画線を正しくつなぎ合わせて車線を形成するためには自車両が同一車線を維持する走行をしているか、車線変更したかを正しく判別する必要がある。この点、本実施形態では、車線変更の有無を正しく判別できるため、区画線の位置情報を含む地図を精度よく生成することができる。
Thereby, even if the
(2)区画線推定部21は、カメラ1aにより第1時点t1に検出された区画線201,202の位置情報に基づいて、当該区画線201,202を通るような近似曲線L1,L2を算出し、近似曲線L1,L2に基づいて、第2時点t2にカメラ1aにより検出されると予測される区画線201,202の位置、すなわち車線維持を想定した場合の区画線201,202の位置を推定する(図4)。これにより区画線201,202を検出できない地点があっても、区画線の位置を良好に推定することができ、ロバスト性が向上する。
(2) The marking line estimating unit 21 calculates approximate curves L1 and L2 that pass through the marking
(3)カメラ1aは、自車両101の走行車線を規定する左右方向一方側の区画線201(第1区画線)と左右方向他方側の区画線202(第2区画線)とを検出するように設けられる(図2)。判定部22は、区画線推定部21により推定された区画線202の位置(近似曲線L2)と、カメラ1aにより検出された区画線202の位置との差異Δy2に基づいて、右側車線への車線変更の有無を判定する(図6)。これにより、同一車線内を走行する際の車幅方向の位置変動が車線変更と誤判定されることを抑制することができ、車線変更の有無を良好に判定できる。
(3) The
(4)第2時点t2は現在時点であり、地図生成部17は、自車両101が走行しながら、カメラ1aにより検出された区画線の位置情報を含む地図を生成する。これにより、自車両101は、地図情報がない道路を走行しながら、道路形状に応じた精度の高い環境地図を即座に生成することができる。
(4) The second time point t2 is the current time point, and the
上記実施形態は種々の形態に変形することができる。上記実施形態では、カメラ1a等の外部センサ群1により自車両101の周囲の外界状況を検出するようにしたが、ライダ等を用いて外界状況を検出するようにしてもよく、外界検出部の構成は上述したものに限らない。上記実施形態では、地図生成部25が手動運転モードで走行しながら環境地図を生成するようにしたが、自動運転モードで走行しながら環境地図を生成するようにしてもよい。上記実施形態では、カメラ画像に基づいて環境地図を生成するようにしたが、カメラ1aに代えて、レーダやライダにより取得されたデータを用いて自車両101の周囲の物体の特徴点を抽出し、環境地図を生成するようにしてもよい。したがって、地図生成部の構成は上述したものに限らない。
The above embodiment can be modified in various forms. In the above embodiment, the external sensor group 1 such as the
上記実施形態では、第1時点t1でカメラ1aにより検出された区画線の位置情報に基づいて、当該区画線を通るような近似曲線L1,L2を算出し、この近似曲線L1,L2に基づいて、自車両101が車線を維持して走行する場合に第2時点t2にカメラにより検出されると予測される区画線の位置を推定するようにしたが、区画線推定部21の構成は上述したものに限らない。すなわち、第1時点で検出された外界状況の情報に基づいて、近似曲線を用いずに、第2時点に検出されると予測される区画線の位置を推定するようにしてもよく、位置推定部の構成は上述したものに限らない。したがって、区画線推定部21により推定された区画線の位置と、第2時点t2に検出された区画線の位置との差異に基づいて、自車両101の車線変更の有無を判定する判定部22の構成も上述したものに限らない。
In the embodiment described above, approximate curves L1 and L2 that pass through the lane markings are calculated based on the position information of the lane markings detected by the
上記実施形態では、自車両101が走行しながら地図生成部17が環境地図を生成するようにしたが、自車両101の走行中にカメラ画像により得られたデータを記憶部12に記憶し、自車両101の走行完了後に、記憶されたデータを用いて環境地図を生成するようにしてもよい。したがって、走行しながら地図を生成しなくてもよい。
In the above embodiment, the
上記実施形態では、自動運転機能を有する自車両101が、地図生成装置20として機能する例を説明したが、自動運転機能を有しない自車両101が地図生成装置として機能するようにしてもよい。この場合、地図生成装置20で生成された地図情報を他車両との間で共有し、地図情報を用いて他車両(例えば自動運転車両)の運転が支援されるようにしてもよい。すなわち、自車両101は、地図生成装置20としての機能のみを有するようにしてもよい。
In the above embodiment, an example has been described in which the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the characteristics of the present invention are not impaired. It is also possible to arbitrarily combine the above embodiment and one or more of the modifications, and it is also possible to combine the modifications.
1a カメラ、10 コントローラ、17 地図生成部、20 地図生成装置、21 区画線推定部、22 判定部、201、202 区画線、L1,L2 近似曲線 1a Camera, 10 Controller, 17 Map generation unit, 20 Map generation device, 21 Compartment line estimation unit, 22 Determination unit, 201, 202 Compartment line, L1, L2 Approximate curve
Claims (4)
前記外界検出部により検出された外界状況の情報に基づいて、自車両の走行車線を規定する区画線の位置情報を含む地図を生成する地図生成部と、
前記外界検出部により第1時点で検出された外界状況の情報に基づいて、前記第1時点よりも後の第2時点に前記外界検出部により検出されると予測される区画線の位置を推定する区画線推定部と、
前記区画線推定部により推定された区画線の位置と、前記第2時点に前記外界検出部により検出された区画線の位置との差異に基づいて、自車両の車線変更の有無を判定する判定部と、を備え、
前記地図生成部は、前記判定部による判定結果に基づいて地図を生成することを特徴とする地図生成装置。 an outside world detection unit that detects outside world conditions around the host vehicle;
a map generation unit that generates a map including positional information of lane markings defining the driving lane of the host vehicle based on information on the outside world situation detected by the outside world detection unit;
Estimating the position of a marking line that is predicted to be detected by the outside world detection unit at a second time point after the first time point, based on information on the outside world situation detected by the outside world detection unit at a first time point. a lot line estimating unit,
A determination of whether or not the own vehicle changes lanes based on a difference between the position of the marking line estimated by the marking line estimating unit and the position of the marking line detected by the outside world detecting unit at the second time point. and,
The map generation device is characterized in that the map generation section generates a map based on a determination result by the determination section.
前記区画線推定部は、前記外界検出部により前記第1時点に検出された区画線の位置情報に基づいて、当該区画線を通るような近似曲線を算出し、前記近似曲線に基づいて、前記第2時点に前記外界検出部により検出されると予測される区画線の位置を推定することを特徴とする地図生成装置。 The map generation device according to claim 1,
The marking line estimating unit calculates an approximate curve that passes through the marking line based on the position information of the marking line detected by the external world detecting unit at the first time point, and calculates an approximate curve passing through the marking line based on the approximate curve. A map generation device that estimates the position of a lane marking that is predicted to be detected by the outside world detection unit at a second time point.
前記外界検出部は、自車両の走行車線を規定する左右方向一方側の第1区画線と左右方向他方側の第2区画線とを検出するように設けられ、
前記判定部は、前記区画線推定部により推定された前記第1区画線の位置と、前記外界検出部により検出された前記第2区画線の位置との差異に基づいて、車線変更の有無を判定することを特徴とする地図生成装置。 The map generation device according to claim 1 or 2,
The external world detection unit is provided to detect a first marking line on one side in the left-right direction and a second marking line on the other side in the left-right direction, which define a driving lane of the own vehicle,
The determination unit determines whether or not to change lanes based on the difference between the position of the first lane marking estimated by the lane marking estimation unit and the position of the second lane marking detected by the external world detection unit. A map generation device characterized by determining.
前記第2時点は現在時点であり、
前記地図生成部は、自車両が走行しながら、前記外界検出部により検出された区画線の位置情報を含む地図を生成することを特徴とする地図生成装置。 The map generation device according to any one of claims 1 to 3,
The second point in time is the current point in time,
The map generation device is characterized in that the map generation unit generates a map including positional information of lane markings detected by the outside world detection unit while the own vehicle is traveling.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022053817A JP2023146579A (en) | 2022-03-29 | 2022-03-29 | Map generation device |
CN202310222132.8A CN116890845A (en) | 2022-03-29 | 2023-03-09 | map generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022053817A JP2023146579A (en) | 2022-03-29 | 2022-03-29 | Map generation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023146579A true JP2023146579A (en) | 2023-10-12 |
Family
ID=88286587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022053817A Pending JP2023146579A (en) | 2022-03-29 | 2022-03-29 | Map generation device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023146579A (en) |
CN (1) | CN116890845A (en) |
-
2022
- 2022-03-29 JP JP2022053817A patent/JP2023146579A/en active Pending
-
2023
- 2023-03-09 CN CN202310222132.8A patent/CN116890845A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN116890845A (en) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11874135B2 (en) | Map generation apparatus | |
JP2022128712A (en) | Road information generation device | |
JP2023146579A (en) | Map generation device | |
JP7141479B2 (en) | map generator | |
US11867526B2 (en) | Map generation apparatus | |
JP7141478B2 (en) | map generator | |
JP7141477B2 (en) | map generator | |
JP7167217B2 (en) | Vehicle position recognition device | |
US11920949B2 (en) | Map generation apparatus | |
US20220268587A1 (en) | Vehicle position recognition apparatus | |
US20230314164A1 (en) | Map generation apparatus | |
WO2023188262A1 (en) | Map generating device | |
US20220262138A1 (en) | Division line recognition apparatus | |
US20220254056A1 (en) | Distance calculation apparatus and vehicle position estimation apparatus | |
JP2023147576A (en) | Map generation device | |
JP2023149511A (en) | Map generation device | |
JP2022123238A (en) | Division line recognition device | |
JP2022123239A (en) | Division line recognition device | |
JP2022150534A (en) | Travelling control device | |
JP2022151012A (en) | Map generation device | |
JP2022152051A (en) | travel control device | |
JP2022123940A (en) | vehicle controller |