JP2023146579A - Map generation device - Google Patents

Map generation device Download PDF

Info

Publication number
JP2023146579A
JP2023146579A JP2022053817A JP2022053817A JP2023146579A JP 2023146579 A JP2023146579 A JP 2023146579A JP 2022053817 A JP2022053817 A JP 2022053817A JP 2022053817 A JP2022053817 A JP 2022053817A JP 2023146579 A JP2023146579 A JP 2023146579A
Authority
JP
Japan
Prior art keywords
map
vehicle
lane
detected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022053817A
Other languages
Japanese (ja)
Inventor
友貴 大熊
Yuki Okuma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022053817A priority Critical patent/JP2023146579A/en
Priority to CN202310222132.8A priority patent/CN116890845A/en
Publication of JP2023146579A publication Critical patent/JP2023146579A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation

Abstract

To accurately generate a map that includes position information for a division line even when the division line is discontinuous in the middle.SOLUTION: A map generation device 20 comprises: a camera 1a that detects an environment situation around a self vehicle; a map generation unit 17 that generates a map including position information for a division line defining a traveling traffic lane of the self vehicle on the basis of the detected environment situation; a division line estimation unit 21 that estimates a position of the division line which is predicted to be detected at a second point of time, on the basis of information on the environment situation detected at a first point of time; and a determination unit 22 that determines the presence/absence of a traffic lane change by the self vehicle on the basis of a difference between the estimated position of the division line and the position of the division line detected by the camera 1a at the second point of time. The map generation unit 17 generates a map on the basis of a result of this determination.SELECTED DRAWING: Figure 3

Description

本発明は、走行中に得られた外界状況を示すデータに基づき地図を生成する地図生成装置に関する。 The present invention relates to a map generation device that generates a map based on data indicating external conditions obtained while driving.

この種の装置として、従来、車両に搭載されたカメラにより撮像された画像を利用して道路の区画線を認識するとともに車線変更を検出し、これにより自車両が走行していない車線を推定し、地図データを更新するようにした装置が知られている(例えば上記特許文献1参照)。特許文献1記載の装置では、カメラ画像内における道路区画線の位置する領域が左右方向に徐々に移動すると、車線変更を検出する。 Conventionally, this type of device uses images captured by a camera mounted on a vehicle to recognize road markings and detect lane changes, thereby estimating the lane in which the vehicle is not driving. 2. Description of the Related Art A device that updates map data is known (for example, see Patent Document 1 mentioned above). The device described in Patent Document 1 detects a lane change when the area where the road marking line is located in the camera image gradually moves in the left-right direction.

特開2007-241470号公報Japanese Patent Application Publication No. 2007-241470

しかしながら、上記特許文献1記載の装置では、車線変更の検出のために道路区画線が連続的に検出される必要がある。このため、区画線が途中で途切れているような場合には車線変更を検出することができず、区画線の位置情報を含む地図を精度よく生成することが難しい。 However, in the device described in Patent Document 1, road marking lines need to be detected continuously in order to detect a lane change. Therefore, if the lane markings are interrupted in the middle, a lane change cannot be detected, and it is difficult to accurately generate a map that includes positional information of the lane markings.

本発明の一態様である地図生成装置は、自車両の周囲の外界状況を検出する外界検出部と、外界検出部により検出された外界状況の情報に基づいて、自車両の走行車線を規定する区画線の位置情報を含む地図を生成する地図生成部と、第1時点で外界検出部により検出された外界状況の情報に基づいて、第1時点よりも後の第2時点に外界検出部により検出されると予測される区画線の位置を推定する区画線推定部と、区画線推定部により推定された区画線の位置と、第2時点に外界検出部により検出された区画線の位置との差異に基づいて、自車両の車線変更の有無を判定する判定部と、を備える。地図生成部は、判定部による判定結果に基づいて地図を生成する。 A map generation device that is one aspect of the present invention includes an external world detection unit that detects the external environment surrounding the host vehicle, and defines a driving lane for the host vehicle based on information about the external world situation detected by the external world detection unit. a map generation unit that generates a map including position information of the lane markings; and a map generation unit that generates a map that includes position information of the lane markings; a parking line estimating unit that estimates the position of the parking line that is predicted to be detected; the position of the parking line estimated by the parking line estimating unit; and the position of the partition line detected by the external world detection unit at a second time point; and a determination unit that determines whether or not the host vehicle changes lanes based on the difference between the two. The map generation section generates a map based on the determination result by the determination section.

本発明によれば、区画線が途中で途切れているような場合であっても、区画線の位置情報を含む地図を精度よく生成することができる。 According to the present invention, even in a case where the lane markings are interrupted in the middle, it is possible to accurately generate a map including positional information of the lane markings.

本発明の実施形態に係る地図生成装置を有する車両制御システムの全体構成を概略的に示すブロック図。1 is a block diagram schematically showing the overall configuration of a vehicle control system having a map generation device according to an embodiment of the present invention. 本発明の実施形態に係る地図生成装置が適用される走行シーンの一例を示す図。1 is a diagram showing an example of a driving scene to which a map generation device according to an embodiment of the present invention is applied. 本発明の実施形態に係る地図生成装置の要部構成を示すブロック図。FIG. 1 is a block diagram showing the main configuration of a map generation device according to an embodiment of the present invention. 本発明の実施形態に係る地図生成装置により算出される近似曲線の一例を示す図。FIG. 3 is a diagram showing an example of an approximate curve calculated by the map generation device according to the embodiment of the present invention. 本発明の実施形態に係る地図生成装置による車線変更の判定に係る動作の一例を示す図。FIG. 3 is a diagram illustrating an example of an operation related to lane change determination by the map generation device according to the embodiment of the present invention. 本発明の実施形態に係る地図生成装置による車線変更の判定に係る動作の他の例を示す図。FIG. 6 is a diagram illustrating another example of the operation related to lane change determination by the map generation device according to the embodiment of the present invention. 本発明の実施形態に係る地図生成装置による車線変更の判定に係る動作のさらに別の例を示す図。FIG. 6 is a diagram illustrating yet another example of the operation related to lane change determination by the map generation device according to the embodiment of the present invention. 図3のコントローラで実行される処理の一例を示すフローチャート。4 is a flowchart illustrating an example of a process executed by the controller in FIG. 3. FIG.

以下、図1~図6を参照して本発明の実施形態について説明する。本発明の実施形態に係る地図生成装置は、例えば自動運転機能を有する車両(自動運転車両)が走行するときに用いられる地図(後述する環境地図)を生成するように構成される。なお、本実施形態に係る地図生成装置が設けられる車両を、他車両と区別して自車両と呼ぶことがある。 Embodiments of the present invention will be described below with reference to FIGS. 1 to 6. A map generation device according to an embodiment of the present invention is configured to generate a map (environmental map described below) used when, for example, a vehicle having an automatic driving function (automatic driving vehicle) travels. Note that the vehicle provided with the map generation device according to this embodiment may be referred to as the own vehicle to distinguish it from other vehicles.

地図生成装置による地図の生成は、ドライバが自車両を手動で運転するときに実行される。したがって、地図生成装置は、自動運転機能を有しない車両(手動運転車両)に設けることができる。なお、地図生成装置は、手動運転車両だけでなく、ドライバによる運転操作が不要な自動運転モードからドライバの運転操作が必要な手動運転モードへの切換が可能な自動運転車両に設けることもできる。以下では、自動運転車両に地図生成装置が設けられるものとして地図生成装置に関する説明を行う。 The map generation device generates a map when the driver manually drives the vehicle. Therefore, the map generation device can be provided in a vehicle (manually driven vehicle) that does not have an automatic driving function. Note that the map generation device can be provided not only in manually driven vehicles but also in automatic driving vehicles that can switch from an automatic driving mode that does not require a driver's driving operation to a manual driving mode that requires a driver's driving operation. In the following, a map generation device will be described assuming that the map generation device is installed in an automatic driving vehicle.

まず、自動運転車両の構成について説明する。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。図1は、本発明の実施形態に係る地図生成装置を有する車両制御システム100の全体構成を概略的に示すブロック図である。 First, the configuration of the automated driving vehicle will be explained. The host vehicle may be an engine vehicle having an internal combustion engine as a driving source, an electric vehicle having a traveling motor as a driving source, or a hybrid vehicle having an engine and a driving motor as a driving source. FIG. 1 is a block diagram schematically showing the overall configuration of a vehicle control system 100 having a map generation device according to an embodiment of the present invention.

図1に示すように、車両制御システム100は、コントローラ10と、CAN通信線等を介してコントローラ10にそれぞれ通信可能に接続された外部センサ群1と、内部センサ群2と、入出力装置3と、測位ユニット4と、地図データベース5と、ナビゲーション装置6と、通信ユニット7と、走行用のアクチュエータACとを主に有する。 As shown in FIG. 1, the vehicle control system 100 includes a controller 10, an external sensor group 1, an internal sensor group 2, and an input/output device 3, each of which is communicably connected to the controller 10 via a CAN communication line or the like. It mainly includes a positioning unit 4, a map database 5, a navigation device 6, a communication unit 7, and a driving actuator AC.

外部センサ群1は、自車両の周辺情報である外部状況を検出する複数のセンサ(外部センサ)の総称である。例えば外部センサ群1には、レーザ光を照射して反射光を検出することで自車両の周辺の物体の位置(自車両からの距離や方向)を検出するライダ、電磁波を照射し反射波を検出することで自車両の周辺の物体の位置を検出するレーダ、CCDやCMOS等の撮像素子を有し、自車両の周辺(前方、後方および側方)を撮像するカメラなどが含まれる。 The external sensor group 1 is a general term for a plurality of sensors (external sensors) that detect external conditions that are information around the own vehicle. For example, external sensor group 1 includes a lidar that detects the position (distance and direction from the own vehicle) of objects around the own vehicle by emitting laser light and detecting reflected light, and a lidar that detects the position (distance and direction from the own vehicle) of objects around the own vehicle by emitting laser light and detecting reflected light. These include a radar that detects the position of objects around the vehicle, and a camera that has an imaging device such as a CCD or CMOS and captures images of the surroundings of the vehicle (front, rear, and sides).

内部センサ群2は、自車両の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群2には、自車両の車速を検出する車速センサ、自車両の前後方向および左右方向の加速度を検出する加速度センサ、走行駆動源の回転数を検出する回転数センサなどが含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群2に含まれる。 The internal sensor group 2 is a general term for a plurality of sensors (internal sensors) that detect the driving state of the host vehicle. For example, the internal sensor group 2 includes a vehicle speed sensor that detects the vehicle speed of the host vehicle, an acceleration sensor that detects the longitudinal and lateral acceleration of the host vehicle, a rotation speed sensor that detects the rotation speed of the travel drive source, and the like. . The internal sensor group 2 also includes sensors that detect driving operations by the driver in the manual driving mode, such as accelerator pedal operations, brake pedal operations, steering wheel operations, and the like.

入出力装置3は、ドライバから指令が入力されたり、ドライバに対し情報が出力されたりする装置の総称である。例えば入出力装置3には、操作部材の操作によりドライバが各種指令を入力する各種スイッチ、ドライバが音声で指令を入力するマイク、ドライバに表示画像を介して情報を提供するディスプレイ、ドライバに音声で情報を提供するスピーカなどが含まれる。 The input/output device 3 is a general term for devices through which commands are input from the driver and information is output to the driver. For example, the input/output device 3 includes various switches through which the driver inputs various commands by operating operating members, a microphone through which the driver inputs commands by voice, a display which provides information to the driver via displayed images, and a display that provides information to the driver via a displayed image. This includes speakers that provide information.

測位ユニット(GNSSユニット)4は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位センサを内部センサ群2に含めることもできる。測位衛星は、GPS衛星や準天頂衛星などの人工衛星である。測位ユニット4は、測位センサが受信した測位情報を利用して、自車両の現在位置(緯度、経度、高度)を測定する。 The positioning unit (GNSS unit) 4 has a positioning sensor that receives positioning signals transmitted from positioning satellites. A positioning sensor can also be included in the internal sensor group 2. Positioning satellites are artificial satellites such as GPS satellites and quasi-zenith satellites. The positioning unit 4 uses the positioning information received by the positioning sensor to measure the current position (latitude, longitude, altitude) of the own vehicle.

地図データベース5は、ナビゲーション装置6に用いられる一般的な地図情報を記憶する装置であり、例えばハードディスクや半導体素子により構成される。地図情報には、道路の位置情報、道路形状(曲率など)の情報、交差点や分岐点の位置情報が含まれる。なお、地図データベース5に記憶される地図情報は、コントローラ10の記憶部12に記憶される高精度な地図情報とは異なる。 The map database 5 is a device that stores general map information used in the navigation device 6, and is composed of, for example, a hard disk or a semiconductor device. The map information includes road position information, road shape information (curvature, etc.), and position information of intersections and branch points. Note that the map information stored in the map database 5 is different from the highly accurate map information stored in the storage unit 12 of the controller 10.

ナビゲーション装置6は、ドライバにより入力された目的地までの道路上の目標経路を探索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置3を介して行われる。目標経路は、測位ユニット4により測定された自車両の現在位置と、地図データベース5に記憶された地図情報とに基づいて演算される。外部センサ群1の検出値を用いて自車両の現在位置を測定することもでき、この現在位置と記憶部12に記憶された高精度な地図情報とに基づいて目標経路を演算するようにしてもよい。 The navigation device 6 is a device that searches for a target route on a road to a destination input by the driver and provides guidance along the target route. Input of the destination and guidance along the target route are performed via the input/output device 3. The target route is calculated based on the current position of the own vehicle measured by the positioning unit 4 and map information stored in the map database 5. The current position of the own vehicle can also be measured using the detection values of the external sensor group 1, and the target route is calculated based on this current position and the highly accurate map information stored in the storage unit 12. Good too.

通信ユニット7は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報などを定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、地図データベース5や記憶部12に出力され、地図情報が更新される。通信ユニット7を介して他車両と通信することもできる。 The communication unit 7 communicates with various servers (not shown) via networks including wireless communication networks such as the Internet and mobile phone networks, and periodically or arbitrarily transmits map information, driving history information, traffic information, etc. Obtained from the server at the timing of Networks include not only public wireless communication networks but also closed communication networks established for each predetermined management area, such as wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), and the like. The acquired map information is output to the map database 5 and storage unit 12, and the map information is updated. It is also possible to communicate with other vehicles via the communication unit 7.

アクチュエータACは、自車両の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。 Actuator AC is a travel actuator for controlling travel of the own vehicle. When the traveling driving source is an engine, the actuator AC includes a throttle actuator that adjusts the opening degree of a throttle valve of the engine (throttle opening degree). When the travel drive source is a travel motor, the travel motor is included in the actuator AC. The actuator AC also includes a brake actuator that operates the braking device of the host vehicle and a steering actuator that drives the steering device.

コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図1では、便宜上、これらECUの集合としてコントローラ10が示される。 The controller 10 is composed of an electronic control unit (ECU). More specifically, the controller 10 includes a computer having an arithmetic unit 11 such as a CPU (microprocessor), a storage unit 12 such as a ROM or RAM, and other peripheral circuits (not shown) such as an I/O interface. Consists of. Although a plurality of ECUs with different functions such as an engine control ECU, a travel motor control ECU, and a braking device ECU can be provided separately, in FIG. 1, the controller 10 is shown as a collection of these ECUs for convenience. .

記憶部12には、高精度の道路地図情報が記憶される。この道路地図情報には、道路の位置情報、道路形状(曲率など)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸などの路面プロファイルの情報が含まれる。記憶部12に記憶される地図情報には、通信ユニット7を介して取得した自車両の外部から取得した地図情報と、外部センサ群1の検出値あるいは外部センサ群1と内部センサ群2との検出値を用いて自車両自体で作成される地図情報とが含まれる。記憶部12には、地図情報に対応付けて、外部センサ群1と内部センサ群2の検出値からなる走行履歴情報も記憶される。 The storage unit 12 stores highly accurate road map information. This road map information includes road position information, road shape (curvature, etc.) information, road slope information, intersection and branch point position information, number of lanes, lane width and position information for each lane ( This information includes information on the center position of the lane (lane center position and boundary line of the lane position), position information on landmarks (traffic lights, signs, buildings, etc.) on the map, and information on the road surface profile such as road surface irregularities. The map information stored in the storage unit 12 includes map information acquired from outside the own vehicle through the communication unit 7 and detection values of the external sensor group 1 or the detection values of the external sensor group 1 and the internal sensor group 2. This includes map information created by the own vehicle itself using detected values. The storage unit 12 also stores travel history information consisting of detection values of the external sensor group 1 and the internal sensor group 2 in association with the map information.

演算部11は、機能的構成として、自車位置認識部13と、外界認識部14と、行動計画生成部15と、走行制御部16と、地図生成部17とを有する。 The calculation unit 11 has a vehicle position recognition unit 13, an external world recognition unit 14, an action plan generation unit 15, a travel control unit 16, and a map generation unit 17 as functional components.

自車位置認識部13は、測位ユニット4で得られた自車両の位置情報および地図データベース5の地図情報に基づいて、地図上の自車両の位置(自車位置)を認識する。記憶部12に記憶された地図情報と、外部センサ群1が検出した自車両の周辺情報とを用いて自車位置を認識してもよく、これにより自車位置を高精度に認識することができる。なお、道路上や道路脇の外部に設置されたセンサで自車位置を測定可能であるとき、そのセンサと通信ユニット7を介して通信することにより、自車位置を認識することもできる。 The own vehicle position recognition unit 13 recognizes the position of the own vehicle on the map (own vehicle position) based on the position information of the own vehicle obtained by the positioning unit 4 and the map information of the map database 5. The position of the own vehicle may be recognized using the map information stored in the storage unit 12 and the surrounding information of the own vehicle detected by the external sensor group 1, and thereby the position of the own vehicle can be recognized with high accuracy. can. Note that when the vehicle position can be measured by a sensor installed outside on the road or beside the road, the vehicle position can also be recognized by communicating with the sensor via the communication unit 7.

外界認識部14は、ライダ、レーダ、カメラ等の外部センサ群1からの信号に基づいて自車両の周囲の外部状況を認識する。例えば自車両の周辺を走行する周辺車両(前方車両や後方車両)の位置や速度や加速度、自車両の周囲に停車または駐車している周辺車両の位置、および他の物体の位置や状態などを認識する。他の物体には、標識、信号機、道路の区画線や停止線等の標示、建物、ガードレール、電柱、看板、歩行者、自転車等が含まれる。他の物体の状態には、信号機の色(赤、青、黄)、歩行者や自転車の移動速度や向きなどが含まれる。 The external world recognition unit 14 recognizes the external situation around the host vehicle based on signals from the external sensor group 1 such as lidar, radar, and cameras. For example, the position, speed, and acceleration of surrounding vehicles (vehicles in front and behind) driving around the own vehicle, the positions of surrounding vehicles stopped or parked around the own vehicle, and the positions and conditions of other objects, etc. recognize. Other objects include signs, traffic lights, markings such as road division lines and stop lines, buildings, guardrails, utility poles, signboards, pedestrians, bicycles, and the like. Other object states include the color of traffic lights (red, blue, yellow), the speed and direction of pedestrians and bicycles, etc.

行動計画生成部15は、例えばナビゲーション装置6で演算された目標経路と、記憶部12に記憶された地図情報と、自車位置認識部13で認識された自車位置と、外界認識部14で認識された外部状況とに基づいて、現時点から所定時間先までの自車両の走行軌道(目標軌道)を生成する。目標経路上に目標軌道の候補となる複数の軌道が存在するときには、行動計画生成部15は、その中から法令を順守し、かつ効率よく安全に走行する等の基準を満たす最適な軌道を選択し、選択した軌道を目標軌道とする。そして、行動計画生成部15は、生成した目標軌道に応じた行動計画を生成する。行動計画生成部15は、先行車両を追い越すための追い越し走行、走行車線を変更する車線変更走行、先行車両に追従する追従走行、走行車線を逸脱しないように車線を維持するレーンキープ走行、減速走行または加速走行等に対応した種々の行動計画を生成する。行動計画生成部15は、目標軌道を生成する際に、まず走行態様を決定し、走行態様に基づいて目標軌道を生成する。 The action plan generation unit 15 uses, for example, the target route calculated by the navigation device 6, the map information stored in the storage unit 12, the own vehicle position recognized by the own vehicle position recognition unit 13, and the external world recognition unit 14. Based on the recognized external situation, a travel trajectory (target trajectory) of the own vehicle from the current moment to a predetermined time ahead is generated. When there are multiple trajectories that are candidates for the target trajectory on the target route, the action plan generation unit 15 selects the optimal trajectory from among them that complies with laws and regulations and satisfies criteria such as efficient and safe driving. Then, the selected trajectory is set as the target trajectory. Then, the action plan generation unit 15 generates an action plan according to the generated target trajectory. The action plan generation unit 15 performs overtaking driving to overtake a preceding vehicle, lane changing driving to change the driving lane, following driving to follow the preceding vehicle, lane keeping driving to maintain the driving lane so as not to deviate from the driving lane, and deceleration driving. Alternatively, various action plans corresponding to accelerated driving etc. are generated. When generating a target trajectory, the action plan generation unit 15 first determines a running mode, and generates a target trajectory based on the running mode.

走行制御部16は、自動運転モードにおいて、行動計画生成部15で生成された目標軌道に沿って自車両が走行するように各アクチュエータACを制御する。より具体的には、走行制御部16は、自動運転モードにおいて道路勾配などにより定まる走行抵抗を考慮して、行動計画生成部15で算出された単位時間毎の目標加速度を得るための要求駆動力を算出する。そして、例えば内部センサ群2により検出された実加速度が目標加速度となるようにアクチュエータACをフィードバック制御する。すなわち、自車両が目標車速および目標加速度で走行するようにアクチュエータACを制御する。なお、運転モードが手動運転モードであるとき、走行制御部16は、内部センサ群2により取得されたドライバからの走行指令(ステアリング操作等)に応じて各アクチュエータACを制御する。 The travel control unit 16 controls each actuator AC so that the host vehicle travels along the target trajectory generated by the action plan generation unit 15 in the automatic driving mode. More specifically, the driving control unit 16 generates the required driving force to obtain the target acceleration per unit time calculated by the action plan generating unit 15 in consideration of the driving resistance determined by the road gradient etc. in the automatic driving mode. Calculate. Then, for example, the actuator AC is feedback-controlled so that the actual acceleration detected by the internal sensor group 2 becomes the target acceleration. That is, the actuator AC is controlled so that the host vehicle travels at the target vehicle speed and target acceleration. Note that when the driving mode is the manual driving mode, the driving control unit 16 controls each actuator AC according to driving commands (steering operation, etc.) from the driver acquired by the internal sensor group 2.

地図生成部17は、手動運転モードで走行しながら、外部センサ群1により検出された検出値を用いて、3次元の点群データからなる環境地図を生成する。具体的には、カメラにより取得されたカメラ画像から、画素ごとの輝度や色の情報に基づいて物体の輪郭を示すエッジを抽出するとともに、そのエッジ情報を用いて特徴点を抽出する。特徴点は例えばエッジ上の点やエッジの交点であり、路面上の区画線、建物の角、道路標識の角などに対応する。地図生成部17は、抽出された特徴点までの距離を求めて、特徴点を順次、環境地図上にプロットし、これにより自車両が走行した道路周辺の環境地図が生成される。カメラに代えて、レーダやライダにより取得されたデータを用いて自車両の周囲の物体の特徴点を抽出し、環境地図を生成するようにしてもよい。 The map generation unit 17 generates an environmental map consisting of three-dimensional point cloud data using detection values detected by the external sensor group 1 while the vehicle is traveling in manual driving mode. Specifically, from a camera image acquired by a camera, edges indicating the outline of an object are extracted based on information on the brightness and color of each pixel, and feature points are extracted using the edge information. A feature point is, for example, a point on an edge or an intersection of edges, and corresponds to a division line on a road surface, a corner of a building, a corner of a road sign, etc. The map generation unit 17 calculates the distance to the extracted feature points and sequentially plots the feature points on the environmental map, thereby generating an environmental map of the area around the road on which the host vehicle has traveled. Instead of a camera, data acquired by radar or lidar may be used to extract feature points of objects around the host vehicle to generate an environmental map.

自車位置認識部13は、地図生成部17による地図生成処理と並行して、自車両の位置推定処理を行う。すなわち、特徴点の時間経過に伴う位置の変化に基づいて、自車両の位置を推定する。地図作成処理と位置推定処理とは、例えばカメラやライダからの信号を用いてSLAM(Simultaneous Localization and Mapping)のアルゴリズムにしたがって同時に行われる。地図生成部17は、手動運転モードで走行するときだけでなく、自動運転モードで走行するときにも同様に環境地図を生成することができる。既に環境地図が生成されて記憶部12に記憶されている場合、地図生成部17は、新たに得られた特徴点により環境地図を更新してもよい。 The own vehicle position recognition unit 13 performs a position estimation process of the own vehicle in parallel with the map generation process by the map generation unit 17. That is, the position of the vehicle is estimated based on changes in the position of the feature points over time. The map creation process and the position estimation process are performed simultaneously according to a SLAM (Simultaneous Localization and Mapping) algorithm using, for example, signals from a camera or a lidar. The map generation unit 17 can generate an environmental map not only when the vehicle is traveling in the manual driving mode but also when the vehicle is traveling in the automatic driving mode. If an environmental map has already been generated and stored in the storage unit 12, the map generating unit 17 may update the environmental map using newly obtained feature points.

次に、本実施形態に係る地図生成装置、すなわち車両制御システム100の地図生成装置としての構成について説明する。図2は、本実施形態に係る地図生成装置が適用される道路200の一例を示す図である。図2には、自車両101が車線変更する例が示される。すなわち、自車両101は、左右の区画線201,202によって規定される第1車線LN1から、矢印Aに示すように、左右の区画線202,203によって規定される第2車線LN2に車線変更する。自車両101は、第1時点t1で第1車線LN1を走行し(状態B1)、その後、第2時点t2で第2車線LN2を走行する(状態B2)。 Next, a description will be given of the map generation device according to this embodiment, that is, the configuration of the vehicle control system 100 as a map generation device. FIG. 2 is a diagram showing an example of a road 200 to which the map generation device according to the present embodiment is applied. FIG. 2 shows an example in which the host vehicle 101 changes lanes. That is, the own vehicle 101 changes lanes from the first lane LN1 defined by the left and right lane markings 201 and 202 to the second lane LN2 defined by the left and right lane lanes 202 and 203, as shown by arrow A. . The host vehicle 101 travels on the first lane LN1 at the first time t1 (state B1), and then travels on the second lane LN2 at the second time t2 (state B2).

自車両101の前部にはカメラ1aが搭載される。カメラ1aは、所定の視野角θによって定まる、カメラ1aを中心とした略扇形の撮影領域ARを撮影可能である。第1時点t1における自車両101の撮影領域ARには区画線201,202が含まれ、第2時点t2における撮影領域ARには区画線202,203が含まれる。したがって、カメラ画像からエッジ点を抽出することにより、第1時点t1で区画線201,202を、第2時点t2で区画線202,203をそれぞれ検出することができる。このようにカメラ画像によって検出された区画線(厳密には区画線に対応した特徴点)を時系列に沿って順次接続することで、区画線201~203を含む地図を生成することができる。 A camera 1a is mounted on the front of the host vehicle 101. The camera 1a is capable of photographing a substantially fan-shaped photographing area AR centered on the camera 1a, which is determined by a predetermined viewing angle θ. The photographing area AR of the host vehicle 101 at the first time t1 includes the marking lines 201 and 202, and the photographing area AR at the second time t2 includes the marking lines 202 and 203. Therefore, by extracting edge points from the camera image, the partition lines 201 and 202 can be detected at the first time t1, and the partition lines 202 and 203 can be detected at the second time t2, respectively. By sequentially connecting the lane markings (specifically, feature points corresponding to the lane markings) detected by the camera images in chronological order in this way, a map including the lane markings 201 to 203 can be generated.

しかしながら、第1車線LN1から第2車線LN2への車線変更時に、図2に示すように区画線202が途切れていると、区画線202を連続して検出できないことがある。区画線202が途切れていなくても、カメラ1aの視野を遮るような障害物(例えば他車両)が存在する場合や、天候の影響などによってカメラ1aの検知精度が低下する場合においても、区画線202を検出できないことがある。その結果、第1時点t1で検出された区画線201と第2時点t2で検出された区画線202、および第1時点t1で検出された区画線202と第2時点t2で検出された区画線203とがそれぞれ接続され、誤った地図が生成されるおそれがある。そこで、車線変更があった場合においても正確に地図を生成することができるよう、本実施形態は以下のように地図生成装置を構成する。 However, when changing lanes from the first lane LN1 to the second lane LN2, if the lane markings 202 are interrupted as shown in FIG. 2, the lane markings 202 may not be continuously detected. Even if the marking line 202 is not interrupted, the marking line 202 may be closed even if there is an obstacle (for example, another vehicle) that obstructs the field of view of the camera 1a, or if the detection accuracy of the camera 1a is reduced due to the influence of the weather. 202 may not be detected. As a result, the partition line 201 detected at the first time t1, the partition line 202 detected at the second time t2, and the partition line 202 detected at the first time t1 and the partition line detected at the second time t2, 203 may be connected to each other, and an incorrect map may be generated. Therefore, in this embodiment, a map generation device is configured as follows so that a map can be generated accurately even when there is a lane change.

図3は、本実施形態に係る地図生成装置20の要部構成を示すブロック図である。地図生成装置20は、図1の車両制御システム100に含まれる。図3に示すように、地図生成装置20は、カメラ1aと、センサ2aと、コントローラ10とを有する。 FIG. 3 is a block diagram showing the main configuration of the map generation device 20 according to this embodiment. Map generation device 20 is included in vehicle control system 100 in FIG. As shown in FIG. 3, the map generation device 20 includes a camera 1a, a sensor 2a, and a controller 10.

カメラ1aは、CCDやCMOS等の撮像素子(イメージセンサ)を有する単眼カメラであり、図1の外部センサ群1の一部を構成する。カメラ1aはステレオカメラであってもよい。カメラ1aは、図2に示すように自車両101の前部の所定位置に取り付けられ、自車両101の前方空間を連続的に撮像し、対象物の画像(カメラ画像)を取得する。対象物には、道路上の区画線201~203が含まれる。なお、カメラ1aに代えて、あるいはカメラ1aとともに、ライダなどにより対象物を検出するようにしてもよい。 The camera 1a is a monocular camera having an image sensor such as a CCD or CMOS, and forms part of the external sensor group 1 in FIG. The camera 1a may be a stereo camera. As shown in FIG. 2, the camera 1a is attached to a predetermined position at the front of the own vehicle 101, and continuously images the space in front of the own vehicle 101 to obtain an image of an object (camera image). The objects include lane markings 201 to 203 on the road. Note that the object may be detected by a lidar or the like instead of or together with the camera 1a.

センサ2aは、自車両101の移動量と移動方向とを算出するために用いられる検出器である。センサ2aは、内部センサ群2の一部であり、例えば車速センサとヨーレートセンサとにより構成される。すなわち、コントローラ10(自車位置認識部13)は、車速センサにより検出された車速を積分して自車両101の移動量を算出するとともに、ヨーレートセンサにより検出されたヨーレートを積分してヨー角を算出し、地図を作成する際にオドメトリにより自車両101の位置を推定する。なお、センサ2aの構成はこれに限らず、他のセンサの情報を用いて自車位置を推定するようにしてもよい。 The sensor 2a is a detector used to calculate the amount and direction of movement of the own vehicle 101. The sensor 2a is part of the internal sensor group 2, and includes, for example, a vehicle speed sensor and a yaw rate sensor. That is, the controller 10 (vehicle position recognition unit 13) integrates the vehicle speed detected by the vehicle speed sensor to calculate the amount of movement of the own vehicle 101, and also integrates the yaw rate detected by the yaw rate sensor to calculate the yaw angle. The position of the own vehicle 101 is estimated by odometry when calculating and creating a map. Note that the configuration of the sensor 2a is not limited to this, and the vehicle position may be estimated using information from other sensors.

図3のコントローラ10は、演算部11(図1)が担う機能的構成として、記憶部12と地図生成部17の他に、区画線推定部21と、判定部22と、を有する。なお、区画線推定部21および判定部22は、地図生成の機能も有するため、これらを地図生成部17に含めることもできる。 The controller 10 in FIG. 3 includes a marking line estimating section 21 and a determining section 22 in addition to the storage section 12 and the map generating section 17, as functional components handled by the calculating section 11 (FIG. 1). Note that the lane marking estimation section 21 and the determination section 22 also have a map generation function, so they can also be included in the map generation section 17.

記憶部12には、地図情報が記憶される。記憶される地図情報には、通信ユニット7を介して自車両101の外部から取得した地図情報(外部地図情報と呼ぶ)と、自車両自体で作成される地図情報(内部地図情報と呼ぶ)とが含まれる。外部地図情報は、例えばクラウドサーバを介して取得した地図(クラウド地図と呼ぶ)の情報であり、内部地図情報は、例えばSLAM等の技術を用いてマッピングにより生成される点群データからなる地図(環境地図と呼ぶ)の情報である。外部地図情報は、自車両101と他車両とで共有されるのに対し、内部地図情報は、自車両101の独自の地図情報(例えば自車両が単独で有する地図情報)である。記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等についての情報も記憶される。 The storage unit 12 stores map information. The stored map information includes map information acquired from outside the host vehicle 101 via the communication unit 7 (referred to as external map information), and map information created by the host vehicle itself (referred to as internal map information). is included. The external map information is, for example, information on a map acquired via a cloud server (referred to as a cloud map), and the internal map information is, for example, information on a map (called a cloud map) made of point cloud data generated by mapping using technology such as SLAM. This information is called an environmental map. The external map information is shared between the host vehicle 101 and other vehicles, whereas the internal map information is map information unique to the host vehicle 101 (for example, map information that the host vehicle has independently). The storage unit 12 also stores information regarding various control programs, threshold values used in the programs, and the like.

区画線推定部21は、過去時点(または現在時点)で取得されたカメラ画像に基づいて、現在時点(または将来時点)でカメラ1aにより検出されると予測される区画線の位置を推定する。具体的には、過去時点(例えば図2の第1時点t1)で取得されたカメラ画像から、カメラ画像に含まれる区画線201,202に対応した特徴点を抽出し、特徴点を通るような近似曲線を算出する。過去時点のみでなく、過去時点以前の特徴点から、例えば過去時点以前の数フレーム分の特徴点から、近似曲線を算出してもよい。図4は、近似曲線L1,L2の一例を示す図である。図中、横軸および縦軸は、任意の地点を座標原点としたときの特徴点PのX座標およびY座標である。X座標およびY座標は、路面上にとった座標である。特徴点Pは、左右一対の区画線の一方(例えば左方)に対応した特徴点群P1(左特徴点群と呼ぶ)と、他方(例えば右方)に対応した特徴点群P2(右特徴点群と呼ぶ)とに分けられる。 The marking line estimating unit 21 estimates the position of the marking line that is predicted to be detected by the camera 1a at the current point in time (or at the future point in time), based on the camera image acquired at the past point in time (or at the current point in time). Specifically, feature points corresponding to the partition lines 201 and 202 included in the camera image are extracted from a camera image acquired at a past point in time (for example, the first time point t1 in FIG. 2), and a line passing through the feature points is extracted. Calculate the approximate curve. The approximate curve may be calculated not only from the past time but also from feature points before the past time, for example, from feature points for several frames before the past time. FIG. 4 is a diagram showing an example of approximate curves L1 and L2. In the figure, the horizontal and vertical axes are the X and Y coordinates of the feature point P when an arbitrary point is set as the coordinate origin. The X and Y coordinates are coordinates taken on the road surface. The feature points P are a feature point group P1 (referred to as a left feature point group) corresponding to one side (for example, the left side) of a pair of left and right partition lines, and a feature point group P2 (referred to as a right feature point group) corresponding to the other (for example, the right side) of a pair of left and right partition lines. (called point clouds).

近似曲線L1,L2は、例えば第1時点t1で検出された複数の特徴点Pを通るような多項式、すなわちY座標の値がX座標の値の関数となるような多項式によって表される。なお、車両進行方向に沿って特徴点を順次滑らかに接続して得られた曲線を、車両進行方向に沿って滑らかに延長することにより、近似曲線L1,L2を算出することもできる。近似曲線L1,L2は、特徴点Pを含む点線領域Ra内では、カメラ画像により検出された区画線201,202に一致ないしほぼ一致する。算出された近似曲線L1,L2は、記憶部12に記憶される。 The approximate curves L1 and L2 are expressed, for example, by polynomials that pass through the plurality of feature points P detected at the first time point t1, that is, polynomials such that the value of the Y coordinate is a function of the value of the X coordinate. Note that the approximate curves L1 and L2 can also be calculated by smoothly extending curves obtained by sequentially and smoothly connecting feature points along the vehicle traveling direction. The approximate curves L1 and L2 match or almost match the partition lines 201 and 202 detected by the camera image within the dotted line area Ra including the feature point P. The calculated approximate curves L1 and L2 are stored in the storage unit 12.

自車両101の移動に伴い、区画線に対応した新たな特徴点Pが検出されると、区画線推定部21は、新たな特徴点Pを用いて近似曲線L1,L2を算出する。これにより、時間経過に伴い近似曲線L1,L2が随時更新される。連続する複数の時点(tn,tn-1,tn-2,・・・)でそれぞれ算出された近似曲線を平均化することにより、時点tnにおける代表的な近似曲線を求め、これを記憶部12に記憶するようにしてもよい。 When a new feature point P corresponding to a marking line is detected as the host vehicle 101 moves, the marking line estimation unit 21 uses the new feature point P to calculate approximate curves L1 and L2. As a result, the approximate curves L1 and L2 are updated as time passes. By averaging the approximate curves calculated at a plurality of consecutive points in time (tn, tn-1, tn-2, . . . ), a representative approximate curve at time tn is obtained, and this is stored in the storage unit 12. It is also possible to store the information in .

区画線が途切れている等の理由により、区画線に対応した新たな特徴点が検出されないとき、近似曲線L1,L2は更新されない。したがって、図2に示すように、区画線202が検出されない地点で自車両101が第1車線LN1から第2車線LN2に車線変更したとき、車線変更の直後(第2時点t2)には、車線変更の直前(第1時点t1)に算出された近似曲線L1,L2(区画線201,202に対応する近似曲線)が記憶部12に記憶されたままである。現在時点から所定時間前に算出された近似曲線L1,L2を、記憶部12に記憶するようにしてもよい。自車両101の現在位置よりも所定距離手前の地点で算出された近似曲線L1,L2を、記憶部12に記憶するようにしてもよい。換言すると、現在時点から所定時間経過後(例えば数秒程度経過後)に、記憶部12に記憶された近似曲線L1,L2を更新するようにしてもよく、現在位置から所定距離進んだ後(例えば数m程度進んだ後)、記憶部12に記憶された近似曲線L1,L2を更新するようにしてもよい。 If a new feature point corresponding to the partition line is not detected due to a break in the partition line, etc., the approximate curves L1 and L2 are not updated. Therefore, as shown in FIG. 2, when the own vehicle 101 changes lanes from the first lane LN1 to the second lane LN2 at a point where the marking line 202 is not detected, immediately after the lane change (second time t2), the lane The approximate curves L1 and L2 (approximate curves corresponding to the partition lines 201 and 202) calculated immediately before the change (first time point t1) remain stored in the storage unit 12. The approximate curves L1 and L2 calculated a predetermined time ago from the current time point may be stored in the storage unit 12. Approximate curves L1 and L2 calculated at a point a predetermined distance before the current position of the host vehicle 101 may be stored in the storage unit 12. In other words, the approximate curves L1 and L2 stored in the storage unit 12 may be updated after a predetermined time has elapsed from the current point (for example, after several seconds have elapsed), and after a predetermined distance has passed from the current position (for example, after a predetermined distance has passed from the current position) The approximate curves L1 and L2 stored in the storage unit 12 may be updated after the vehicle has traveled several meters.

判定部22は、区画線推定部21により推定され、記憶部12に記憶された近似曲線L1,L2の位置と、現在時点でカメラ画像により検出された区画線に対応する特徴点の位置との差異を算出する。そして、差異の大きさに基づいて自車両101の車線変更の有無を判定する。図5A~図5Cは、それぞれ過去時点に算出された近似曲線L1,L2と、現在時点で検出された特徴点Pとの関係の一例を示す図である。すなわち、過去時点で図4に示すように特徴点Pに基づき近似曲線L1,L2が算出された後、区画線に対応する特徴点が一時的に検出されなくなり、記憶部12に過去時点で算出された近似曲線L1,L2が記憶されたままの状態で、現時点で再び特徴点Pが検出された場合の例である。 The determining unit 22 compares the positions of the approximate curves L1 and L2 estimated by the lane marking estimation unit 21 and stored in the storage unit 12 with the position of the feature point corresponding to the lane marking detected from the camera image at the current time. Calculate the difference. Then, based on the magnitude of the difference, it is determined whether or not the own vehicle 101 should change lanes. FIGS. 5A to 5C are diagrams showing an example of the relationship between approximate curves L1 and L2 calculated at past times and feature points P detected at the current time. That is, after the approximate curves L1 and L2 are calculated based on the feature points P at the past point in time as shown in FIG. This is an example where the feature point P is detected again at the present time while the approximate curves L1 and L2 are still stored.

図5Aでは、そのa部拡大図に示すように、左側の区画線に対応する近似曲線L1と左特徴点群P1との差異(例えばY座標の差異Δy1)が所定値Δy1a以下である。なお、右側の区画線に対応する近似曲線L2と右特徴点群P2との差異Δyも所定値Δy1a以下である。所定値Δy1aは、車線幅の1/2倍以下の値(例えば1m程度)に設定される。このように互いに左右方向同一側の近似曲線L1と左特徴点群P1との差異Δy1が所定値Δy1a以下であるとき、判定部22は、過去時点から現時点までの間に自車両101が車線変更していない、つまり車線維持と判定する。 In FIG. 5A, as shown in the enlarged view of part a, the difference between the approximate curve L1 corresponding to the left partition line and the left feature point group P1 (for example, the difference in Y coordinate Δy1) is less than the predetermined value Δy1a. Note that the difference Δy between the approximate curve L2 corresponding to the right partition line and the right feature point group P2 is also less than the predetermined value Δy1a. The predetermined value Δy1a is set to a value less than or equal to 1/2 the lane width (for example, about 1 m). In this way, when the difference Δy1 between the approximate curve L1 and the left feature point group P1, which are on the same side in the left-right direction, is less than or equal to the predetermined value Δy1a, the determination unit 22 determines whether the own vehicle 101 has changed lanes between the past time and the present time. In other words, it is determined that the vehicle is maintaining its lane.

図5Bでは、そのa部拡大図に示すように、右側の区画線に対応する近似曲線L2と左特徴点群P1との差異Δy2が所定値Δy2a以下である。所定値Δy2aは、所定値Δy1aと異なる値または同一の値であり、車線幅の1/2倍以下の値に設定される。このように右側の近似曲線L2と左側の特徴点群P1との差異Δy2が所定値Δy2a以下であるとき、判定部22は、自車両101が右側車線に車線変更したと判定する。一方、図5Cでは、そのa部拡大図に示すように、左側の区画線に対応する近似曲線L1と右特徴点群P2との差異Δy3が所定値Δy3a以下である。所定値Δy3aは例えば所定値Δy2aと同一の値であり、車線幅の1/2倍以下の値に設定される。このように左側の近似曲線L1と右側の特徴点群P2との差異Δy3が所定値Δy3a以下であるとき、判定部22は、自車両101が左側車線に車線変更したと判定する。 In FIG. 5B, as shown in the enlarged view of part a, the difference Δy2 between the approximate curve L2 corresponding to the right partition line and the left feature point group P1 is less than or equal to the predetermined value Δy2a. The predetermined value Δy2a is a value different from or the same as the predetermined value Δy1a, and is set to a value equal to or less than half the lane width. In this manner, when the difference Δy2 between the right-hand approximate curve L2 and the left-hand feature point group P1 is less than or equal to the predetermined value Δy2a, the determination unit 22 determines that the host vehicle 101 has changed lanes to the right lane. On the other hand, in FIG. 5C, as shown in the enlarged view of part a, the difference Δy3 between the approximate curve L1 corresponding to the left partition line and the right feature point group P2 is less than or equal to the predetermined value Δy3a. The predetermined value Δy3a is, for example, the same value as the predetermined value Δy2a, and is set to a value equal to or less than 1/2 the lane width. In this manner, when the difference Δy3 between the left-hand approximate curve L1 and the right-hand feature point group P2 is less than or equal to the predetermined value Δy3a, the determination unit 22 determines that the host vehicle 101 has changed lanes to the left lane.

なお、図5A~図5Cにおいて、判定部22が、近似曲線L1,L2と特徴点群P1,P2とのY座標の差異Δy1,Δy2,Δy3がそれぞれ所定値Δy1a,Δy2a,Δy3a以下であるか否かを判定する代わりに、近似曲線L1,L2から特徴点群P1,P2までの最短距離が所定値以下であるか否かを判定するようにしてもよい。そして、その判定結果に応じて、車線維持、右側車線へ車線変更または左側車線へ車線変更したと判定するようにしてもよい。 In addition, in FIGS. 5A to 5C, the determination unit 22 determines whether the Y-coordinate differences Δy1, Δy2, and Δy3 between the approximate curves L1 and L2 and the feature point groups P1 and P2 are equal to or less than predetermined values Δy1a, Δy2a, and Δy3a, respectively. Instead of determining whether this is the case, it may be determined whether the shortest distance from the approximate curves L1, L2 to the feature point groups P1, P2 is less than or equal to a predetermined value. Then, depending on the determination result, it may be determined that the vehicle maintains the lane, changes to the right lane, or changes to the left lane.

地図生成部17は、判定部22による判定結果に基づいて、区画線が認識されなかった地点の環境地図を生成する。すなわち、判定部22により自車両101が車線変更していないと判定されると(図5A)、過去時点でカメラ画像により認識された自車両101の左右の区画線と、現時点でカメラ画像により認識された自車両101の左右の区画線とを接続する。 The map generation unit 17 generates an environmental map of the point where the marking line was not recognized based on the determination result by the determination unit 22. That is, when the determination unit 22 determines that the vehicle 101 has not changed lanes (FIG. 5A), the left and right marking lines of the vehicle 101 recognized from the camera image at the past time and the lane markings recognized from the camera image at the current time are compared. The left and right marking lines of the host vehicle 101 that have been marked are connected.

一方、判定部22により自車両101が右側に車線変更したと判定されると(図5B)、過去時点でカメラ画像により認識された自車両101の右側の区画線と、現時点でカメラ画像により認識された自車両101の左側の区画線とを接続する。判定部22により自車両101が左側に車線変更したと判定されると(図5C)、過去時点でカメラ画像により認識された自車両101の左側の区画線と、現時点でカメラ画像により認識された自車両101の右側の区画線とを接続する。これにより車線の位置を特定することができる。位置が特定された車線は、地図情報の一部として記憶部12に記憶される。 On the other hand, when the determination unit 22 determines that the vehicle 101 has changed lanes to the right (FIG. 5B), the marking line on the right side of the vehicle 101 recognized from the camera image at the past time and the lane mark recognized from the camera image at the current time and the marking line on the left side of the host vehicle 101 that has been marked. When the determination unit 22 determines that the vehicle 101 has changed lanes to the left (FIG. 5C), the left marking line of the vehicle 101 recognized from the camera image at the past point in time and the marking line on the left side of the vehicle 101 recognized from the camera image at the current time are determined. It is connected to the right side marking line of the own vehicle 101. This allows the location of the lane to be specified. The lane whose position has been specified is stored in the storage unit 12 as part of the map information.

図6は、予め定められたプログラムに従い図3のコントローラ10で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば環境地図を生成するために自車両101が手動運転モードで走行しているときに開始され、所定周期で繰り返される。 FIG. 6 is a flowchart showing an example of a process executed by the controller 10 of FIG. 3 according to a predetermined program. The process shown in this flowchart is started, for example, when the own vehicle 101 is running in manual driving mode to generate an environmental map, and is repeated at a predetermined period.

図6に示すように、まず、ステップS1で、カメラ1aとセンサ2aとからの信号を読み込む。次いで、ステップS2で、カメラ画像に基づき、自車両101の走行車線(自車線)を規定する左右一対の区画線が検出されているか否かを判定する。ステップS2で否定されるとステップS9に進み、フラグを1に設定する。なお、フラグは、初期状態では0であり、左右の区画線の少なくとも一方が検出されないとき、1に設定される。次いで、ステップS8で環境地図を生成し、記憶部12に記憶する。この場合には、自車線が特定されていない状態の環境地図の情報が記憶される。 As shown in FIG. 6, first, in step S1, signals from the camera 1a and the sensor 2a are read. Next, in step S2, it is determined based on the camera image whether a pair of left and right lane markings defining the driving lane (own lane) of the own vehicle 101 has been detected. If the result in step S2 is negative, the process proceeds to step S9, and the flag is set to 1. Note that the flag is 0 in the initial state, and is set to 1 when at least one of the left and right partition lines is not detected. Next, in step S8, an environmental map is generated and stored in the storage unit 12. In this case, information on the environmental map in which the vehicle's own lane is not specified is stored.

ステップS2で肯定されるとステップS3に進み、フラグが1であるか否かを判定する。すなわち、区画線が再び検出されるようになった直後であるか否かを判定する。ステップS3で否定されるとステップS10に進み、ステップS2で検出された区画線、より厳密には区画線に対応した複数の特徴点に基づき、複数の特徴点を通るような左右一対の近似曲線L1,L2を算出する。次いで、ステップS8で環境地図を生成し、記憶部12に記憶する。この状態では、左右の区画線が検出され続けており、自車線の位置情報を含む地図情報が記憶される。このように左右の区画線が検出され続けている状態においては、自車両101が区画線をまたいだか否かを判定することにより、自車両101の車線変更の有無を判定することができる。ステップS8では、ステップS10で算出した近似曲線L1,L2も併せて記憶する。 If the result in step S2 is affirmative, the process proceeds to step S3, where it is determined whether the flag is 1 or not. That is, it is determined whether or not the marking line has just started to be detected again. If the result in step S3 is negative, the process proceeds to step S10, where a pair of left and right approximate curves are created that pass through the plurality of feature points based on the marking line detected in step S2, more precisely, the plurality of feature points corresponding to the marking line. Calculate L1 and L2. Next, in step S8, an environmental map is generated and stored in the storage unit 12. In this state, the left and right lane markings continue to be detected, and map information including the position information of the vehicle's own lane is stored. In this state where the left and right lane markings are continuously being detected, it is possible to determine whether or not the vehicle 101 has changed lanes by determining whether or not the vehicle 101 has crossed the lane marking. In step S8, the approximate curves L1 and L2 calculated in step S10 are also stored.

ステップS3で肯定されると、すなわち区画線が再び検出されるようになった直後であると判定されると、ステップS4に進み、記憶部12に記憶された左側の近似曲線L1と、ステップS2で検出された左特徴点群P1との差異Δy1が所定値Δy1a以下であるか否かを判定する。ステップS4で肯定されるとステップS11に進み、車線維持と判定し、ステップS8に進む。ステップS8では、過去時点で検出された左右の区画線、すなわちステップS10からステップS8への処理で記憶された区画線と、現在時点(ステップS2)で検出された左右の区画線とを互いに接続するような地図を生成し、記憶部12に記憶する。すなわち、区画線が未検出である領域において、その前後の区画線を互いに接続するような地図を生成する。これにより、車線の位置情報を含めた環境地図を生成することができる。 If the determination in step S3 is affirmative, that is, if it is determined that the marking line has just started to be detected again, the process proceeds to step S4, and the left approximate curve L1 stored in the storage unit 12 and the step S2 It is determined whether the difference Δy1 from the left feature point group P1 detected in is less than or equal to a predetermined value Δy1a. If the answer is affirmative in step S4, the process proceeds to step S11, where it is determined that the lane is to be maintained, and the process proceeds to step S8. In step S8, the left and right lane markings detected at the past time point, that is, the lane markings stored in the process from step S10 to step S8, and the left and right lane markings detected at the current time point (step S2) are connected to each other. A map is generated and stored in the storage unit 12. That is, in an area where no lane markings have been detected, a map is generated in which the lane markings before and after the lane are connected to each other. This makes it possible to generate an environmental map that includes lane position information.

一方、ステップS4で否定されるとステップS5に進み、記憶部12に記憶された右側の近似曲線L2と、ステップS2で検出された左特徴点群P1との差異Δy2が所定値Δy2a以下であるか否かを判定する。ステップS5で肯定されるとステップS12に進み、自車両101が右側に車線変更したと判定し、ステップS8に進む。ステップS8では、過去時点で検出された右側の区画線、すなわちステップS10からステップS8への処理で記憶された左右の区画線のうち右側の区画線と、現在時点(ステップS2)で検出された左側の区画線とを互いに接続するような地図を生成し、記憶部12に記憶する。これにより車線変更時に区画線が明確に検出されない場合であっても、車線の位置情報を含めた環境地図を生成することができる。 On the other hand, if the result in step S4 is negative, the process proceeds to step S5, where the difference Δy2 between the right approximate curve L2 stored in the storage unit 12 and the left feature point group P1 detected in step S2 is less than or equal to the predetermined value Δy2a. Determine whether or not. If the result in step S5 is affirmative, the process proceeds to step S12, where it is determined that the host vehicle 101 has changed lanes to the right, and the process proceeds to step S8. In step S8, the right side lot line detected at the past point in time, that is, the right side lot line among the left and right lot lines stored in the process from step S10 to step S8, and the right side lot line detected at the current point in time (step S2). A map that connects the left lane markings to each other is generated and stored in the storage unit 12. As a result, even if lane markings are not clearly detected when changing lanes, an environmental map including lane position information can be generated.

一方、ステップS5で否定されるとステップS6に進み、記憶部12に記憶された左側の近似曲線L1と、ステップS2で検出された右特徴点群P2との差異Δy3が所定値Δy3a以下であるか否かを判定する。ステップS6で肯定されるとステップS7に進み、自車両101が左側に車線変更したと判定し、ステップS8に進む。ステップS8では、過去時点で検出された左側の区画線、すなわちステップS10からステップS8への処理で記憶された左右の区画線のうち左側の区画線と、現在時点(ステップS2)で検出された右側の区画線とを互いに接続するような地図を生成し、記憶部12に記憶する。これにより左右いずれの車線変更の場合であっても、車線の位置情報を含めた環境地図を生成することができる。 On the other hand, if the result in step S5 is negative, the process proceeds to step S6, where the difference Δy3 between the left approximate curve L1 stored in the storage unit 12 and the right feature point group P2 detected in step S2 is less than or equal to the predetermined value Δy3a. Determine whether or not. If the result in step S6 is affirmative, the process proceeds to step S7, where it is determined that the host vehicle 101 has changed lanes to the left, and the process proceeds to step S8. In step S8, the left side lot line detected at the past point in time, that is, the left side lot line among the left and right lot lines stored in the process from step S10 to step S8, and the left side lot line detected at the current point in time (step S2). A map that connects the right lane markings is generated and stored in the storage unit 12. This makes it possible to generate an environmental map that includes lane position information regardless of whether the vehicle changes lanes to the left or right.

ステップS6で否定されるとステップS8に進む。この場合、車線変更の有無が未確定である。したがって、区画線が未検出である領域での区画線の接続は行わずに地図を生成し、記憶部12に記憶する。その後、繰り返しの処理で車線変更の有無が確定されると、区画線が未検出の領域で区画線の接続が行われ、地図情報が更新される。 If the result in step S6 is negative, the process advances to step S8. In this case, whether or not to change lanes is undetermined. Therefore, a map is generated without connecting the lane markings in areas where lane markings have not been detected, and is stored in the storage unit 12. Thereafter, when it is determined through repeated processing whether or not there is a lane change, marking lines are connected in areas where marking lines have not been detected, and the map information is updated.

本実施形態に係る地図生成装置50の動作をより具体的に説明する。自車両101が手動運転モードで走行しながら、カメラ画像に基づいて自車両101の周囲の環境地図が生成される。この環境地図には、自車線を規定する左右一対の区画線の位置情報が含まれる。図2に示すように自車両101が第1車線LN1から第2車線LN2に車線変更した場合、車線変更前(第1時点t1)の左右の区画線201、202と、車線変更後(第2時点t2)の左右の区画線202,203とが、仮に検出され続けていれば、カメラ画像に基づき自車両101が区画線202をまたいだことを検出することによって、自車両101が車線変更したと判断できる。その結果、車線の位置情報を含む地図情報を生成することができる。このとき、カメラ画像により検出された最新の特徴点を用いて、区画線に沿った近似曲線L1,L2が随時算出され、記憶部12に記憶される(ステップS10→ステップS8)。 The operation of the map generation device 50 according to this embodiment will be explained in more detail. While the host vehicle 101 is traveling in manual driving mode, an environmental map of the surroundings of the host vehicle 101 is generated based on camera images. This environmental map includes positional information of a pair of left and right lane markings that define the vehicle's own lane. As shown in FIG. 2, when the host vehicle 101 changes lanes from the first lane LN1 to the second lane LN2, the left and right marking lines 201 and 202 before the lane change (first time t1) and the left and right marking lines 201 and 202 after the lane change (second time point t1) If the left and right lane markings 202 and 203 at time t2) continue to be detected, the vehicle 101 changes lanes by detecting that the vehicle 101 has crossed the lane marking 202 based on the camera image. It can be determined that As a result, map information including lane position information can be generated. At this time, approximate curves L1 and L2 along the partition line are calculated at any time using the latest feature points detected from the camera image, and are stored in the storage unit 12 (step S10→step S8).

これに対し、図2に示すように、自車両101が第1車線LN1から第2車線LN2へ車線変更したときに、区画線202をまたいだことが検出されないと、近似曲線を用いて車線変更の有無が判定される。すなわち、この場合には、第1時点t1に算出された区画線202に沿った右側の近似曲線L2と、第2時点t2に検出された左特徴点P1との差異Δy2が所定値Δy2a以下となり、これにより右側車線への車線変更が判定される(ステップS12)。その結果、車線変更前の右側の区画線202と車線変更後の右側の区画線203とが誤って接続されることを防止することができる。このため、同一の区画線同士を接続した正確な環境地図を生成することができる。 On the other hand, as shown in FIG. 2, when the host vehicle 101 changes lanes from the first lane LN1 to the second lane LN2, if it is not detected that the host vehicle 101 has crossed the lane marking 202, the lane change is performed using an approximate curve. The presence or absence of is determined. That is, in this case, the difference Δy2 between the right approximate curve L2 along the partition line 202 calculated at the first time t1 and the left feature point P1 detected at the second time t2 is equal to or less than the predetermined value Δy2a. , Accordingly, a lane change to the right lane is determined (step S12). As a result, it is possible to prevent the right lane marking line 202 before the lane change from being erroneously connected to the right lane marking line 203 after the lane change. Therefore, it is possible to generate an accurate environmental map in which identical lane markings are connected.

本実施形態によれば以下のような作用効果を奏することができる。
(1)地図生成装置20は、自車両101の周囲の外界状況を検出するカメラ1aと、カメラ1aにより検出された外界状況の情報に基づいて、自車両101の走行車線を規定する区画線201~203の位置情報を含む地図を生成する地図生成部17と、第1時点t1でカメラ1aにより検出された外界状況の情報に基づいて、第1時点t1よりも後の第2時点t2にカメラ1aにより検出されると予測される区画線201~203の位置、すなわち近似曲線L1,L2を推定する区画線推定部21と、区画線推定部21により推定された区画線の位置と、第2時点t2にカメラにより検出された区画線の位置との差異に基づいて、自車両101の車線変更の有無を判定する判定部22と、を備える(図3)。地図生成部17は、判定部22による判定結果に基づいて地図を生成する。
According to this embodiment, the following effects can be achieved.
(1) The map generation device 20 uses a camera 1a that detects the external environment around the own vehicle 101, and a marking line 201 that defines the driving lane of the own vehicle 101 based on information about the external environment detected by the camera 1a. A map generation unit 17 that generates a map including position information of 203 and 203; A marking line estimating unit 21 estimates the positions of the marking lines 201 to 203 predicted to be detected by the marking line estimation unit 1a, that is, approximate curves L1 and L2; A determination unit 22 is provided that determines whether or not the own vehicle 101 changes lanes based on the difference from the position of the lane marking detected by the camera at time t2 (FIG. 3). The map generation unit 17 generates a map based on the determination result by the determination unit 22.

これにより、地図情報がない道路を自車両101が走行中に、区画線が途中で途切れているような場合であっても、車線変更の有無を精度よく判定することができる。このため、区画線の位置情報を含む地図を精度よく生成することができる。その結果、例えば自動運転モードにおいて最適な目標経路を設定することができるとともに、交通の安全性や利便性をより一層改善して持続可能な輸送システムの発展に寄与する運転支援技術を提供することができる。カメラ画像のみに基づいて車線変更が判定されるため、地図生成装置20を安価に構成できる。認識情報を利用した環境地図生成においては、逐次認識された区画線をつなぎ合わせて連続した車線を形成する必要があるため、同一の区画線を正しくつなぎ合わせて車線を形成するためには自車両が同一車線を維持する走行をしているか、車線変更したかを正しく判別する必要がある。この点、本実施形態では、車線変更の有無を正しく判別できるため、区画線の位置情報を含む地図を精度よく生成することができる。 Thereby, even if the own vehicle 101 is traveling on a road without map information and the lane markings are interrupted, it is possible to accurately determine whether or not a lane change is to be made. Therefore, it is possible to accurately generate a map that includes position information of the lane markings. As a result, for example, it is possible to set an optimal target route in autonomous driving mode, and to provide driving support technology that further improves traffic safety and convenience and contributes to the development of a sustainable transportation system. I can do it. Since lane changes are determined based only on camera images, the map generation device 20 can be constructed at low cost. When generating an environmental map using recognition information, it is necessary to connect sequentially recognized lane markings to form a continuous lane. It is necessary to correctly determine whether the vehicle is maintaining the same lane or changing lanes. In this regard, in this embodiment, since it is possible to correctly determine whether or not a lane change is to be made, a map including positional information of lane markings can be generated with high accuracy.

(2)区画線推定部21は、カメラ1aにより第1時点t1に検出された区画線201,202の位置情報に基づいて、当該区画線201,202を通るような近似曲線L1,L2を算出し、近似曲線L1,L2に基づいて、第2時点t2にカメラ1aにより検出されると予測される区画線201,202の位置、すなわち車線維持を想定した場合の区画線201,202の位置を推定する(図4)。これにより区画線201,202を検出できない地点があっても、区画線の位置を良好に推定することができ、ロバスト性が向上する。 (2) The marking line estimating unit 21 calculates approximate curves L1 and L2 that pass through the marking lines 201 and 202 based on the position information of the marking lines 201 and 202 detected by the camera 1a at the first time t1. Then, based on the approximate curves L1 and L2, the positions of the lane markings 201 and 202 that are predicted to be detected by the camera 1a at the second time point t2, that is, the positions of the lane markings 201 and 202 when lane maintenance is assumed, are determined. Estimate (Figure 4). As a result, even if there are points where the lane markings 201 and 202 cannot be detected, the positions of the lane markings can be estimated well, and robustness is improved.

(3)カメラ1aは、自車両101の走行車線を規定する左右方向一方側の区画線201(第1区画線)と左右方向他方側の区画線202(第2区画線)とを検出するように設けられる(図2)。判定部22は、区画線推定部21により推定された区画線202の位置(近似曲線L2)と、カメラ1aにより検出された区画線202の位置との差異Δy2に基づいて、右側車線への車線変更の有無を判定する(図6)。これにより、同一車線内を走行する際の車幅方向の位置変動が車線変更と誤判定されることを抑制することができ、車線変更の有無を良好に判定できる。 (3) The camera 1a is configured to detect a marking line 201 (first marking line) on one side in the left-right direction and a marking line 202 (second marking line) on the other side in the left-right direction, which define the driving lane of the own vehicle 101. (Figure 2). The determining unit 22 determines whether the lane will change to the right lane based on the difference Δy2 between the position of the marking line 202 estimated by the marking line estimating unit 21 (approximate curve L2) and the position of the marking line 202 detected by the camera 1a. The presence or absence of changes is determined (FIG. 6). As a result, it is possible to prevent positional changes in the vehicle width direction when traveling in the same lane from being erroneously determined as a lane change, and it is possible to satisfactorily determine whether a lane change has occurred.

(4)第2時点t2は現在時点であり、地図生成部17は、自車両101が走行しながら、カメラ1aにより検出された区画線の位置情報を含む地図を生成する。これにより、自車両101は、地図情報がない道路を走行しながら、道路形状に応じた精度の高い環境地図を即座に生成することができる。 (4) The second time point t2 is the current time point, and the map generation unit 17 generates a map including position information of the lane markings detected by the camera 1a while the host vehicle 101 is traveling. Thereby, the host vehicle 101 can immediately generate a highly accurate environmental map according to the road shape while driving on a road for which there is no map information.

上記実施形態は種々の形態に変形することができる。上記実施形態では、カメラ1a等の外部センサ群1により自車両101の周囲の外界状況を検出するようにしたが、ライダ等を用いて外界状況を検出するようにしてもよく、外界検出部の構成は上述したものに限らない。上記実施形態では、地図生成部25が手動運転モードで走行しながら環境地図を生成するようにしたが、自動運転モードで走行しながら環境地図を生成するようにしてもよい。上記実施形態では、カメラ画像に基づいて環境地図を生成するようにしたが、カメラ1aに代えて、レーダやライダにより取得されたデータを用いて自車両101の周囲の物体の特徴点を抽出し、環境地図を生成するようにしてもよい。したがって、地図生成部の構成は上述したものに限らない。 The above embodiment can be modified in various forms. In the above embodiment, the external sensor group 1 such as the camera 1a is used to detect the external environment around the host vehicle 101, but the external environment may also be detected using a lidar or the like. The configuration is not limited to that described above. In the embodiment described above, the map generation unit 25 generates the environmental map while driving in the manual driving mode, but it may also generate the environmental map while driving in the automatic driving mode. In the above embodiment, the environmental map is generated based on the camera image, but feature points of objects around the own vehicle 101 may be extracted using data acquired by radar or lidar instead of the camera 1a. , an environmental map may be generated. Therefore, the configuration of the map generation section is not limited to that described above.

上記実施形態では、第1時点t1でカメラ1aにより検出された区画線の位置情報に基づいて、当該区画線を通るような近似曲線L1,L2を算出し、この近似曲線L1,L2に基づいて、自車両101が車線を維持して走行する場合に第2時点t2にカメラにより検出されると予測される区画線の位置を推定するようにしたが、区画線推定部21の構成は上述したものに限らない。すなわち、第1時点で検出された外界状況の情報に基づいて、近似曲線を用いずに、第2時点に検出されると予測される区画線の位置を推定するようにしてもよく、位置推定部の構成は上述したものに限らない。したがって、区画線推定部21により推定された区画線の位置と、第2時点t2に検出された区画線の位置との差異に基づいて、自車両101の車線変更の有無を判定する判定部22の構成も上述したものに限らない。 In the embodiment described above, approximate curves L1 and L2 that pass through the lane markings are calculated based on the position information of the lane markings detected by the camera 1a at the first time point t1, and based on the approximate curves L1 and L2, , the position of the marking line that is predicted to be detected by the camera at the second time point t2 when the own vehicle 101 is traveling while maintaining the lane is estimated, but the configuration of the marking line estimating unit 21 is as described above. Not limited to things. In other words, the position of the lot line that is predicted to be detected at the second time point may be estimated based on the information on the external environment detected at the first time point, without using an approximate curve. The structure of the section is not limited to that described above. Therefore, the determining unit 22 determines whether the own vehicle 101 changes lanes based on the difference between the position of the marking line estimated by the marking line estimating unit 21 and the position of the marking line detected at the second time t2. The configuration is also not limited to that described above.

上記実施形態では、自車両101が走行しながら地図生成部17が環境地図を生成するようにしたが、自車両101の走行中にカメラ画像により得られたデータを記憶部12に記憶し、自車両101の走行完了後に、記憶されたデータを用いて環境地図を生成するようにしてもよい。したがって、走行しながら地図を生成しなくてもよい。 In the above embodiment, the map generation unit 17 generates the environmental map while the own vehicle 101 is running, but data obtained from camera images while the own vehicle 101 is running is stored in the storage unit 12, After the vehicle 101 completes traveling, the environmental map may be generated using the stored data. Therefore, it is not necessary to generate a map while driving.

上記実施形態では、自動運転機能を有する自車両101が、地図生成装置20として機能する例を説明したが、自動運転機能を有しない自車両101が地図生成装置として機能するようにしてもよい。この場合、地図生成装置20で生成された地図情報を他車両との間で共有し、地図情報を用いて他車両(例えば自動運転車両)の運転が支援されるようにしてもよい。すなわち、自車両101は、地図生成装置20としての機能のみを有するようにしてもよい。 In the above embodiment, an example has been described in which the own vehicle 101 having the automatic driving function functions as the map generation device 20, but the own vehicle 101 without the automatic driving function may function as the map generating device. In this case, the map information generated by the map generation device 20 may be shared with other vehicles, and the map information may be used to support the driving of the other vehicle (for example, an automatic driving vehicle). That is, the host vehicle 101 may have only the function of the map generation device 20.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the characteristics of the present invention are not impaired. It is also possible to arbitrarily combine the above embodiment and one or more of the modifications, and it is also possible to combine the modifications.

1a カメラ、10 コントローラ、17 地図生成部、20 地図生成装置、21 区画線推定部、22 判定部、201、202 区画線、L1,L2 近似曲線 1a Camera, 10 Controller, 17 Map generation unit, 20 Map generation device, 21 Compartment line estimation unit, 22 Determination unit, 201, 202 Compartment line, L1, L2 Approximate curve

Claims (4)

自車両の周囲の外界状況を検出する外界検出部と、
前記外界検出部により検出された外界状況の情報に基づいて、自車両の走行車線を規定する区画線の位置情報を含む地図を生成する地図生成部と、
前記外界検出部により第1時点で検出された外界状況の情報に基づいて、前記第1時点よりも後の第2時点に前記外界検出部により検出されると予測される区画線の位置を推定する区画線推定部と、
前記区画線推定部により推定された区画線の位置と、前記第2時点に前記外界検出部により検出された区画線の位置との差異に基づいて、自車両の車線変更の有無を判定する判定部と、を備え、
前記地図生成部は、前記判定部による判定結果に基づいて地図を生成することを特徴とする地図生成装置。
an outside world detection unit that detects outside world conditions around the host vehicle;
a map generation unit that generates a map including positional information of lane markings defining the driving lane of the host vehicle based on information on the outside world situation detected by the outside world detection unit;
Estimating the position of a marking line that is predicted to be detected by the outside world detection unit at a second time point after the first time point, based on information on the outside world situation detected by the outside world detection unit at a first time point. a lot line estimating unit,
A determination of whether or not the own vehicle changes lanes based on a difference between the position of the marking line estimated by the marking line estimating unit and the position of the marking line detected by the outside world detecting unit at the second time point. and,
The map generation device is characterized in that the map generation section generates a map based on a determination result by the determination section.
請求項1に記載の地図生成装置において、
前記区画線推定部は、前記外界検出部により前記第1時点に検出された区画線の位置情報に基づいて、当該区画線を通るような近似曲線を算出し、前記近似曲線に基づいて、前記第2時点に前記外界検出部により検出されると予測される区画線の位置を推定することを特徴とする地図生成装置。
The map generation device according to claim 1,
The marking line estimating unit calculates an approximate curve that passes through the marking line based on the position information of the marking line detected by the external world detecting unit at the first time point, and calculates an approximate curve passing through the marking line based on the approximate curve. A map generation device that estimates the position of a lane marking that is predicted to be detected by the outside world detection unit at a second time point.
請求項1または2に記載の地図生成装置において、
前記外界検出部は、自車両の走行車線を規定する左右方向一方側の第1区画線と左右方向他方側の第2区画線とを検出するように設けられ、
前記判定部は、前記区画線推定部により推定された前記第1区画線の位置と、前記外界検出部により検出された前記第2区画線の位置との差異に基づいて、車線変更の有無を判定することを特徴とする地図生成装置。
The map generation device according to claim 1 or 2,
The external world detection unit is provided to detect a first marking line on one side in the left-right direction and a second marking line on the other side in the left-right direction, which define a driving lane of the own vehicle,
The determination unit determines whether or not to change lanes based on the difference between the position of the first lane marking estimated by the lane marking estimation unit and the position of the second lane marking detected by the external world detection unit. A map generation device characterized by determining.
請求項1~3のいずれか1項に記載の地図生成装置において、
前記第2時点は現在時点であり、
前記地図生成部は、自車両が走行しながら、前記外界検出部により検出された区画線の位置情報を含む地図を生成することを特徴とする地図生成装置。
The map generation device according to any one of claims 1 to 3,
The second point in time is the current point in time,
The map generation device is characterized in that the map generation unit generates a map including positional information of lane markings detected by the outside world detection unit while the own vehicle is traveling.
JP2022053817A 2022-03-29 2022-03-29 Map generation device Pending JP2023146579A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022053817A JP2023146579A (en) 2022-03-29 2022-03-29 Map generation device
CN202310222132.8A CN116890845A (en) 2022-03-29 2023-03-09 map generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022053817A JP2023146579A (en) 2022-03-29 2022-03-29 Map generation device

Publications (1)

Publication Number Publication Date
JP2023146579A true JP2023146579A (en) 2023-10-12

Family

ID=88286587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022053817A Pending JP2023146579A (en) 2022-03-29 2022-03-29 Map generation device

Country Status (2)

Country Link
JP (1) JP2023146579A (en)
CN (1) CN116890845A (en)

Also Published As

Publication number Publication date
CN116890845A (en) 2023-10-17

Similar Documents

Publication Publication Date Title
US11874135B2 (en) Map generation apparatus
JP2022128712A (en) Road information generation device
JP2023146579A (en) Map generation device
JP7141479B2 (en) map generator
US11867526B2 (en) Map generation apparatus
JP7141478B2 (en) map generator
JP7141477B2 (en) map generator
JP7167217B2 (en) Vehicle position recognition device
US11920949B2 (en) Map generation apparatus
US20220268587A1 (en) Vehicle position recognition apparatus
US20230314164A1 (en) Map generation apparatus
WO2023188262A1 (en) Map generating device
US20220262138A1 (en) Division line recognition apparatus
US20220254056A1 (en) Distance calculation apparatus and vehicle position estimation apparatus
JP2023147576A (en) Map generation device
JP2023149511A (en) Map generation device
JP2022123238A (en) Division line recognition device
JP2022123239A (en) Division line recognition device
JP2022150534A (en) Travelling control device
JP2022151012A (en) Map generation device
JP2022152051A (en) travel control device
JP2022123940A (en) vehicle controller