JP2020153908A - Environment recognition device - Google Patents

Environment recognition device Download PDF

Info

Publication number
JP2020153908A
JP2020153908A JP2019054649A JP2019054649A JP2020153908A JP 2020153908 A JP2020153908 A JP 2020153908A JP 2019054649 A JP2019054649 A JP 2019054649A JP 2019054649 A JP2019054649 A JP 2019054649A JP 2020153908 A JP2020153908 A JP 2020153908A
Authority
JP
Japan
Prior art keywords
information
road
environment
recognition device
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019054649A
Other languages
Japanese (ja)
Other versions
JP7257207B2 (en
Inventor
雅幸 竹村
Masayuki Takemura
雅幸 竹村
フェリペ ゴメズカバレロ
Gomezcaballero Felipe
フェリペ ゴメズカバレロ
遠藤 健
Takeshi Endo
健 遠藤
健 志磨
Takeshi Shima
健 志磨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2019054649A priority Critical patent/JP7257207B2/en
Priority to PCT/JP2020/003861 priority patent/WO2020195166A1/en
Publication of JP2020153908A publication Critical patent/JP2020153908A/en
Application granted granted Critical
Publication of JP7257207B2 publication Critical patent/JP7257207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Abstract

To provide an environment recognition device with which it is possible to utilize an environment measuring sensor and simple map information and recognize the detailed shape of a complex road, such as an intersection, before reaching there.SOLUTION: Provided is an environment recognition device for recognizing the environment of a travel path on the basis of measured data that is outputted by an environment measuring sensor, comprising: a basic structure analysis unit for analyzing the basic structure of the travel path on the basis of map information obtained from a general-purpose map or a server map; a detail structure analysis unit for restore the detail structure of the travel path on the basis of the basic structure of the travel path; a travel path correspondence control unit for changing a recognition logic for recognizing environment information from the measured data in accordance with the basic structure of the travel path; and an external apparatus control unit for controlling the environment measuring sensor or an external apparatus on the basis of the environment information recognized by the travel path correspondence control unit.SELECTED DRAWING: Figure 1

Description

本発明は、環境計測センサと地図情報を利用して、周囲環境を認識し、制御や警報に必要な情報を予め出力する環境認識装置に関する。 The present invention relates to an environment recognition device that recognizes the surrounding environment by using an environment measurement sensor and map information and outputs information necessary for control and alarm in advance.

近年の自動車においては、自車の周囲環境を認識する予防安全技術の採用が普及期に入りつつあり、予防安全技術の対応シーンも拡大が進んでいる。より安全で快適な自動運転を実現するには、特に、交差点でのより高精度な環境認識が重要な課題となるが、環境計測センサのみを用いる従来の環境認識技術は、基本的に、単路での環境認識を目的としたものであるため、交差点のような複雑な道路形状を適切に認識することが困難であった。 In recent years, the adoption of preventive safety technology that recognizes the surrounding environment of the own vehicle is entering a period of widespread use in automobiles, and the scene of preventive safety technology is expanding. In order to realize safer and more comfortable automatic driving, more accurate environmental recognition at intersections is an important issue, but conventional environmental recognition technology that uses only environmental measurement sensors is basically simple. Since the purpose was to recognize the environment on the road, it was difficult to properly recognize complicated road shapes such as intersections.

この問題に対し、特許文献1では、同文献の要約書に記載されるように、「分岐や合流の開始位置を誤認識する可能性を低減する」ために、「撮像部による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識する標示認識部と、認識された路面標示の内、車線に沿った方向に対して所定角度で変化する角度変化部を、道路の形状変化を示す形状変化部の候補として抽出する抽出部と、進路前方において、道路の形状変化が生じる位置を示す位置情報を取得する情報取得部と、抽出された候補を、位置情報で示される位置から車線に沿った方向で所定距離内に存在する候補に絞り込む絞込み部と、絞り込まれた候補を、進路前方での形状変化部として特定する標示特定部と、特定された車線の分岐点又は合流点に基づいて、地図上の自車位置を特定する位置推定部と、を備える」ECU(自車位置推定装置)を提案している。 In response to this problem, in Patent Document 1, as described in the abstract of the same document, in order to "reduce the possibility of erroneously recognizing the start position of branching or merging", "based on the imaging result by the imaging unit". The road markings that recognize the road markings that indicate the boundaries of the lanes in front of the vehicle's course and the angle-changing sections that change at a predetermined angle with respect to the direction along the lane among the recognized road markings are used for the road. The extraction unit extracted as a candidate for the shape change part indicating the shape change of the road, the information acquisition unit for acquiring the position information indicating the position where the shape change of the road occurs in front of the course, and the extracted candidate are indicated by the position information. A narrowing section that narrows down the candidates that exist within a predetermined distance in the direction along the lane from the position where the road is marked, a marking specific section that specifies the narrowed down candidates as a shape change section in front of the course, and a branch point of the specified lane. Alternatively, we are proposing an ECU (own vehicle position estimation device) that includes a position estimation unit that specifies the position of the own vehicle on the map based on the confluence.

そして、特許文献1のECU(自車位置推定装置)が推定した自車位置を、自動運転用に作られた高精度地図とマッチングすることで、進行方向の複雑な道路形状を事前に把握し、予防安全や自動運転に利用していた(例えば、同文献の段落0024、0047等)。 Then, by matching the own vehicle position estimated by the ECU (own vehicle position estimation device) of Patent Document 1 with a high-precision map created for automatic driving, the complicated road shape in the traveling direction can be grasped in advance. , Used for preventive safety and automatic driving (for example, paragraphs 0024 and 0047 of the same document).

特開2018−40692号公報JP-A-2018-40692

上記の通り、特許文献1では、多岐に亘る情報が登録された自動運転用の高精度地図を必要とする。自動運転用の高精度地図は、都市部や自動運転特区のような限られたエリアでは、今後も整備が進むと考えられるが、人口の少ない過疎地などでは道路形状の測量等のコストの問題から整備が遅延すると考えられるため、特許文献1の技術により予防安全や自動運転を実現できるエリアは今後も限定されると考えられる。また、高精度地図サービスの利用コストも比較的高額になると考えられることから、より安価に利用できる簡易地図をベースに、特許文献1と同様の予防安全や自動運転を実現できることが望ましい。 As described above, Patent Document 1 requires a high-precision map for automatic driving in which a wide variety of information is registered. High-precision maps for autonomous driving are expected to continue to be developed in limited areas such as urban areas and special autonomous driving zones, but in depopulated areas with a small population, there are cost issues such as road shape surveying. Therefore, it is considered that the maintenance will be delayed, so that the area where preventive safety and automatic driving can be realized by the technology of Patent Document 1 will be limited in the future. Further, since the usage cost of the high-precision map service is considered to be relatively high, it is desirable that the same preventive safety and automatic driving as in Patent Document 1 can be realized based on the simple map that can be used at a lower cost.

また、製品として現在発売されている環境計測センサは、基本的に単路での環境計測を想定としており、自動運転によって交差点を右左折できるだけの環境認識を完全に実現することは難しい。これは、走行路や路端は単路であれば、左右に2本の境界線があることを前提に認識処理すれば良いが、交差点や分合流では進行方向に直行する道路や斜め方向に伸びる道路などが存在し複雑な道路形状を誤検知することなく高精度に認識することが困難だからである。 In addition, the environmental measurement sensors currently on the market as products are basically intended for environmental measurement on a single road, and it is difficult to completely realize environmental recognition that can turn left or right at an intersection by automatic driving. If the road or roadside is a single road, this can be recognized on the assumption that there are two boundaries on the left and right, but at intersections and merging, the road goes straight in the direction of travel or diagonally. This is because there are extending roads and it is difficult to recognize a complicated road shape with high accuracy without erroneous detection.

そこで、本発明は、環境計測センサと簡易的な地図情報を利用し、交差点のような複雑な道路の詳細形状を、そこに到達する前に認識することができる環境認識装置を提供することを目的とする。 Therefore, the present invention provides an environment recognition device that can recognize the detailed shape of a complicated road such as an intersection before reaching it by using an environment measurement sensor and simple map information. The purpose.

上記課題を解決するため、本発明の環境認識装置は、環境計測センサが出力する計測データに基づいて、進行路の環境を認識するものであって、汎用地図またはサーバ地図から得た地図情報に基づいて、前記進行路の基本構造を解析する基本構造解析部と、前記進行路の基本構造に基づいて、前記進行路の詳細構造を復元する詳細構造解析部と、前記進行路の基本構造に応じて、前記計測データから環境情報を認識する認識ロジックを変更する進行路対応制御部と、該進行路対応制御部が認識した前記環境情報に基づいて、前記環境計測センサまたは外部機器を制御する外部機器制御部と、を具備するものとした。 In order to solve the above problems, the environment recognition device of the present invention recognizes the environment of the traveling path based on the measurement data output by the environment measurement sensor, and uses map information obtained from a general-purpose map or a server map. Based on the basic structure analysis unit that analyzes the basic structure of the course, the detailed structure analysis unit that restores the detailed structure of the course based on the basic structure of the course, and the basic structure of the course. Correspondingly, the traveling path corresponding control unit that changes the recognition logic that recognizes the environmental information from the measurement data and the environmental measurement sensor or the external device are controlled based on the environmental information recognized by the traveling path corresponding control unit. It is assumed to be equipped with an external device control unit.

本発明の環境認識装置によれば、環境計測センサと簡易的な地図情報を利用し、交差点のような複雑な道路の詳細形状を、そこに到達する前に認識することができる。 According to the environment recognition device of the present invention, the detailed shape of a complicated road such as an intersection can be recognized before reaching the detailed shape of a complicated road by using an environment measurement sensor and simple map information.

一実施例の車載環境認識装置の機能ブロック図Functional block diagram of the in-vehicle environment recognition device of one embodiment 環境計測センサの機能ブロック図Functional block diagram of environmental measurement sensor 地図情報部の機能ブロック図Functional block diagram of the map information section 実際の道路網と汎用地図の一例An example of an actual road network and general-purpose map 進行路解析部の機能ブロック図Functional block diagram of the course analysis unit 基本構造解析処理の一例An example of basic structural analysis processing 詳細構造復元処理の一例An example of detailed structure restoration processing 詳細道路形状付加部の機能ブロック図Detailed functional block diagram of road shape addition part 付加情報優先度の一例An example of additional information priority 進行路対応制御部の機能ブロック図Functional block diagram of the course correspondence control unit 認識処理選択部の機能ブロック図Functional block diagram of the recognition process selection unit 認識処理設定部の機能ブロック図Functional block diagram of the recognition process setting unit 設定された路端処理領域の一例An example of the set roadside processing area 設定された車線処理領域の一例An example of the set lane processing area 走行路のモデルフィッティング処理の一例An example of the model fitting process of the road ラベル付加の一例An example of labeling 処理フローチャートProcessing flowchart

以下、本発明の一実施例に係る車載環境認識装置100を、図面を用いて説明する。
<車載環境認識装置100>
本実施例の車載環境認識装置100は、進行路の詳細構造を事前に提供することで、運転手による手動運転や自動運転システムによる自動運転を補助するものである。
Hereinafter, the in-vehicle environment recognition device 100 according to an embodiment of the present invention will be described with reference to the drawings.
<In-vehicle environment recognition device 100>
The vehicle-mounted environment recognition device 100 of the present embodiment assists the manual driving by the driver and the automatic driving by the automatic driving system by providing the detailed structure of the traveling path in advance.

図1の機能ブロック図に示すように、本実施例の車載環境認識装置100は、外部の環境計測センサ1、外部機器6と接続されており、内部に地図情報部2、進行路解析部3、進行路対応制御部4、外部機器制御部5を備えている。なお、ここに例示した構成はあくまで一例であって、環境計測センサ1と外部機器6を車載環境認識装置100に内蔵した構成としても良いし、地図情報部2を車載環境認識装置100から分離した構成としても良い。以下では、各構成を概説した後、各構成を詳説する。 As shown in the functional block diagram of FIG. 1, the in-vehicle environment recognition device 100 of this embodiment is connected to an external environment measurement sensor 1 and an external device 6, and has a map information unit 2 and a traveling path analysis unit 3 inside. , The traveling path correspondence control unit 4 and the external device control unit 5 are provided. The configuration illustrated here is just an example, and the environment measurement sensor 1 and the external device 6 may be built in the vehicle-mounted environment recognition device 100, or the map information unit 2 may be separated from the vehicle-mounted environment recognition device 100. It may be configured. In the following, each configuration will be outlined and then each configuration will be described in detail.

車載環境認識装置100は、実際には、CPU等の演算装置、主記憶装置、補助記憶装置、および、通信装置などのハードウェアを備えた計算機(自動車分野においては、ECU(Electronic Control Unit)とも呼ばれる)により実現されるものである。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、地図情報部2、進行路解析部3等の各機能を実現するが、以下では、このような計算機分野での周知技術を適宜省略しながら説明する。 The in-vehicle environment recognition device 100 is actually a computer (in the automobile field, an ECU (Electronic Control Unit)) equipped with hardware such as an arithmetic unit such as a CPU, a main storage device, an auxiliary storage device, and a communication device. It is realized by (called). Then, the arithmetic unit executes the program loaded in the main storage device while referring to the database recorded in the auxiliary storage device, thereby realizing each function of the map information unit 2, the course analysis unit 3, and the like. , Hereinafter, such well-known techniques in the computer field will be described while appropriately omitting them.

環境計測センサ1は、車両の外部環境を計測し、計測データを出力するセンサである。 The environment measurement sensor 1 is a sensor that measures the external environment of the vehicle and outputs the measurement data.

地図情報部2は、主として、後述する汎用地図Mgと詳細地図Mdを保持すると共に、GNSS情報を利用して自車位置を取得するものである。ここで、汎用地図Mgは、簡易的な地図であり、例えば、車両に搭載したカーナビゲーションシステムから取得した地図である。一方、詳細地図Mdは、汎用地図Mg等に含まれない詳細な環境情報も含む地図であり、環境計測センサ1の計測データに基づいて認識した環境情報等を汎用地図Mgに付加して作成された地図である。なお、汎用地図Mgとともに、或いは、汎用地図Mgに代えて、ネットワーク経由でサーバから取得した地図情報(以下、サーバ地図Msと称する)を保持する構成としても良い。このサーバ地図Msは、汎用地図Mgと同程度の情報量を持ち、かつ、諸データが地図業者等によって随時更新されている地図である。 The map information unit 2 mainly holds the general-purpose map Mg and the detailed map Md, which will be described later, and acquires the position of the own vehicle by using the GNSS information. Here, the general-purpose map Mg is a simple map, for example, a map acquired from a car navigation system mounted on a vehicle. On the other hand, the detailed map Md is a map including detailed environmental information that is not included in the general-purpose map Mg or the like, and is created by adding the environmental information or the like recognized based on the measurement data of the environmental measurement sensor 1 to the general-purpose map Mg or the like. It is a map. In addition, the map information (hereinafter, referred to as server map Ms) acquired from the server via the network may be held together with the general-purpose map Mg or instead of the general-purpose map Mg. This server map Ms is a map having the same amount of information as the general-purpose map Mg, and various data are updated at any time by a map vendor or the like.

進行路解析部3は、主として、汎用地図Mg上の自車Vの位置と進行方向を解析し、自車Vが次に遭遇する走行路変化点の基本構造(交差点の形状等)を事前に取得する。進行路解析部3は更に、取得した基本構造等から、進行路の車線幅、路肩位置、車線数などの詳細構造を予測する。 The traveling path analysis unit 3 mainly analyzes the position and traveling direction of the own vehicle V on the general-purpose map Mg, and preliminarily analyzes the basic structure (shape of the intersection, etc.) of the traveling path change point that the own vehicle V encounters next. get. The course analysis unit 3 further predicts detailed structures such as the lane width, the shoulder position, and the number of lanes of the course from the acquired basic structure and the like.

進行路対応制御部4は、主として、進行路解析部3が予測した進行路の詳細構造を踏まえ、環境計測センサ1の計測データを利用し、道路形状等の環境情報を認識する。より詳細には、進行路解析部3が予測した道路形状、誤差量などに応じて走行路や路端など道路形状の認識手法や処理領域などを動的に変更させることで、より安定的かつ高精度に道路形状等の環境を認識する。 The course path correspondence control unit 4 mainly recognizes environmental information such as a road shape by using the measurement data of the environment measurement sensor 1 based on the detailed structure of the course path predicted by the course path analysis unit 3. More specifically, it is more stable by dynamically changing the recognition method and processing area of the road shape such as the road and the road edge according to the road shape and the amount of error predicted by the traveling road analysis unit 3. Recognize the environment such as road shape with high accuracy.

外部機器制御部5は、主として、進行路対応制御部4の決定に基づいて環境計測センサ1や外部機器6を制御する。外部機器6がディスプレイやスピーカーである場合には、車載環境認識装置100は、周囲環境の認識結果の表示や、運転サポート情報の表示や、安全支援のための警報などにより、運転手の運転をサポートする。一方、外部機器6が自動運転システムである場合には、車載環境認識装置100は、車両制御に必要な環境情報を予め提供することで、より適切な自動運転の実現をサポートする。 The external device control unit 5 mainly controls the environment measurement sensor 1 and the external device 6 based on the determination of the travel path correspondence control unit 4. When the external device 6 is a display or a speaker, the in-vehicle environment recognition device 100 displays the recognition result of the surrounding environment, displays driving support information, warns for safety support, and the like to drive the driver. to support. On the other hand, when the external device 6 is an automatic driving system, the in-vehicle environment recognition device 100 supports the realization of more appropriate automatic driving by providing the environmental information necessary for vehicle control in advance.

以上で概説した、環境計測センサ1、地図情報部2、進行路解析部3、進行路対応制御部4、外部機器制御部5の詳細を以下で順次説明する。
<環境計測センサ1>
図2に示すように、環境計測センサ1は、フロントセンサ11と、マッチング部12と、3D点群取得部13と、を備えている。
The details of the environment measurement sensor 1, the map information unit 2, the traveling path analysis unit 3, the traveling path corresponding control unit 4, and the external device control unit 5 outlined above will be sequentially described below.
<Environmental measurement sensor 1>
As shown in FIG. 2, the environment measurement sensor 1 includes a front sensor 11, a matching unit 12, and a 3D point cloud acquisition unit 13.

フロントセンサ11は、例えば、車内に設置した、前方を撮像するステレオカメラである。ステレオカメラは、左カメラ11Lと右カメラ11Rを、所定間隔を隔てて左右方向に併設したカメラである。なお、以下では、フロントセンサ11にステレオカメラを用いた例を説明するが、フロントセンサ11は自車Vの前方を計測できるものであれば良く、単眼カメラやLIDARであってもよい。 The front sensor 11 is, for example, a stereo camera installed in the vehicle that captures the front. The stereo camera is a camera in which a left camera 11L and a right camera 11R are arranged side by side with a predetermined interval. In the following, an example in which a stereo camera is used for the front sensor 11 will be described, but the front sensor 11 may be a monocular camera or a lidar as long as it can measure the front of the vehicle V.

マッチング部12は、ステレオカメラが撮像した左右の画像中に同一の対象物を捕らえている場合、左右の画像上での同一対象物の画像位置をマッチング処理により特定し、左右のカメラから見た場合の画像上に写される位置の違い(視差)を特定することで、当該対象物との距離を測定する。 When the matching unit 12 captures the same object in the left and right images captured by the stereo camera, the matching unit 12 identifies the image position of the same object on the left and right images by a matching process and views the same object from the left and right cameras. By identifying the difference in position (parallax) projected on the image of the case, the distance to the object is measured.

3D点群取得部13は、左右カメラを三角形の底辺とし、画像上の同一対象物の位置を頂点とする三角形を特定することで、三角測量により対象物の3次元位置を復元する。
<地図情報部2>
図3に示すように、地図情報部2は、汎用地図保存部21と、GNSS部22と、詳細地図保存部23と、詳細地図更新部24と、を備えており、地図上での自車Vの位置を特定する。
The 3D point cloud acquisition unit 13 restores the three-dimensional position of the object by triangulation by specifying the triangle whose apex is the position of the same object on the image with the left and right cameras as the bases of the triangle.
<Map Information Department 2>
As shown in FIG. 3, the map information unit 2 includes a general-purpose map storage unit 21, a GNSS unit 22, a detailed map storage unit 23, and a detailed map update unit 24, and the own vehicle on the map. Identify the position of V.

汎用地図保存部21は、カーナビゲーションシステムで利用される簡易的な地図である汎用地図Mgを保存する。汎用地図Mgは、地図上での位置を規定するノードと、ノード同士を連結するリンクと、によって、道路網を表現するものである。例えば、自車Vの周囲の道路網が図4(a)に示す環境である場合、その道路網に対応する汎用地図Mgは、図4(b)のような複数のノード(白丸)とリンク(実線)の組み合わせで表現される。 The general-purpose map storage unit 21 stores the general-purpose map Mg, which is a simple map used in the car navigation system. The general-purpose map Mg expresses a road network by a node that defines a position on a map and a link that connects the nodes. For example, when the road network around the vehicle V is the environment shown in FIG. 4A, the general-purpose map Mg corresponding to the road network is linked to a plurality of nodes (white circles) as shown in FIG. 4B. It is represented by a combination of (solid lines).

GNSS部22は、このノードとリンクの組み合わせで表現された汎用地図Mg上での自車Vの位置を、GNSS情報(Global Navigation Satellite System情報)を利用することで特定する。なお、GNSS情報を利用して特定した位置情報は他センサ(例えば、カメラ、レーダ、ジャイロ、自車Vの挙動)を利用して補正しても良い。 The GNSS unit 22 specifies the position of the own vehicle V on the general-purpose map Mg represented by the combination of this node and the link by using GNSS information (Global Navigation Satellite System information). The position information specified by using the GNSS information may be corrected by using another sensor (for example, the behavior of the camera, radar, gyro, and own vehicle V).

詳細地図保存部23は、環境計測センサ1を用いて計測した環境情報(例えば、車線幅、道路角度、車線数、最も外側車線から路肩までの距離、走行路形状など)を、汎用地図Mgに付加し、詳細地図Mdとして保存する。ここに保存した詳細地図Mdを利用することで、自車Vが同じ走行路を次回走行する場合、前回走行時に保存した詳細情報を利用することで、更に高精度かつ安定的な環境認識が可能となる。 The detailed map storage unit 23 converts the environmental information measured by using the environmental measurement sensor 1 (for example, lane width, road angle, number of lanes, distance from the outermost lane to the shoulder, running road shape, etc.) into the general-purpose map Mg. Add and save as detailed map Md. By using the detailed map Md saved here, when the own vehicle V travels on the same driving path next time, more accurate and stable environment recognition is possible by using the detailed information saved during the previous driving. It becomes.

詳細地図更新部24は、道路の新設や廃道により汎用地図Mgの地図データが古くなった場合や、工事などにより道路が一時的に通行止めとなった場合等に、詳細地図保存部23に保存された詳細地図Mdを更新する。これにより、汎用地図Mgには存在しないが走行可能な道路や、汎用地図Mgには存在するが走行不可能な道路などの情報が、詳細地図Mdに追加される。ただし、道路の新設などの環境情報を検出した場合であっても、一度の検出で詳細地図Mdを直ちに更新する必要は無く、同じ環境情報が繰り返し検出された場合に、詳細地図Mdを更新することとしても良い。
<進行路解析部3>
図5に示すように、進行路解析部3は、基本構造解析部31と、詳細構造解析部32と、を有する。基本構造解析部31は、汎用地図保存部21から取得した汎用地図Mgをベースに、自車Vの進行路上にある道路の基本構造を解析する。また、詳細構造解析部32は、基本構造解析部31が解析した基本構造を基に、情報の強化(付加)や、道路詳細形状の予測を実施する。以下、各々の詳細を説明する。
<基本構造解析部31>
図5に示すように、基本構造解析部31は、進行路データ読込部311、ノード&リンク解析部312、基本道路形状解析部313、自車位置解析部314と、を有する。
The detailed map update unit 24 saves the general-purpose map Mg map data in the detailed map storage unit 23 when the map data of the general-purpose map Mg becomes old due to new construction or abandoned roads, or when the road is temporarily closed due to construction work or the like. The detailed map Md that has been created is updated. As a result, information such as roads that do not exist in the general-purpose map Mg but can be driven and roads that exist in the general-purpose map Mg but cannot be traveled is added to the detailed map Md. However, even when environmental information such as new road construction is detected, it is not necessary to immediately update the detailed map Md with one detection, and when the same environmental information is repeatedly detected, the detailed map Md is updated. It may be a thing.
<Course analysis unit 3>
As shown in FIG. 5, the traveling path analysis unit 3 includes a basic structure analysis unit 31 and a detailed structure analysis unit 32. The basic structure analysis unit 31 analyzes the basic structure of the road on the traveling path of the own vehicle V based on the general-purpose map Mg acquired from the general-purpose map storage unit 21. Further, the detailed structure analysis unit 32 strengthens (adds) information and predicts the detailed road shape based on the basic structure analyzed by the basic structure analysis unit 31. The details of each will be described below.
<Basic structure analysis unit 31>
As shown in FIG. 5, the basic structure analysis unit 31 includes a travel path data reading unit 311, a node & link analysis unit 312, a basic road shape analysis unit 313, and a vehicle position analysis unit 314.

進行路データ読込部311は、汎用地図Mgから自車進行路方向の、ノードとリンクの情報を読み込む。例えば、自車Vが、図4(a)に例示する道路網を走行中であれば、進行路データ読込部311は、図4(b)のようなノードの位置情報とリンクの連結情報を読み込む。なお、汎用地図Mgは、一般的には、例えば5km四方の地図領域に分割されているので、進行路データ読込部311は、汎用地図Mgの全体を取得する必要は無く、自車Vが存在する5km四方のノードとリンクの情報だけを取得することで、以降の処理負荷を小さくする。 The traveling path data reading unit 311 reads the node and link information in the direction of the own vehicle traveling path from the general-purpose map Mg. For example, if the own vehicle V is traveling on the road network illustrated in FIG. 4 (a), the traveling path data reading unit 311 obtains the node position information and the link connection information as shown in FIG. 4 (b). Read. Since the general-purpose map Mg is generally divided into, for example, a map area of 5 km square, the travel path data reading unit 311 does not need to acquire the entire general-purpose map Mg, and the own vehicle V exists. By acquiring only the information of the 5km square node and the link, the subsequent processing load is reduced.

ノード&リンク解析部312は、進行路データ読込部311が取得した、ノードの位置情報とリンクの連結情報に基づいて、図4(b)のように、自車Vの周囲の道路網を地図表現する。 The node & link analysis unit 312 maps the road network around the own vehicle V as shown in FIG. 4B based on the node position information and the link connection information acquired by the travel path data reading unit 311. Express.

自車位置解析部314は、自車Vの位置を取得するものであり、GNSS誤差解析部314aと、センサ誤差解析部314bと、時系列統合補正部314cと、を有する。GNSS誤差解析部314aは、自車挙動とGNSS情報を活用した誤差解析を実施し、自車Vが地図上のどこを走行しているかを地図情報と照らし合わせながら誤差を解析することでより自車位置を高精度に補正する。センサ誤差解析部314bは、慣性センサ(ジャイロ)やカメラ、ミリ波、LIDARなどの情報を利用することで、地図上の縦位置、横位置の誤差を解析する。時系列統合補正部314cは、GNSS誤差解析部314aやセンサ誤差解析部314bで取得した誤差情報を利用して、地図上の位置補正を実施する。ただし、GNSS誤差やセンサ誤差を、瞬間的な判定結果で位置補正を実施すると不確定な情報での位置更新や、不安定な位置更新となりやすい。このため時系列に誤差を解析することで安定的な誤差補正を、時系列統合補正部314cにおいて誤差補正を実施する。 The own vehicle position analysis unit 314 acquires the position of the own vehicle V, and has a GNSS error analysis unit 314a, a sensor error analysis unit 314b, and a time series integrated correction unit 314c. The GNSS error analysis unit 314a performs error analysis utilizing the behavior of the own vehicle and GNSS information, and analyzes the error while comparing where the own vehicle V is traveling on the map with the map information. Correct the vehicle position with high accuracy. The sensor error analysis unit 314b analyzes the vertical position and horizontal position errors on the map by using information such as an inertial sensor (gyro), a camera, millimeter waves, and LIDAR. The time-series integrated correction unit 314c performs position correction on the map by using the error information acquired by the GNSS error analysis unit 314a and the sensor error analysis unit 314b. However, if the GNSS error and the sensor error are corrected by the instantaneous determination result, the position is likely to be updated with uncertain information or the position is unstable. Therefore, stable error correction is performed by analyzing the error in time series, and error correction is performed by the time series integrated correction unit 314c.

基本道路形状解析部313は、ノード&リンク解析部312が地図表現した汎用地図Mg(図4(b))と、自車位置解析部314が取得した自車位置と、に基づいて、自車Vが次に遭遇すると予測される変化点(交差点など)の道路構造を予測する。例えば、自車Vが、汎用地図Mg上の図6(a)に示す位置を走行中の場合、基本道路形状解析部313は、自車Vの前方の破線で囲んだ領域を解析対象とする。そして、基本道路形状解析部313は、図6(b)に例示する複数の基本構造の候補から、図6(a)の破線領域に相当する「十字路」を選択し、これを自車Vが次に遭遇する変化点の基本構造と予測し(図6(c))、さらに、その十字路までの距離なども予測する。
<詳細構造解析部32>
図5に示すように、詳細構造解析部32は、基本道路形状読込部321と、詳細道路形状付加部322と、詳細形状更新部323と、を有する。
The basic road shape analysis unit 313 is based on the general-purpose map Mg (FIG. 4 (b)) represented by the node & link analysis unit 312 and the vehicle position acquired by the vehicle position analysis unit 314. Predict the road structure of the change point (intersection, etc.) that V is expected to encounter next. For example, when the own vehicle V is traveling at the position shown in FIG. 6 (a) on the general-purpose map Mg, the basic road shape analysis unit 313 analyzes the area surrounded by the broken line in front of the own vehicle V. .. Then, the basic road shape analysis unit 313 selects a "crossroads" corresponding to the broken line region of FIG. 6A from the plurality of basic structure candidates illustrated in FIG. 6B, and the own vehicle V selects this. It predicts the basic structure of the next change point to be encountered (Fig. 6 (c)), and also predicts the distance to the crossroads.
<Detailed structure analysis unit 32>
As shown in FIG. 5, the detailed structure analysis unit 32 includes a basic road shape reading unit 321, a detailed road shape adding unit 322, and a detailed shape updating unit 323.

基本道路形状読込部321は、基本構造解析部31で予測した基本構造の情報(例えば、「十字路」)を取得する。 The basic road shape reading unit 321 acquires information on the basic structure (for example, "crossroads") predicted by the basic structure analysis unit 31.

詳細道路形状付加部322は、基本道路形状読込部321が取得した基本構造に、道路の詳細形状等を付加して、詳細構造を復元する。 The detailed road shape addition unit 322 restores the detailed structure by adding the detailed shape of the road and the like to the basic structure acquired by the basic road shape reading unit 321.

図7は、詳細道路形状付加部322による詳細形状の付加と、詳細構造の復元を具体的に説明する図である。図7(a)に例示するように、基本構造解析部31が予測した基本構造が「十字路」である場合、詳細道路形状付加部322は、汎用地図Mgが有する詳細形状の値、後述するデフォルト値、前回の環境認識結果などを利用することで、車線数、車線幅、外側車線から路肩までの距離、交差点における道路同士の角度や、白線の角度など走行路の形状変化などの詳細形状を、基本構造に付加して詳細構造を復元する。 FIG. 7 is a diagram specifically explaining the addition of the detailed shape by the detailed road shape addition portion 322 and the restoration of the detailed structure. As illustrated in FIG. 7A, when the basic structure predicted by the basic structure analysis unit 31 is a “crossroad”, the detailed road shape addition unit 322 has a detailed shape value of the general-purpose map Mg, and a default described later. By using the value, the previous environment recognition result, etc., detailed shapes such as the number of lanes, lane width, distance from the outer lane to the shoulder, the angle between roads at intersections, and the shape change of the road such as the angle of white lines can be obtained. , Add to the basic structure and restore the detailed structure.

図7(b)は、基本構造を基にして復元した詳細構造の一例である。ここに示すように、詳細道路形状付加部322は、図7(a)の基本構造「十字路」に、各道路の車線数、各車線の車線幅、路肩位置、白線交差角度θ、路肩交差角度θ等を肉付けすることで、詳細構造を復元している。 FIG. 7B is an example of a detailed structure restored based on the basic structure. As shown here, the detailed road shape addition portion 322 has the basic structure “crossroads” of FIG. 7A, the number of lanes of each road, the lane width of each lane, the road shoulder position, the white line intersection angle θ 1 , and the road shoulder intersection. The detailed structure is restored by fleshing out the angle θ 2 and the like.

例えば、汎用地図Mgに、車線数、車線幅、走行路や白線同士の角度情報などの詳細形状が登録されている場合であれば、詳細構造解析部32は、それらを利用することで、精度の良い詳細構造を復元する。 For example, if detailed shapes such as the number of lanes, the lane width, and the angle information between the running lanes and the white lines are registered in the general-purpose map Mg, the detailed structural analysis unit 32 can use them to obtain accuracy. Restore a good detailed structure of.

一方、汎用地図Mgに、上述した詳細形状の一部または全部が登録されていない場合は、詳細構造解析部32は、デフォルトの詳細形状等を利用して、詳細構造を復元する。デフォルトの詳細形状は、固定値(例えば、車線数2、車線幅3m、路肩1.5mなど)であっても良いが、汎用地図Mgに登録された道路の種別や等級などの情報に基づいてデフォルト値を設定しても良いし、汎用地図Mgに詳細構造を復元するために利用できる情報が登録されていなければ、間接的な情報を利用して適切な値を設定しても良い。 On the other hand, when a part or all of the above-mentioned detailed shapes are not registered in the general-purpose map Mg, the detailed structure analysis unit 32 restores the detailed structures by using the default detailed shapes and the like. The default detailed shape may be a fixed value (for example, 2 lanes, 3 m lane width, 1.5 m shoulder, etc.), but based on information such as the type and grade of the road registered in the general-purpose map Mg. A default value may be set, or an appropriate value may be set by using indirect information if the information that can be used to restore the detailed structure is not registered in the general-purpose map Mg.

このように、詳細構造解析部32によって、詳細構造の精度をより高めて復元できるので、後述する進行路対応制御部4での認識処理や、外部機器6を介した運転手や自動運転システムへのフィードバック情報をより適切なものとすることができる。 In this way, since the detailed structure analysis unit 32 can restore the detailed structure with higher accuracy, the recognition process by the traveling path correspondence control unit 4 described later, the driver or the automatic driving system via the external device 6 can be performed. Feedback information can be made more appropriate.

ここで、詳細形状の設定方法を、表1〜表8を参照しながら説明する。 Here, a method of setting the detailed shape will be described with reference to Tables 1 to 8.

表1は、道路構造令の第3条第1項が定める道路の種別であり、表2は、道路構造令の第3条第2項等が定める道路の等級である。 Table 1 shows the types of roads specified in Article 3, Paragraph 1 of the Road Structure Ordinance, and Table 2 shows the grades of roads specified in Article 3, Paragraph 2 of the Road Structure Ordinance.

Figure 2020153908
Figure 2020153908

Figure 2020153908
Figure 2020153908

これらの表から、例えば、都市部の高速自動車国道であれば「第2種」の道路に分類され、また、例えば、計画交通量が2万台/日以上の平地部の一般道路であれば「第1級」の道路に分類されることが分かる。 From these tables, for example, national expressways in urban areas are classified as "Type 2" roads, and for example, general roads in flat areas with a planned traffic volume of 20,000 vehicles / day or more. It can be seen that it is classified as a "first-class" road.

このような種別・等級の情報が汎用地図Mgに登録されている場合には、詳細道路形状付加部322は、この種別情報と等級情報に応じたデフォルト値を利用して、詳細構造を高精度に復元することができる。 When such type / grade information is registered in the general-purpose map Mg, the detailed road shape addition unit 322 uses the type information and the default value corresponding to the grade information to make the detailed structure highly accurate. Can be restored to.

例えば、道路構造令が、道路の種別と等級の組み合わせに応じた法定値を定めている車線幅などは、その法定値をそのままデフォルト値として利用する。具体的には、道路構造令の第5条第4項が定める車線幅の法定値(表3)、または、道路構造令の第8条第2項、第4項、第7項が定める路肩幅の法定値(表4)を利用することで、詳細道路形状付加部322は、法定値を遵守した交差点等の詳細構造を精度良く復元することができる。 For example, for a lane width or the like in which the Road Structure Ordinance sets a legal value according to a combination of road type and grade, the legal value is used as it is as a default value. Specifically, the statutory value of the lane width specified in Article 5, Paragraph 4 of the Road Structure Ordinance (Table 3), or the road specified in Article 8, Paragraphs 2, 4, and 7 of the Road Structure Ordinance. By using the legal value of the shoulder width (Table 4), the detailed road shape addition portion 322 can accurately restore the detailed structure such as an intersection that complies with the legal value.

Figure 2020153908
Figure 2020153908

Figure 2020153908
Figure 2020153908

しかし、汎用地図Mgに道路の種別と等級の組み合わせが登録されておらず、表3や表4からは法定値を求めることができない場合もある。そのような場合には、詳細道路形状付加部322は、汎用地図Mgに登録された他の情報をベースに、デフォルト値を切り替えることで、詳細構造の復元精度の向上を図る。 However, there are cases where the combination of road type and grade is not registered in the general-purpose map Mg, and the legal value cannot be obtained from Tables 3 and 4. In such a case, the detailed road shape addition unit 322 aims to improve the restoration accuracy of the detailed structure by switching the default value based on other information registered in the general-purpose map Mg.

例えば、汎用地図Mgに道路の種別情報は登録されているが、道路の等級情報が登録されていない場合は、表5を用いて片側車線数等のデフォルト値を設定する。反対に、汎用地図Mgに道路の等級情報は登録されているが、道路の種別情報が登録されていない場合は、表6を用いて片側車線数等のデフォルト値を設定する。このように、表5や表6を用いる場合であっても、道路の幅や車線数を大まかに予測する際には有用な情報となり、まったく情報がない場合と比較すれば、詳細構造の復元精度を向上させることができる。 For example, when the road type information is registered in the general-purpose map Mg but the road grade information is not registered, a default value such as the number of lanes on one side is set using Table 5. On the contrary, when the road grade information is registered in the general-purpose map Mg but the road type information is not registered, the default value such as the number of lanes on one side is set by using Table 6. In this way, even when Table 5 or Table 6 is used, it is useful information when roughly predicting the width of the road and the number of lanes, and the detailed structure is restored as compared with the case where there is no information at all. The accuracy can be improved.

Figure 2020153908
Figure 2020153908

Figure 2020153908
Figure 2020153908

次に、汎用地図Mgに詳細構造を復元する直接的な車線幅、車線数、路肩などの情報が登録されておらず、更に、道路の種別情報も等級情報も登録されていない場合(すなわち、表3〜表6の何れも利用できない場合)の、デフォルト値の設定方法を2つ例示する。 Next, when the information such as the direct lane width, the number of lanes, and the road shoulder for restoring the detailed structure is not registered in the general-purpose map Mg, and neither the road type information nor the grade information is registered (that is,). Two methods of setting the default value in (when none of Tables 3 to 6 can be used) are illustrated.

例えば、汎用地図Mgに、道路の種別情報や等級情報が登録されていないが、道路の種類に関する大まかな情報が登録されている場合は、表7を用いて、道路の種類に応じた片側車線数等のデフォルト値を設定する。なお、汎用地図Mgに表7中のデフォルト値が部分的にでも登録されている場合には、汎用地図Mg中のデフォルト値を優先し、不足している情報のみを表7から引用すれば良い。また、汎用地図Mgに、道路の種類に関する大まかな情報も登録されていないが、汎用地図Mg等から制限速度情報を取得できる場合は、表8を用いて、制限速度に応じて片側車線数等のデフォルト値を動的に切り替える。このように、表7や表8を用いてデフォルト値を動的に設定する場合であっても、まったく情報がない場合と比較すれば、詳細構造の復元精度を向上させることができる。 For example, if road type information and grade information are not registered in the general-purpose map Mg, but rough information on road types is registered, use Table 7 to use one-sided lane according to the road type. Set default values such as numbers. If the default values in Table 7 are partially registered in the general-purpose map Mg, the default values in the general-purpose map Mg should be prioritized and only the missing information should be quoted from Table 7. .. In addition, although rough information on the type of road is not registered in the general-purpose map Mg, if the speed limit information can be obtained from the general-purpose map Mg or the like, use Table 8 and refer to the number of lanes on each side according to the speed limit. Dynamically switch the default value of. As described above, even when the default value is dynamically set using Table 7 and Table 8, the restoration accuracy of the detailed structure can be improved as compared with the case where there is no information at all.

Figure 2020153908
Figure 2020153908

Figure 2020153908
Figure 2020153908

<詳細形状更新部323>
図5に示すように、詳細形状更新部323は、路端更新部323aと、車線更新部323bと、起伏更新部323cと、を有する。
<Detailed shape update unit 323>
As shown in FIG. 5, the detailed shape update unit 323 includes a roadside update unit 323a, a lane update unit 323b, and an undulation update unit 323c.

路端更新部323aは、最外側の車線と路端の位置関係に関する路端情報や、車線や路端の形状の変形に関する路端情報を更新する。車線更新部323bは、走行路の車線数、交差点や分岐合流における車線形状の複雑な変化、車線幅の情報、走行路同士の角度などの、汎用地図情報Mgには記載のない車線情報を更新する。起伏更新部323cは、走行路の凹凸や傾斜に関する起伏情報を更新する。 The roadside updating unit 323a updates the roadside information regarding the positional relationship between the outermost lane and the roadside, and the roadside information regarding the deformation of the shape of the lane or the roadside. The lane update unit 323b updates lane information that is not described in the general-purpose map information Mg, such as the number of lanes in the lane, complex changes in lane shape at intersections and merging, lane width information, and angles between lanes. To do. The undulation update unit 323c updates the undulation information regarding the unevenness and inclination of the traveling path.

これらの各々は、上述した更新処理に加え、路端、車線、走行路の起伏などの環境情報の信頼度に基づいて、次回、同じ場所を走行した際に、その環境情報を再利用して良いかも判断する。例えば、信頼度の低い環境情報は、進行路対応制御部4での今回の道路形状認識だけに利用する暫定情報と判断され、地図情報部2へは送信しない。一方、信頼度の高い環境情報は、進行路対応制御部4での今回の道路形状認識に利用するだけでなく、以後も再利用する環境情報と判断され、その信頼度とともに地図情報部2へ送信し、詳細地図Mdに保存させる。 In addition to the above-mentioned update process, each of these will reuse the environmental information the next time the vehicle travels in the same location, based on the reliability of the environmental information such as roadsides, lanes, and undulations of the road. Judge whether it is good. For example, the unreliable environmental information is determined to be provisional information used only for the current road shape recognition by the travel path correspondence control unit 4, and is not transmitted to the map information unit 2. On the other hand, the highly reliable environmental information is determined to be environmental information that is not only used for the road shape recognition of this time by the traveling path correspondence control unit 4 but also reused thereafter, and is sent to the map information unit 2 together with the reliability. Send and save in detailed map Md.

環境情報の再利用可否判断の具体例を挙げれば、住宅地に向かう道路上で進行方向と直交する凸形状が計測された場合、起伏更新部323cは、当該凸形状が速度抑制用のBUMPやHUMPである可能性が高いと判断し、当該の凸形状に関する起伏情報を信頼度が高く詳細地図Mdに登録すべき環境情報として地図情報部2へ送信する。 To give a specific example of determining whether or not environmental information can be reused, when a convex shape orthogonal to the traveling direction is measured on a road leading to a residential area, the undulation update unit 323c has a BUMP or BUMP for speed suppression. It is determined that there is a high possibility of HUMP, and the undulation information regarding the convex shape is transmitted to the map information unit 2 as environmental information to be registered in the detailed map Md with high reliability.

なお、信頼度の高い環境情報であっても、一度測定しただけで直ちに地図情報部2に送信する必要は無く、同じ情報が繰り返し計測された場合に地図情報部2に送信しても良い。これは、一度計測しただけの環境情報は、工事中の暫定的な車線幅を検出したものであったり、駐車車両が隠した白線を検出できなかったものであったりするので、同じ場所で繰り返し計測された信頼できる環境情報のみを登録することで、詳細地図Mdの信頼度を高めるためである。 It should be noted that even highly reliable environmental information does not need to be immediately transmitted to the map information unit 2 after being measured once, and may be transmitted to the map information unit 2 when the same information is repeatedly measured. This is because the environmental information measured only once may be the one that detected the provisional lane width during construction, or the one that could not detect the white line hidden by the parked vehicle, so repeat it at the same place. This is to increase the reliability of the detailed map Md by registering only the measured and reliable environmental information.

また、今回の環境認識で得られた環境情報の信頼度が極めて高く、かつ、地図情報部2に既に保存されていた環境情報との一致度も高い場合は、既存の環境情報と新規の環境情報を融合させて、詳細地図Md上の詳細形状を更新してもよい。
<詳細道路形状付加部322>
次に、図7で具体的な処理を説明した詳細道路形状付加部322の更なる詳細を、図8を用いて説明する。ここに示すように、詳細道路形状付加部322は、優先度調整部322aと、付加情報選択部322bと、形状復元部322cと、を有する。
In addition, if the reliability of the environmental information obtained by this environmental recognition is extremely high and the degree of agreement with the environmental information already stored in the map information unit 2 is also high, the existing environmental information and the new environment The detailed shape on the detailed map Md may be updated by fusing the information.
<Detailed road shape addition part 322>
Next, further details of the detailed road shape addition portion 322 for which the specific processing has been described with reference to FIG. 7 will be described with reference to FIG. As shown here, the detailed road shape addition unit 322 includes a priority adjustment unit 322a, an additional information selection unit 322b, and a shape restoration unit 322c.

図7で説明したように、詳細道路形状付加部322は、基本道路形状読込部321が取得した基本構造に対して、車線幅、車線数、路肩情報などの詳細形状を付加し、詳細構造を復元するものであるが、詳細形状の情報源が複数存在する場合は、どの情報源を優先的に利用するかを判断する必要がある。 As described with reference to FIG. 7, the detailed road shape addition unit 322 adds detailed shapes such as lane width, number of lanes, and road shoulder information to the basic structure acquired by the basic road shape reading unit 321 to provide a detailed structure. Although it is to be restored, when there are multiple information sources with detailed shapes, it is necessary to determine which information source should be used preferentially.

そこで、優先度調整部322aでは、道路の詳細構造を復元する際に利用する情報源の優先度を調整する。 Therefore, the priority adjusting unit 322a adjusts the priority of the information source used when restoring the detailed structure of the road.

図9の「固定環境情報」列に示すように、値が固定された環境情報に関しては、利用可能な情報源の中で最も優先度の高い(優先度の数値の小さい)情報源を利用する。例えば、「車線幅」を例にすると、サーバから取得したサーバ地図Ms内に道路別の「車線幅」が設定されている場合は、サーバ地図Msの「車線幅」情報を利用する(優先度1)。サーバ地図Msから「車線幅」情報を取得できず、汎用地図Mgから「車線幅」情報を取得できる場合は、この汎用地図Mgの「車線幅」情報を利用する(優先度2)。サーバ地図Ms、汎用地図Mgの何れからも「車線幅」情報を取得できない場合は、上述した、表3〜表8に定められた法定値やデフォルト値のなかで最も優先度の高いものを利用する(優先度3〜優先度5)。更に、表3〜表8も利用できない場合には、全固定のデフォルト値(既出の例でいえば、車線数2、車線幅3m、路肩1.5mなどの環境情報)を利用しても良い。 As shown in the “Fixed environment information” column of FIG. 9, for the environment information with a fixed value, the information source having the highest priority (the numerical value of the priority is small) among the available information sources is used. .. For example, taking "lane width" as an example, if "lane width" for each road is set in the server map Ms acquired from the server, the "lane width" information of the server map Ms is used (priority). 1). If the "lane width" information cannot be obtained from the server map Ms and the "lane width" information can be obtained from the general-purpose map Mg, the "lane width" information of this general-purpose map Mg is used (priority 2). If "lane width" information cannot be obtained from either the server map Ms or the general-purpose map Mg, use the one with the highest priority among the legal values and default values specified in Tables 3 to 8 described above. (Priority 3 to Priority 5). Furthermore, if Tables 3 to 8 cannot be used, all fixed default values (environmental information such as the number of lanes 2, lane width 3 m, and shoulder 1.5 m in the above example) may be used. ..

更に、上述したように、認識した環境情報のうちある程度の信頼度を超えたものは、詳細形状更新部323によって、地図情報部2の詳細地図Mdに登録されているので、詳細地図Mdに登録された環境情報を再利用することで、次の変化点の「車線幅」を、事前に把握することができる。 Further, as described above, the recognized environmental information that exceeds a certain degree of reliability is registered in the detailed map Md of the map information unit 2 by the detailed shape updating unit 323, and is therefore registered in the detailed map Md. By reusing the provided environmental information, it is possible to grasp the "lane width" of the next change point in advance.

なお、図9においては、優先度の優劣を整数で表現しているが、優先度1.4のように整数でない優先度を設定しても良い。例えば、サーバ地図Msや汎用地図Mg等に登録された固定環境情報には整数の優先度を設定する一方、環境計測センサ1の計測データにより認識された、信頼度が変動する動的環境情報には優先度1〜優先度4の範囲内で信頼度に応じた整数に限定されない優先度を設定し、優先度が僅かでも小さい環境情報を利用できるようにしても良い。 In FIG. 9, the superiority or inferiority of the priority is expressed by an integer, but a priority that is not an integer such as priority 1.4 may be set. For example, while setting an integer priority for fixed environment information registered in the server map Ms, general-purpose map Mg, etc., the dynamic environment information whose reliability fluctuates recognized by the measurement data of the environment measurement sensor 1 May set a priority within the range of priority 1 to priority 4, which is not limited to an integer according to the reliability, so that environment information having a small priority can be used.

また、以上では、基本構造に付加する詳細形状が「車線幅」である場合を例にして説明したが、「車線数」や「路肩」を付加する場合であっても、優先度を利用して詳細構造を設定することができる。また、情報源によっては欠落する情報もあるため、その場合は、複数の情報源から取得した情報を統合することで、所望の情報を含む詳細構造を復元しても良い。 Further, in the above description, the case where the detailed shape to be added to the basic structure is "lane width" has been described as an example, but even when "the number of lanes" and "road shoulder" are added, the priority is used. The detailed structure can be set. Further, since some information is missing depending on the information source, in that case, the detailed structure including the desired information may be restored by integrating the information acquired from a plurality of information sources.

このように、詳細道路形状付加部322は、各環境情報の信頼度に応じて詳細地図Mdに保存された情報の優先度を更新していく。詳細地図Md上に過去に保存された環境情報が全く存在しない場合には、環境計測センサ1の計測データにより認識されたある程度信頼度が高い環境情報を優先度4に設定して登録する。これに対して誤差範囲内の環境情報が更新された場合には、それらの環境情報の値を平均化し更新するとともに優先度を少しずつ高くしていく。データは毎回の環境情報の値を保存し、はずれ値は削除し、優先度を下げる。はずれ値以外は優先度を上昇させて、環境認識結果の平均値を保存する。もしくは環境認識結果をフィルタリングし現在値にウェイトを高くし、過去値を低くしたようなフィルタ設計でも良い。また、連続してはずれ値が入ってくるような場合には、従来値が間違えていた、もしくは道路の工事により実際に走行路のデータが更新された場合もあるので、ある一定時間以上の時間が計画しておりなおかつ、5度以上連続して大きく異なるデータが入ってきた場合には、優先度を優先度4へ初期設定すると同時に値を新しいデータへ書き換える。このようにすることで実際の道路工事などによるデータの更新などにも対応する。
<進行路対応制御部4>
図10に示すように、進行路対応制御部4は、認識処理選択部41、認識処理設定部42、路端認識部43、車線認識部44、露光調整部45、カメラ姿勢補正部46、センサ異常検出部47を有する。
In this way, the detailed road shape addition unit 322 updates the priority of the information stored in the detailed map Md according to the reliability of each environmental information. If there is no environmental information stored in the past on the detailed map Md, the environmental information with a certain degree of reliability recognized by the measurement data of the environmental measurement sensor 1 is set to priority 4 and registered. On the other hand, when the environmental information within the error range is updated, the values of the environmental information are averaged and updated, and the priority is gradually increased. The data saves the value of the environmental information each time, deletes the outliers, and lowers the priority. Raise the priority except for outliers and save the average value of the environment recognition results. Alternatively, the filter design may be such that the environment recognition result is filtered, the weight is increased to the current value, and the past value is decreased. In addition, if outliers come in continuously, the conventional value may have been wrong, or the road data may have been actually updated due to road construction, so it will take a certain amount of time or longer. Is planned, and if significantly different data comes in 5 times or more in a row, the priority is initially set to priority 4 and the value is rewritten to new data at the same time. By doing so, it is possible to update data due to actual road construction.
<Traveling path correspondence control unit 4>
As shown in FIG. 10, the traveling path correspondence control unit 4 includes a recognition process selection unit 41, a recognition process setting unit 42, a roadside recognition unit 43, a lane recognition unit 44, an exposure adjustment unit 45, a camera posture correction unit 46, and a sensor. It has an abnormality detection unit 47.

この進行路対応制御部4は、進行路解析部3から予め取得した変化点(交差点等)の詳細構造を踏まえ、環境計測センサ1の測定データに基づき道路形状を認識するものであり、単路を想定して初期設定されている道路形状認識処理の認識ロジックを、進行路の道路形状に合わせて動的に変更して、より適切な認識ロジックにより環境情報を認識する。同様に、露光調整やカメラ姿勢補正、センサ異常検出についても、進行路の詳細構造を踏まえた処理を実施することで、本来の処理よりも適切な処理を可能とする。以下、各々の詳細を説明する。
<認識処理選択部41>
認識処理選択部41は、進行路の基本構造に応じた認識ロジック(処理領域数や特徴量抽出法)を選択するものであり、図11に示すように、路端処理領域数選択部411、路端抽出法選択部412、車線処理領域数選択部413、車線抽出法選択部414、を有する。なお、以下では、進行路対応制御部4の処理データが、ステレオカメラで撮像された画像データであるものとして説明を進めるが、処理データは、環境計測センサ1から取得した3D点群データ等の他種のデータであっても良い。
The course path correspondence control unit 4 recognizes the road shape based on the measurement data of the environment measurement sensor 1 based on the detailed structure of the change point (intersection, etc.) acquired in advance from the course path analysis unit 3, and is a single road. The recognition logic of the road shape recognition process, which is initially set on the assumption that the above is assumed, is dynamically changed according to the road shape of the traveling path, and the environmental information is recognized by a more appropriate recognition logic. Similarly, for exposure adjustment, camera attitude correction, and sensor abnormality detection, by performing processing based on the detailed structure of the traveling path, it is possible to perform processing more appropriate than the original processing. The details of each will be described below.
<Recognition processing selection unit 41>
The recognition processing selection unit 41 selects the recognition logic (number of processing areas and feature amount extraction method) according to the basic structure of the traveling path, and as shown in FIG. 11, the roadside processing area number selection unit 411, It has a roadside extraction method selection unit 412, a lane processing area number selection unit 413, and a lane extraction method selection unit 414. In the following, the description will proceed assuming that the processing data of the traveling path correspondence control unit 4 is image data captured by a stereo camera, but the processing data is 3D point cloud data or the like acquired from the environment measurement sensor 1. It may be other kinds of data.

路端処理領域数選択部411は、進行路の基本構造に応じて路端抽出処理を実行する領域数を選択する。フロントセンサ11がステレオカメラであるときは、自車Vの前方100m程度を計測しているので、例えば、前方100m以内の進行路が単路であれば、自車Vの左右に2本の平行な路端が存在すると想定し、それらを抽出できるように、路端処理領域数「2」を選択する。また、前方100m以内の進行路に十字路があれば、自車Vの左右に2本の平行な路端があり、自車Vの前方に2本の平行な路端があると想定し、それらを抽出できるように、路端処理領域数「4」を選択する。 The roadside processing area number selection unit 411 selects the number of areas for executing the roadside extraction processing according to the basic structure of the traveling path. When the front sensor 11 is a stereo camera, it measures about 100 m ahead of the vehicle V. Therefore, for example, if the traveling path within 100 m ahead is a single road, two parallel roads are parallel to the left and right of the vehicle V. Assuming that there are various roadsides, the number of roadside processing areas "2" is selected so that they can be extracted. Also, if there is a crossroads on the road within 100 m ahead, it is assumed that there are two parallel roadsides on the left and right of the vehicle V, and there are two parallel roadsides in front of the vehicle V. The number of roadside processing areas "4" is selected so that

同様に、車線処理領域数選択部413は、進行路の基本構造に応じて車線抽出処理を実行する領域数を選択する。例えば、前方100m以内の進行路が単路であれば、自車Vの進行方向に沿った車線が存在すると想定し、それらを抽出できるように、車線処理領域数「1」を選択する。また、前方100m以内の進行路に十字路があれば、交差点の前後左右に、自車Vの進行方向に沿った車線と、また、自車Vの進行方向に垂直な車線があると想定し、それらを抽出できるように、車線処理領域数「4」を選択する。 Similarly, the lane processing area number selection unit 413 selects the number of areas for executing the lane extraction process according to the basic structure of the traveling path. For example, if the traveling road within 100 m ahead is a single road, it is assumed that there are lanes along the traveling direction of the own vehicle V, and the number of lane processing areas "1" is selected so that they can be extracted. Also, if there is a crossroads within 100 m ahead, it is assumed that there are lanes along the direction of travel of the vehicle V and lanes perpendicular to the direction of travel of the vehicle V on the front, back, left, and right of the intersection. The number of lane processing areas "4" is selected so that they can be extracted.

また、路端抽出法選択部412は、進行路の基本構造に応じて路端特徴量の抽出法を選択する。例えば、前方100m以内の進行路が単路であれば、設定した路端処理領域を横方向に探索する路端抽出法を設定する。また、前方100m以内の進行路に十字路があれば、自車Vの進行方向に沿った路端処理領域には横方向に探索する路端抽出法を選択し、自車Vの進行方向と垂直な路端処理領域には縦方向に探索する路端抽出法を選択する。 Further, the roadside extraction method selection unit 412 selects a roadside feature amount extraction method according to the basic structure of the traveling path. For example, if the traveling path within 100 m ahead is a single road, a roadside extraction method for laterally searching the set roadside processing area is set. If there is a crossroads on the road within 100 m ahead, a roadside extraction method that searches laterally for the roadside processing area along the traveling direction of the vehicle V is selected, and is perpendicular to the traveling direction of the vehicle V. For the roadside processing area, select the roadside extraction method for searching in the vertical direction.

同様に、車線抽出法選択部414は、進行路の基本構造に応じて車線特徴量の抽出法を選択する。例えば、前方100m以内の進行路が単路であれば、設定した車線処理領域を横方向に探索する車線抽出法を選択する。また、前方100m以内の進行路に十字路があれば、自車Vの進行方向に沿った車線処理領域には横方向に探索する車線抽出法を選択し、自車Vの進行方向と垂直な車線処理領域には縦方向に探索する車線特徴量抽出法を選択する。
<認識処理設定部42>
図12に示すように、認識処理設定部42は、路端処理領域設定部421、路端領域別抽出法設定部422、車線処理領域設定部423、車線領域別抽出法設定部424、を有しており、各設定部は、認識処理選択部41が選択した処理領域数と特徴量抽出法を用いて環境計測センサ1の計測データを処理できるようにする。
Similarly, the lane extraction method selection unit 414 selects a lane feature extraction method according to the basic structure of the traveling path. For example, if the traveling road within 100 m ahead is a single road, a lane extraction method for laterally searching the set lane processing area is selected. If there is a crossroads within 100 m ahead, select a lane extraction method that searches laterally for the lane processing area along the direction of travel of the vehicle V, and lanes that are perpendicular to the direction of travel of the vehicle V. For the processing area, select the lane feature extraction method for searching in the vertical direction.
<Recognition processing setting unit 42>
As shown in FIG. 12, the recognition processing setting unit 42 includes a roadside processing area setting unit 421, a roadside area-specific extraction method setting unit 422, a lane processing area setting unit 423, and a lane area-specific extraction method setting unit 424. Each setting unit enables the measurement data of the environment measurement sensor 1 to be processed by using the number of processing areas selected by the recognition processing selection unit 41 and the feature amount extraction method.

例えば、前方100m以内の進行路に十字路がある場合は、路端処理領域設定部421は、路端処理領域数選択部411の選択を踏まえ、路端処理領域として、走行路と歩道の境界にある段差の路肩が含まれるような大きさの4領域(図13A参照)を画像データに設定する。また、同条件下においては、車線処理領域設定部423は、車線処理領域数選択部413の選択を踏まえ、車線処理領域として、交差点の前後左右の路上にある車線が含まれるような大きさの4領域(図13B参照)を画像データに設定する。さらに、路端領域別抽出法設定部422と車線領域別抽出法設定部424は、各領域に対する特徴量抽出方法として、路端抽出法選択部412や車線抽出法選択部414が選択した特徴量抽出法を設定する。 For example, when there is a crossroad on a traveling road within 100 m ahead, the roadside processing area setting unit 421 sets the roadside processing area at the boundary between the traveling road and the sidewalk as the roadside processing area based on the selection of the roadside processing area number selection unit 411. Four regions (see FIG. 13A) having a size so as to include a road shoulder of a certain step are set in the image data. Further, under the same conditions, the lane processing area setting unit 423 is large enough to include lanes on the front, rear, left, and right roads of the intersection as the lane processing area based on the selection of the lane processing area number selection unit 413. Four areas (see FIG. 13B) are set as image data. Further, the roadside region-specific extraction method setting unit 422 and the lane-specific extraction method setting unit 424 have feature quantities selected by the roadside extraction method selection unit 412 and the lane extraction method selection unit 414 as the feature quantity extraction method for each region. Set the extraction method.

なお、GNSS誤差、環境計測センサ1による自己位置補正、車体ピッチングなどの影響を考慮し、路端処理領域設定部421や車線処理領域設定部423が設定する処理領域の大きさは、画像上での位置ずれを考慮したマージンを持たせたものとすることが望ましい。
<路端認識部43>
路端認識部43は、認識処理設定部42が設定した処理領域と特徴量抽出法を用いて、路端を認識する。路端特徴量は、走行路に対して、立体的に高いもしくは低い段差部分を特徴量として抽出する。このため、走行路に対して路肩と更にその側方に壁などがあった場合には、両方の特徴量が抽出される。また、壁や建築物、樹木、電柱、側溝などさまざまな立体物が特徴量として抽出されるが、走行路を走行している自車Vにとって重要な段差は、自車Vを中心に最初に接触する段差が重要であり、この段差に接触しないように走行することが重要である。このため、自車Vを中心に考えて最初に接触する可能性のある段差を強調し、それよりも自車Vから遠い位置に存在する立体物に関しては、削除するようなノイズ除去処理を実施する。実施後、自車Vを中心に、最初に自車Vが接触する可能性のある段差を路端の点群として利用する。更に、この路端の点群を自車挙動もしくは、画像の対応点を利用して時系列に走行路の路端点群を構成する。この時系列に構成された路端点群と、詳細道路構造をモデルフィッティングする。
In consideration of the effects of GNSS error, self-position correction by the environment measurement sensor 1, vehicle body pitching, etc., the size of the processing area set by the roadside processing area setting unit 421 and the lane processing area setting unit 423 is shown on the image. It is desirable to have a margin in consideration of the misalignment of.
<Roadside recognition unit 43>
The roadside recognition unit 43 recognizes the roadside by using the processing area and the feature amount extraction method set by the recognition processing setting unit 42. For the roadside feature amount, a step portion that is three-dimensionally high or low with respect to the traveling road is extracted as a feature amount. Therefore, when there is a road shoulder and a wall on the side of the road, both features are extracted. In addition, various three-dimensional objects such as walls, buildings, trees, utility poles, and gutters are extracted as features, but the important step for the own vehicle V traveling on the track is first centered on the own vehicle V. The step that comes into contact is important, and it is important to drive without touching this step. For this reason, considering the vehicle V as the center, the step that may come into contact first is emphasized, and noise removal processing is performed to delete the three-dimensional object that exists at a position farther from the vehicle V. To do. After the implementation, the step where the own vehicle V may first come into contact with the own vehicle V is used as a point cloud on the roadside. Further, the roadside point cloud is constructed in chronological order by using the behavior of the own vehicle or the corresponding points in the image. The road end point group constructed in this time series and the detailed road structure are model-fitted.

図14は、路端認識部43が実施するモデルフィッティング処理の一例である。進行路対応制御部4が進行路解析部3から取得した進行路の詳細構造が、図14(a)に例示するような直交十字路であったとしても、実際の十字路の形状は異なることが多い。そこで、路端認識部43は、環境計測センサ1の計測データから認識した路端点群(図14(b)の黒丸)の位置を考慮して、道路形状を規定する道路モデルコントロール点(図14(b)の白丸)の位置を調整する。図14(b)の例では、紙面横方向の道路の路端点群が、若干右上がりの直線上で観測されているので、路端認識部43は、十字路の道路モデルコントロール点の位置を若干右上がりの点線上に移動させるモデルフィッティング処理を実施し、これを新たな詳細構造とする。 FIG. 14 is an example of the model fitting process performed by the roadside recognition unit 43. Even if the detailed structure of the traveling path acquired from the traveling path analysis unit 3 by the traveling path correspondence control unit 4 is an orthogonal crossroad as illustrated in FIG. 14A, the actual shape of the crossroads is often different. .. Therefore, the roadside recognition unit 43 considers the position of the roadside point group (black circle in FIG. 14B) recognized from the measurement data of the environment measurement sensor 1, and defines the road shape as a road model control point (FIG. 14). Adjust the position of (white circle) in (b). In the example of FIG. 14B, since the road end point group of the road in the lateral direction of the paper is observed on a straight line slightly upward to the right, the road end recognition unit 43 slightly positions the position of the road model control point of the crossroads. A model fitting process is performed to move it on the upward-sloping dotted line, and this is used as a new detailed structure.

このように、本実施例の路端認識部43は、進行路解析部3から進行方向の道路の詳細構造を事前に取得し、その詳細構造に応じた路端処理領域と路端特徴量抽出法を利用するだけでなく、取得した詳細構造に対しモデルフィッティング処理を施すことにより、基本的に単路を処理対象としていた従来の路端認識技術では正確な認識が困難であった、複雑な走行路の路端を正確に認識することが可能となる。
<車線認識部44>
車線認識部44は、認識処理設定部42が設定した処理領域と特徴量抽出法を用いて、車線を認識する。路端認識部43と同様の点は重複説明を省略するが、両認識部の相違点を列挙すれば、車線認識部44は、認識処理設定部42が設定した処理領域と特徴量抽出法を用いて抽出した特徴量からノイズを除去し、車線を認識する。車線特徴量は、走行方向に沿った境界線となる白い線の特徴となる点を検出する。おおよそ走行路が直線的であり極端なカーブはすくないことから、大まかな探索は直線探索することで、車線の位置や候補数をおおまかに探すことが可能である。このような処理を実施することで、ノイズ除去を実施する。更に自社挙動も利用することで、時系列に連続的につないだ車線を復元する。
<露光調整部45>
露光調整部45は、走行路の路肩までの幅の概算値など、露光条件を決定するために有用な情報を利用して、ステレオカメラ等の露光を補正する。
As described above, the roadside recognition unit 43 of the present embodiment acquires the detailed structure of the road in the traveling direction in advance from the traveling path analysis unit 3, and extracts the roadside processing area and the roadside feature amount according to the detailed structure. By not only using the method but also performing model fitting processing on the acquired detailed structure, accurate recognition was difficult with the conventional roadside recognition technology that basically targeted single roads, which is complicated. It becomes possible to accurately recognize the roadside of the traveling path.
<Lane recognition unit 44>
The lane recognition unit 44 recognizes a lane by using the processing area set by the recognition processing setting unit 42 and the feature amount extraction method. The same points as the roadside recognition unit 43 will not be duplicated, but if the differences between the two recognition units are listed, the lane recognition unit 44 can use the processing area and feature extraction method set by the recognition processing setting unit 42. The lane is recognized by removing noise from the feature amount extracted by using. The lane feature amount detects a feature point of a white line which is a boundary line along the traveling direction. Since the driving path is generally straight and there are few extreme curves, it is possible to roughly search for the position of the lane and the number of candidates by performing a straight line search. By performing such processing, noise removal is performed. Furthermore, by using our own behavior, we will restore lanes that are continuously connected in chronological order.
<Exposure adjustment unit 45>
The exposure adjustment unit 45 corrects the exposure of a stereo camera or the like by using information useful for determining exposure conditions such as an approximate value of the width to the shoulder of the traveling path.

従来の露光調整では、走行路に応じて現在の画像の明るさを計測するようなことはせずに基本的には、車線が入らないような路面を処理領域として路面の明るさを測定し、この路面の明るさに応じて次のフレームの露光量を調整することで、路面の視差ができる限り少なくならないような調整をしていた。もしくは白線や路面ペイントがあったとしても最頻値を利用することで、路面の明るさに応じて露光量を調整していた。基本的にはより広範囲の路面の明るさなどを解析することで、より安定的な露光の調整を可能とするが、走行路の形状がわからないことから、基本的には自車線内、もしくは自車線から少しはみ出す程度の処理領域で露光の解析を実施していた。 In the conventional exposure adjustment, the brightness of the current image is not measured according to the driving road, but basically the brightness of the road surface is measured with the road surface where the lane does not enter as the processing area. By adjusting the exposure amount of the next frame according to the brightness of the road surface, the adjustment was made so that the parallax of the road surface would not be reduced as much as possible. Alternatively, even if there are white lines or road surface paint, the exposure amount is adjusted according to the brightness of the road surface by using the mode value. Basically, it is possible to adjust the exposure more stably by analyzing the brightness of the road surface in a wider range, but since the shape of the driving road is unknown, it is basically in the own lane or in the own lane. The exposure analysis was performed in the processing area that slightly protruded from the lane.

しかしながら、上記した詳細形状解析により、路肩までの幅の概算値を得られる場合は、この詳細形状解析の結果もしくは前回の環境認識結果を利用して、露光を調整するための走行路の明るさを解析する処理領域を決定する。これにより走行路にあわせてできる限り広い範囲での路面明るさの解析が可能となり、より安定的な露光調整を実現することができる。
<カメラ姿勢補正部46>
カメラ姿勢補正部46は、汎用地図Mgに走行路の傾斜情報が登録されていれば、これを利用して、環境計測センサ1の姿勢を補正する。また、車線幅や路肩幅などの情報もあればこれを利用した上でのカメラの高さ情報なども補正可能となる。
However, if the approximate value of the width to the shoulder can be obtained by the above-mentioned detailed shape analysis, the brightness of the traveling road for adjusting the exposure by using the result of this detailed shape analysis or the previous environment recognition result. Determine the processing area to analyze. This makes it possible to analyze the road surface brightness in the widest possible range according to the traveling road, and it is possible to realize more stable exposure adjustment.
<Camera posture correction unit 46>
If the inclination information of the traveling path is registered in the general-purpose map Mg, the camera posture correction unit 46 corrects the posture of the environment measurement sensor 1 by using the information. In addition, if there is information such as lane width and road shoulder width, it is possible to correct camera height information using this information.

また、このカメラと路面の相対姿勢が正解に求まることで、処理領域の設定などもより適切に実施することが可能となる。
<センサ異常検出部47>
センサ異常検出部47は、地図情報部2から取得した詳細地図Mdなどの地図情報を用いて、環境計測センサ1の異常を検出する。センサ異常検出部47は、地図情報から、進行方向の交差点等における白線や路肩等の詳細構造を事前に取得できるので、その交差点等の通過時に検出できるはずの白線や路肩等の特徴が検出できなかった場合などに、環境計測センサ1に異常の可能性があると判定する。そして、短時間内に繰り返し異常判定された場合等に、環境計測センサ1の異常を検出し、運転手や自動運転システムに環境計測センサ1の異常を通知する。
<進行路対応制御部4の応用例>
以上で、進行路対応制御部4による基本制御を説明したが、上記した認識ロジックを用いて進行路上に複数の車線を認識した場合や、自動運転を行う際に考慮必要なランドマークが認識された場合は、詳細構造解析部32は、認識した車線やランドマークの各々に、その種別を示すラベルLを付与し、自車Vがどのような環境を走行しているかの意味を認識できるようにしても良い。例えば、図15に示すように、高速道路のゲートに向かう際に認識された車線やランドマークに対しては、ETC装置の未搭載車用の一般走行路であることを示すラベルL1、ETC装置の搭載車用の走行路であることを示すラベルL2、ゲートの位置を示すラベルL3、対向走行路であることを示すラベルL4などを付与する。
Further, by finding the correct answer between the camera and the road surface, it is possible to set the processing area more appropriately.
<Sensor abnormality detection unit 47>
The sensor abnormality detection unit 47 detects an abnormality in the environment measurement sensor 1 by using map information such as a detailed map Md acquired from the map information unit 2. Since the sensor abnormality detection unit 47 can acquire detailed structures such as white lines and road shoulders at intersections in the traveling direction in advance from map information, it can detect features such as white lines and road shoulders that should be detected when passing through the intersections and the like. If not, it is determined that the environment measurement sensor 1 may have an abnormality. Then, when the abnormality is repeatedly determined within a short period of time, the abnormality of the environment measurement sensor 1 is detected, and the driver or the automatic driving system is notified of the abnormality of the environment measurement sensor 1.
<Application example of the traveling path correspondence control unit 4>
The basic control by the traveling path correspondence control unit 4 has been described above. However, when a plurality of lanes are recognized on the traveling path using the above recognition logic, or landmarks that need to be considered when performing automatic driving are recognized. In this case, the detailed structure analysis unit 32 assigns a label L indicating the type to each of the recognized lanes and landmarks so that the meaning of what kind of environment the own vehicle V is traveling in can be recognized. You can do it. For example, as shown in FIG. 15, for the lanes and landmarks recognized when heading to the gate of the expressway, the labels L1 and the ETC device indicating that the lanes and landmarks are general lanes for vehicles not equipped with the ETC device. Label L2 indicating that the vehicle is equipped with the vehicle, label L3 indicating the position of the gate, label L4 indicating that the road is on the opposite road, and the like are attached.

これらのラベルを付与しておけば、自動走行中の自車Vは、対向走行路の逆走を防止できるだけでなく、ETC装置の搭載状況に応じて適切な走行路を選択するとともに、ゲート通過時に停止したり減速したりする自動運転を実現することができる。
<処理フローチャート>
次に、図16を用いて、本実施例の車載環境認識装置100により実施される処理フローの一例を説明する。
By attaching these labels, the own vehicle V during automatic driving can not only prevent reverse driving on the oncoming driving road, but also select an appropriate driving road according to the mounting status of the ETC device and pass through the gate. It is possible to realize automatic operation that sometimes stops or decelerates.
<Processing flowchart>
Next, an example of the processing flow executed by the vehicle-mounted environment recognition device 100 of this embodiment will be described with reference to FIG.

まず、S1では、環境計測センサ1のフロントセンサ11は、ステレオカメラで自車V前方の左右画像を撮像する。 First, in S1, the front sensor 11 of the environment measurement sensor 1 captures left and right images in front of the vehicle V with a stereo camera.

S2では、環境計測センサ1のマッチング部12は、ステレオカメラが撮像した左右画像に対し、ステレオマッチングを実施する。 In S2, the matching unit 12 of the environment measurement sensor 1 performs stereo matching on the left and right images captured by the stereo camera.

S3では、環境計測センサ1の3D点群取得部13は、マッチング部12によるステレオマッチング結果に基づいて、3D点群を取得する。 In S3, the 3D point cloud acquisition unit 13 of the environment measurement sensor 1 acquires the 3D point cloud based on the stereo matching result by the matching unit 12.

S4では、進行路解析部3の基本構造解析部31は、地図情報部2が保持する汎用地図情報Mgから、自車V近傍の、ノードとリンクからなる基本道路形状を取得する。 In S4, the basic structure analysis unit 31 of the course analysis unit 3 acquires the basic road shape consisting of the node and the link in the vicinity of the own vehicle V from the general-purpose map information Mg held by the map information unit 2.

S5では、進行路解析部3の詳細構造解析部32は、基本構造解析部31が取得した基本道路形状をベースに、詳細道路形状を復元する。もしくは、環境認識した結果の情報が保存されている場合には、優先度に応じて、どちらをベースに詳細道路形状の復元を実施するかを決定する。 In S5, the detailed structure analysis unit 32 of the course analysis unit 3 restores the detailed road shape based on the basic road shape acquired by the basic structure analysis unit 31. Alternatively, when the information on the result of environmental recognition is stored, it is decided based on which one to carry out the restoration of the detailed road shape according to the priority.

S6では、進行路対応制御部4の認識処理選択部41は、道路形状に応じた路端や車線認識のための認識ロジックを選択する。 In S6, the recognition processing selection unit 41 of the traveling road correspondence control unit 4 selects the recognition logic for recognizing the roadside and the lane according to the road shape.

S7では、進行路対応制御部4の認識処理設定部42は、道路形状に応じた路端や車線認識のための認識ロジックを設定する。 In S7, the recognition processing setting unit 42 of the traveling road correspondence control unit 4 sets the recognition logic for recognizing the roadside and the lane according to the road shape.

S8では、進行路対応制御部4の路端認識部43は、認識処理設定部42による認識処理の一部の変更やパラメータ調整による処理領域や位置の変更結果などを受けて、路端認識処理を実行する。 In S8, the roadside recognition unit 43 of the traveling path correspondence control unit 4 receives a partial change in the recognition process by the recognition process setting unit 42, a change result in the processing area or position due to parameter adjustment, and the like, and performs the roadside recognition process. To execute.

S9では、進行路対応制御部4の車線認識部44は、認識処理設定部42による認識処理の一部の変更やパラメータ調整による処理領域や位置の変更結果などを受けて、車線認識処理を実行する。なお、S8とS9の順序は入れ替えても良い。 In S9, the lane recognition unit 44 of the travel path correspondence control unit 4 executes the lane recognition process in response to a partial change in the recognition process by the recognition process setting unit 42 or a change result in the processing area or position due to parameter adjustment. To do. The order of S8 and S9 may be exchanged.

S10では、進行路解析部3の詳細構造解析部32は、車線や路端の認識結果の信頼度に応じて、それらに関する環境情報を詳細地図Mdに反映することの可否をまずは判定する。 In S10, the detailed structural analysis unit 32 of the traveling path analysis unit 3 first determines whether or not it is possible to reflect the environmental information related to the lane and roadside recognition results on the detailed map Md according to the reliability of the recognition results.

詳細地図Mdの更新が可能と判定された場合、S11では、詳細地図更新部24は、従来まで認識された結果をベースにして保存されている情報があれば、その結果と照らし合わせた上で、汎用地図Mgを更新するか否かを決定する。たとえば、従来の保存結果と大きく異なるような場合には、そのような結果が、何回も続いていることを確認したうえで最終的な地図を汎用地図Mgに反映する。 When it is determined that the detailed map Md can be updated, in S11, the detailed map updating unit 24, if there is information stored based on the result recognized so far, compares it with the result. , Determine whether to update the general-purpose map Mg. For example, if the result is significantly different from the conventional storage result, the final map is reflected in the general-purpose map Mg after confirming that such a result continues many times.

S12では、外部機器制御部5は、今回、認識された環境情報を利用して、運転手に進行路に関する情報を交差点などに到着する前に提供したり、自動運転システムに自動運転の実現に必要な情報を事前に提供したりする。 In S12, the external device control unit 5 uses the recognized environmental information this time to provide the driver with information on the course before arriving at an intersection or the like, or to realize automatic driving in the automatic driving system. Provide necessary information in advance.

以上で説明したように、本実施例の車載環境認識装置によれば、車両に搭載した環境計測センサと簡易的な地図情報を利用し、交差点のような複雑な道路の詳細形状を、そこに到達する前に認識することができる。 As described above, according to the in-vehicle environment recognition device of this embodiment, the detailed shape of a complicated road such as an intersection can be obtained by using the environment measurement sensor mounted on the vehicle and simple map information. Can be recognized before reaching.

1 環境計測センサ
11 フロントセンサ
11L 左カメラ
11R 右カメラ
12 マッチング部
13 3D点群取得部
2 地図情報部
21 汎用地図保存部
22 GNSS部
23 詳細地図保存部
24 詳細地図更新部
3 進行路解析部
31 基本構造解析部
311 進行路データ読込部
312 ノード&リンク解析部
313 基本道路形状解析部
314 自車位置解析部
314a GNSS誤差解析部
314b センサ誤差解析部
314c 時系列統合補正部
32 詳細構造解析部
321 基本道路形状読込部
322 詳細道路形状付加部
322a 付加情報優先度部
322b 付加情報選択部
322c 形状復元部
323 詳細形状更新部
323a 路端更新部
323b 車線更新部
323c 起伏更新部
4 道路形状認識部
41 認識処理選択部
411 路端処理領域数選択部
412 路端抽出法選択部
413 車線処理領域数選択部
414 車線抽出法選択部
42 認識処理設定部
421 路端処理領域設定部
422 路端領域別抽出法設定部
423 車線処理領域設定部
424 車線領域別抽出法設定部
43 路端認識部
44 車線認識部
45 露光調整部
46 カメラ姿勢補正部
47 センサ異常検出部
5 外部機器制御部
6 外部機器
1 Environmental measurement sensor 11 Front sensor 11L Left camera 11R Right camera 12 Matching unit 13 3D point group acquisition unit 2 Map information unit 21 General-purpose map storage unit 22 GNSS unit 23 Detailed map storage unit 24 Detailed map update unit 3 Path analysis unit 31 Basic structure analysis unit 311 Path data reading unit 312 Node & link analysis unit 313 Basic road shape analysis unit 314 Vehicle position analysis unit 314a GNSS error analysis unit 314b Sensor error analysis unit 314c Time series integrated correction unit 32 Detailed structure analysis unit 321 Basic road shape reading part 322 Detailed road shape addition part 322a Additional information priority part 322b Additional information selection part 322c Shape restoration part 323 Detailed shape update part 323a Roadside update part 323b Lane update part 323c Undulation update part 4 Road shape recognition part 41 Recognition processing selection unit 411 Roadside processing area number selection unit 412 Roadside extraction method selection unit 413 Lane processing area number selection unit 414 Lane extraction method selection unit 42 Recognition processing setting unit 421 Roadside processing area setting unit 422 Roadside area extraction Law setting unit 423 Lane processing area setting unit 424 Lane-specific extraction method setting unit 43 Roadside recognition unit 44 Lane recognition unit 45 Exposure adjustment unit 46 Camera posture correction unit 47 Sensor abnormality detection unit 5 External device control unit 6 External device

Claims (10)

環境計測センサが出力する計測データに基づいて、進行路の環境を認識する環境認識装置であって、
汎用地図またはサーバ地図から得た地図情報に基づいて、前記進行路の基本構造を解析する基本構造解析部と、
前記進行路の基本構造に基づいて、前記進行路の詳細構造を復元する詳細構造解析部と、
前記進行路の基本構造に応じて、前記計測データから環境情報を認識する認識ロジックを変更する進行路対応制御部と、
該進行路対応制御部が認識した前記環境情報に基づいて、前記環境計測センサまたは外部機器を制御する外部機器制御部と、
を具備することを特徴とする環境認識装置。
An environment recognition device that recognizes the environment of the course based on the measurement data output by the environment measurement sensor.
A basic structure analysis unit that analyzes the basic structure of the course based on map information obtained from a general-purpose map or a server map.
A detailed structure analysis unit that restores the detailed structure of the course based on the basic structure of the course,
A travel path correspondence control unit that changes the recognition logic that recognizes environmental information from the measurement data according to the basic structure of the travel path.
An external device control unit that controls the environment measurement sensor or the external device based on the environmental information recognized by the path corresponding control unit.
An environment recognition device characterized by being equipped with.
請求項1に記載の環境認識装置において、
前記地図情報は、ノード情報とリンク情報であり、
前記詳細構造は、前記ノード情報と前記リンク情報からなる基本構造に、車線の数、車線の幅、路肩位置、白線交差角度、路肩交差角度の何れかの環境情報を付加して復元したものであることを特徴とする環境認識装置。
In the environment recognition device according to claim 1,
The map information is node information and link information, and is
The detailed structure is restored by adding environmental information of any one of the number of lanes, the width of the lane, the position of the road shoulder, the white line intersection angle, and the road shoulder intersection angle to the basic structure consisting of the node information and the link information. An environment recognition device characterized by being present.
請求項1に記載の環境認識装置において、
前記進行路の基本構造に応じて変更される認識ロジックは、路端または車線の認識処理における、処理領域の数、該処理領域の場所、または、特徴量抽出法であることを特徴とする環境認識装置。
In the environment recognition device according to claim 1,
The recognition logic that is changed according to the basic structure of the traveling path is an environment characterized by the number of processing areas, the location of the processing area, or the feature amount extraction method in the roadside or lane recognition process. Recognition device.
請求項3に記載の環境認識装置において、
前記認識ロジックは、前記処理領域の場所に応じた特徴量抽出処理、ノイズ除去処理、モデルフィッティング処理の少なくとも一つを含むことを特徴とする環境認識装置。
In the environment recognition device according to claim 3,
The recognition logic is an environment recognition device including at least one of a feature amount extraction process, a noise removal process, and a model fitting process according to the location of the processing area.
請求項4に記載の環境認識装置において、
前記モデルフィッティング処理は、前記特徴量抽出処理で抽出した特徴量の3次元的配置に基づいて、前記進行路の詳細構造に含まれる白線交差角度、または、路肩交差角度を設定する処理であることを特徴とする環境認識装置。
In the environment recognition device according to claim 4,
The model fitting process is a process of setting the white line intersection angle or the road shoulder intersection angle included in the detailed structure of the traveling path based on the three-dimensional arrangement of the feature amount extracted by the feature amount extraction process. An environment recognition device characterized by.
請求項1に記載の環境認識装置において、
前記詳細構造解析部は、前記進行路対応制御部が認識した車線またはランドマークに、それらの種別を表すラベルを付与して、前記進行路の詳細構造を復元することを特徴とする環境認識装置。
In the environment recognition device according to claim 1,
The detailed structure analysis unit is an environment recognition device characterized in that the lanes or landmarks recognized by the travel path correspondence control unit are given labels indicating their types to restore the detailed structure of the travel path. ..
請求項2に記載の環境認識装置において、
前記詳細構造解析部は、前記地図情報から取得した、道路構造令が定める種別情報または等級情報に基づいて、前記環境情報の値を復元することを特徴とする環境認識装置。
In the environment recognition device according to claim 2.
The detailed structure analysis unit is an environment recognition device characterized in that the value of the environmental information is restored based on the type information or the grade information specified by the Road Structure Ordinance obtained from the map information.
請求項2に記載の環境認識装置において、
前記詳細構造解析部は、前記地図情報から取得した、道路の種類情報または制限速度情報に基づいて、前記環境情報の値を復元することを特徴とする環境認識装置。
In the environment recognition device according to claim 2.
The detailed structural analysis unit is an environment recognition device characterized in that the value of the environmental information is restored based on the road type information or the speed limit information acquired from the map information.
請求項2に記載の環境認識装置において、
前記詳細構造解析部は、前記地図情報から取得した、当該場所での過去の認識処理で得た値を利用して、前記環境情報の値を復元することを特徴とする環境認識装置。
In the environment recognition device according to claim 2.
The detailed structure analysis unit is an environment recognition device characterized in that the value of the environment information is restored by using the value obtained from the map information in the past recognition process at the place.
請求項2に記載の環境認識装置において、
前記詳細構造解析部は、
道路構造令が定める種別情報または等級情報に基づく値、
道路の種類情報または制限速度情報に基づく値、または、
当該場所での過去の認識処理で得た値、のうち複数を利用できる場合は、
各々の値に対して設定された優先度の最も高い値を選択して、前記詳細構造を復元する
ことを特徴とする環境認識装置。
In the environment recognition device according to claim 2.
The detailed structural analysis unit
Value based on type information or grade information specified by the Road Structure Ordinance,
Value based on road type information or speed limit information, or
If more than one of the values obtained in the past recognition process at the location can be used,
An environment recognition device characterized in that the detailed structure is restored by selecting the highest priority value set for each value.
JP2019054649A 2019-03-22 2019-03-22 Environment recognition device Active JP7257207B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019054649A JP7257207B2 (en) 2019-03-22 2019-03-22 Environment recognition device
PCT/JP2020/003861 WO2020195166A1 (en) 2019-03-22 2020-02-03 Environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054649A JP7257207B2 (en) 2019-03-22 2019-03-22 Environment recognition device

Publications (2)

Publication Number Publication Date
JP2020153908A true JP2020153908A (en) 2020-09-24
JP7257207B2 JP7257207B2 (en) 2023-04-13

Family

ID=72558753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054649A Active JP7257207B2 (en) 2019-03-22 2019-03-22 Environment recognition device

Country Status (2)

Country Link
JP (1) JP7257207B2 (en)
WO (1) WO2020195166A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188254A1 (en) * 2022-03-31 2023-10-05 本田技研工業株式会社 Control device for moving body, control method for moving body, and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006208256A (en) * 2005-01-31 2006-08-10 Alpine Electronics Inc In-vehicle electronic device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321370A (en) * 2004-04-05 2005-11-17 Sony Corp Navigation system, data processing method and computer program
JP2005292064A (en) * 2004-04-05 2005-10-20 Sony Corp Navigation system, data processing method, and computer program
JP2008157680A (en) * 2006-12-21 2008-07-10 Matsushita Electric Ind Co Ltd Navigation apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006208256A (en) * 2005-01-31 2006-08-10 Alpine Electronics Inc In-vehicle electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188254A1 (en) * 2022-03-31 2023-10-05 本田技研工業株式会社 Control device for moving body, control method for moving body, and storage medium

Also Published As

Publication number Publication date
WO2020195166A1 (en) 2020-10-01
JP7257207B2 (en) 2023-04-13

Similar Documents

Publication Publication Date Title
JP6870475B2 (en) Lane information output method and lane information output device
US9983022B2 (en) Vehicle position estimation system, device, method, and camera device
RU2699716C1 (en) Method of detecting objects and object detection device
KR102558055B1 (en) Suboptimal estimation method
US9990375B2 (en) Map data processing device for vehicle
US7463974B2 (en) Systems, methods, and programs for determining whether a vehicle is on-road or off-road
CN102529975B (en) Systems and methods for precise sub-lane vehicle positioning
JP5429380B2 (en) Driving assistance device
EP3064901A1 (en) Turn lane configuration
US11260861B2 (en) Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes on a roadway
US20220270358A1 (en) Vehicular sensor system calibration
US20090303077A1 (en) Image Processing System and Method
JP2011013039A (en) Lane determination device and navigation system
JP2021113816A (en) Output device, control method, program, and storage medium
WO2020195166A1 (en) Environment recognition device
WO2022018970A1 (en) Information processing device
JP7024871B2 (en) Route calculation method, operation control method and route calculation device
CN114216469B (en) Method for updating high-precision map, intelligent base station and storage medium
Faghi Map Based Sensor Fusion for Lane Boundary Estimation on ADAS
JP2023012649A (en) Vehicle control device
CN115552199A (en) Method and system for determining the position of a motor vehicle and motor vehicle equipped with such a system
CN115565362A (en) Map generation and use method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230403

R150 Certificate of patent or registration of utility model

Ref document number: 7257207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150