JP2021018661A - Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method - Google Patents
Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method Download PDFInfo
- Publication number
- JP2021018661A JP2021018661A JP2019134687A JP2019134687A JP2021018661A JP 2021018661 A JP2021018661 A JP 2021018661A JP 2019134687 A JP2019134687 A JP 2019134687A JP 2019134687 A JP2019134687 A JP 2019134687A JP 2021018661 A JP2021018661 A JP 2021018661A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- data
- unit
- moving body
- lanes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
Abstract
Description
本発明は、車線の位置情報を含む車線データを生成する車線データ生成装置およびこの車線データを用いて移動体の位置を特定する位置特定装置、ならびに車線データ生成方法および位置特定方法に関する。 The present invention relates to a lane data generation device that generates lane data including lane position information, a position identification device that specifies the position of a moving body using the lane data, and a lane data generation method and a position identification method.
この種の装置として、従来、車両に搭載された車載カメラとGPS受信機とからの信号に基づいて、車載カメラにより撮像された車線を規定する左右の境界線の絶対位置(緯度、経度、高度)を算出するようにした装置が知られている(例えば特許文献1参照)。 Conventionally, as this kind of device, the absolute position (latitude, longitude, altitude) of the left and right boundary lines that define the lane imaged by the in-vehicle camera based on the signals from the in-vehicle camera mounted on the vehicle and the GPS receiver. ) Is known (see, for example, Patent Document 1).
特許文献1:特開2018−55715号公報 Patent Document 1: Japanese Unexamined Patent Publication No. 2018-55715
しかしながら、上記特許文献1記載の装置では、複数の車線が設けられた路面上に車両が位置して車載カメラで全ての境界線を認識することが困難な場合に、十分な車線データを得ることが難しい。 However, with the device described in Patent Document 1, sufficient lane data can be obtained when a vehicle is located on a road surface provided with a plurality of lanes and it is difficult for an in-vehicle camera to recognize all the boundary lines. Is difficult.
本発明の一態様は、路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを生成する車線データ生成装置であって、複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、左右一対の端部境界線の内側に、端部境界線に対し略平行に形成された中間境界線と、を含む。車線データ生成装置は、移動体の位置を検出する位置検出部と、移動体の左右両側に位置する境界線を撮像する撮像部と、撮像部により撮像された境界線が端部境界線および中間境界線のいずれであるかを判定する境界線判定部と、撮像部により撮像された境界線の画像情報に基づいて、移動体から左右両側の境界線までの距離を算出する距離算出部と、位置検出部により検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する情報取得部と、境界線判定部により左右両側の境界線が端部境界線および中間境界線であると判定されたときの距離算出部により算出された距離データと、位置検出部により検出された移動体の位置データと、情報取得部により取得された車線数の情報と、に基づいて、複数の車線の位置データを生成するデータ生成部と、を備える。 One aspect of the present invention is a lane data generation device that generates lane data of a plurality of lanes partitioned by a plurality of boundary lines extending laterally apart from each other on a road surface, wherein the plurality of boundary lines are , A pair of left and right end boundaries formed on the right side of the rightmost lane and a left side of the leftmost lane, and an intermediate boundary formed substantially parallel to the end boundary line inside the pair of left and right end boundaries. Includes lines and. The lane data generator includes a position detection unit that detects the position of the moving body, an imaging unit that images the boundary lines located on both the left and right sides of the moving body, and the boundary line imaged by the imaging unit at the end boundary line and the middle. A boundary line determination unit that determines which of the boundary lines is used, and a distance calculation unit that calculates the distance from the moving body to the left and right boundary lines based on the image information of the boundary line captured by the imaging unit. Based on the position of the moving body detected by the position detection unit, the information acquisition unit that acquires information on the number of lanes on the road surface on which the moving body is located, and the boundary line determination unit sets the boundary lines on both the left and right sides to the end boundary line and The distance data calculated by the distance calculation unit when it is determined to be the intermediate boundary line, the position data of the moving body detected by the position detection unit, and the information on the number of lanes acquired by the information acquisition unit are Based on this, it includes a data generation unit that generates position data of a plurality of lanes.
本発明の他の態様である位置特定装置は、上記の車線データ生成装置と、車線データ生成装置により生成された複数の車線の位置データと、位置検出部により検出された移動体の位置データと、に基づいて、移動体が位置する車線を特定する車線特定部と、を備える。 The position identification device according to another aspect of the present invention includes the above-mentioned lane data generation device, the position data of a plurality of lanes generated by the lane data generation device, and the position data of the moving body detected by the position detection unit. A lane identification unit that identifies the lane in which the moving body is located is provided based on.
本発明のさらに他の態様は、路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを生成する車線データ生成方法であって、複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、左右一対の端部境界線の内側に、端部境界線に対し略平行に形成された中間境界線と、を含む。車線データ生成方法は、移動体の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線を撮像する撮像ステップと、撮像ステップで撮像された境界線が端部境界線および中間境界線のいずれであるかを判定する判定ステップと、撮像ステップで撮像された境界線の画像情報に基づいて、移動体から左右両側の境界線までの距離を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、判定ステップで左右両側の境界線が端部境界線および中間境界線であると判定されたときの算出ステップで算出された距離データと、位置検出ステップで検出された移動体の位置データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線の位置データを生成するデータ生成ステップと、を含む。 Yet another aspect of the present invention is a lane data generation method for generating lane data of a plurality of lanes partitioned by a plurality of boundaries extending laterally apart from each other on a road surface, wherein the plurality of boundaries. The lines were formed on the right side of the rightmost lane and on the left side of the leftmost lane, and inside the pair of left and right end boundary lines, substantially parallel to the end boundary line. Includes intermediate boundaries. The lane data generation method includes a position detection step for detecting the position of the moving body, an imaging step for imaging the boundary lines located on both the left and right sides of the moving body, and the boundary line imaged in the imaging step at the end boundary line and the middle. A determination step for determining which of the boundary lines, a calculation step for calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step, and a position detection step. Based on the position of the moving body detected in, the acquisition step of acquiring the information on the number of lanes on the road surface on which the moving body is located and the determination step indicate that the boundary lines on both the left and right sides are the end boundary line and the intermediate boundary line. Positions of a plurality of lanes based on the distance data calculated in the calculation step at the time of determination, the position data of the moving body detected in the position detection step, and the information on the number of lanes acquired in the acquisition step. Includes a data generation step to generate data.
本発明のさらにまた他の態様は、路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを用いて、移動体が位置する車線を特定する位置特定方法であって、複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、左右一対の端部境界線の内側に形成された中間境界線と、を含む。位置特定方法は、移動体の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線を撮像する撮像ステップと、撮像ステップで撮像された境界線が端部境界線および中間境界線のいずれであるかを判定する判定ステップと、撮像ステップで撮像された境界線の画像情報に基づいて、移動体から左右両側の境界線までの距離を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、位置検出ステップで検出された移動体の位置データと、判定ステップで左右両側の境界線が端部境界線および中間境界線であると判定されたときの算出ステップで算出された距離データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線の位置データを生成するデータ生成ステップと、データ生成ステップで生成された複数の車線の位置データと、位置検出ステップで検出された移動体の位置データと、に基づいて、移動体が位置する車線を特定する車線特定ステップと、を含む。 Yet another aspect of the present invention uses lane data of a plurality of lanes partitioned by a plurality of boundaries extending laterally apart from each other on the road surface to identify the lane in which the moving body is located. In the positioning method, a plurality of boundary lines are formed inside a pair of left and right end boundary lines formed on the right side of the right end lane and the left side of the left end lane, and inside a pair of left and right end boundary lines. Includes intermediate boundaries. The position identification method includes a position detection step for detecting the position of the moving object, an imaging step for imaging the boundary lines located on both the left and right sides of the moving object, and the boundary line imaged in the imaging step for the end boundary line and the intermediate boundary. In the determination step of determining which of the lines it is, the calculation step of calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step, and the position detection step. Based on the detected position of the moving body, the acquisition step of acquiring the information on the number of lanes on the road surface on which the moving body is located, the position data of the moving body detected in the position detection step, and the boundary between the left and right sides in the determination step. Position data of a plurality of lanes based on the distance data calculated in the calculation step when it is determined that the line is the end boundary line and the intermediate boundary line, and the information on the number of lanes acquired in the acquisition step. The lane in which the moving body is located is specified based on the data generation step for generating the data, the position data of a plurality of lanes generated in the data generation step, and the position data of the moving body detected in the position detection step. Including lane identification steps and.
本発明によれば、複数の車線の車線データを容易かつ良好に得ることができる。 According to the present invention, lane data of a plurality of lanes can be easily and satisfactorily obtained.
以下、図1〜図9を参照して本発明の実施形態について説明する。本発明の実施形態に係る車線データ生成装置は、例えば自動運転機能を有する車両に搭載される。この種の車両は、複数の車線を有する幅広の道路を走行中に、どの車線を走行しているかが特定された上で走行動作が制御される。このため、車線の位置データを車両が正確に把握する必要があるが、これを例えば通信手段を介してダイナミックマップ(HDマップとも呼ぶ)に含まれるデータなどから取得しようとすると、データ取得のための高度な通信手段が必要となり、コストの上昇を招く。そこで、本実施形態に係る車線データ生成装置は、ダイナミックマップからデータを得るのではなく、独自に車線データを生成するように構成される。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 9. The lane data generation device according to the embodiment of the present invention is mounted on, for example, a vehicle having an automatic driving function. In a vehicle of this type, while traveling on a wide road having a plurality of lanes, the traveling operation is controlled after identifying which lane the vehicle is traveling in. For this reason, it is necessary for the vehicle to accurately grasp the lane position data, but if it is attempted to acquire this from data included in a dynamic map (also called an HD map) via a communication means, for example, the data is acquired. Advanced communication means are required, which leads to an increase in cost. Therefore, the lane data generation device according to the present embodiment is configured to independently generate lane data instead of obtaining data from the dynamic map.
図1は、複数の車線(例えば片側5車線)を有する道路の一例を示す平面図である。車線とは、車両101の走行領域を規定する所定幅の走行レーンである。以下では、図示のように前後方向および左右方向を定義し、この定義に従い各部の構成を説明する。前後方向は車線LNの延在する方向であり、左右方向は車線LNに直交する車線幅方向である。図示のように車線LNに沿って車両101が走行しているとき、前後方向は車両101の長さ方向に相当し、左右方向は車幅方向に相当する。複数の車線LN(LN1〜LN5)を左側から順番に第1車線LN1、第2車線LN2、第3車線LN3、第4車線LN4、第5車線LN5と呼ぶ。図1では、車線データ生成装置100を有する車両101が、第1車線LN1を走行している。
FIG. 1 is a plan view showing an example of a road having a plurality of lanes (for example, five lanes on each side). A lane is a traveling lane having a predetermined width that defines a traveling area of the
各車線LNは、互いに左右方向に離間して並行に延在する複数の境界線BL(BL1〜BL6)によって規定される。すなわち、第1車線LN1は左右一対の境界線BL1,BL2により、第2車線LN2は左右一対の境界線BL2,BL3により、第3車線LN3は左右一対の境界線BL3,BL4により、第4車線LN4は左右一対の境界線BL4,BL5により、第5車線LN5は左右一対の境界線BL5,BL6によりそれぞれ規定される。境界線BL1〜BL6のうち、左右両端部の境界線BL1,BL6、すなわち道路領域を規定する境界線を端部境界線と呼び、端部境界線BL1,BL6の内側の境界線BL2〜BL5を中間境界線と呼ぶ。 Each lane LN is defined by a plurality of boundary lines BL (BL1 to BL6) extending in parallel so as to be separated from each other in the left-right direction. That is, the first lane LN1 has a pair of left and right boundary lines BL1 and BL2, the second lane LN2 has a pair of left and right boundary lines BL2 and BL3, and the third lane LN3 has a pair of left and right boundary lines BL3 and BL4. The LN4 is defined by a pair of left and right boundary lines BL4 and BL5, and the fifth lane LN5 is defined by a pair of left and right boundary lines BL5 and BL6. Of the boundary lines BL1 to BL6, the boundary lines BL1 and BL6 at both left and right ends, that is, the boundary lines defining the road area are called end boundary lines, and the inner boundary lines BL2 to BL5 of the end boundary lines BL1 and BL6 are referred to. Called the intermediate boundary.
端部境界線BL1,BL6と中間境界線BL2〜BL5とは、互いに異なる形態で表される。例えば、図1に示すように端部境界線BL1,BL6は実線で、中間境界線BL2〜BL5は破線で表される。なお、図1に一点鎖線で示す、各車線LNの中央を通る仮想線CLを、中央線と呼ぶ。各車線LNの車線データは、各車線LNを規定する左右一対の境界線BLの位置データ(緯度、経度など)と、各車線LNの中央線CLの位置データ(緯度、経度など)とを含む。 The end boundary lines BL1 and BL6 and the intermediate boundary lines BL2 and BL5 are represented in different forms from each other. For example, as shown in FIG. 1, the end boundary lines BL1 and BL6 are represented by solid lines, and the intermediate boundary lines BL2 to BL5 are represented by broken lines. The virtual line CL passing through the center of each lane LN shown by the alternate long and short dash line in FIG. 1 is referred to as a center line. The lane data of each lane LN includes the position data (latitude, longitude, etc.) of the pair of left and right boundary lines BL that define each lane LN, and the position data (latitude, longitude, etc.) of the center line CL of each lane LN. ..
図2は、本実施形態に係る車線データ生成装置100の要部構成を示すブロック図である。図2に示すように、車線データ生成装置100は、GPSユニット1と、カメラ2と、地図データベース3と、通信ユニット4と、コントローラ10とを備える。GPSユニット1とカメラ2と地図データベース3と通信ユニット4とは、それぞれコントローラ10に通信可能に接続される。
FIG. 2 is a block diagram showing a main configuration of the lane
GPSユニット(GNSSユニット)1は、複数のGPS衛星からの測位信号を受信するGPS受信機(GPSセンサ)を有し、GPS受信機が受信した測位信号に基づいて車両101の基準点の絶対位置(緯度、経度など)を測定する。基準点は、車両101の車幅方向中央の所定位置、例えばフロントガラスの上方に設定される。
The GPS unit (GNSS unit) 1 has a GPS receiver (GPS sensor) that receives positioning signals from a plurality of GPS satellites, and an absolute position of a reference point of the
カメラ2は、CCDやCMOS等の撮像素子(イメージセンサ)を有する単眼カメラである。カメラ2は、例えばフロントガラスの上方の基準点に取り付けられ、車両101の前方空間を撮像し、対象物の画像(カメラ画像)を取得する。対象物には、車両斜め前方の左右一対の境界線BLが含まれる。カメラ画像上の対象物の位置と対象物の実際の位置(カメラ2を基準とした相対位置)との間には所定の相関関係がある。この相関関係は予め記憶部12に記憶されており、この相関関係を用いて、カメラ画像から対象物の実位置(カメラ2からの相対位置)を検出できる。なお、単眼カメラに代えてステレオカメラをカメラ2として用い、ステレオカメラにより対象物の実位置を検出してもよい。
The
地図データベース3は、不図示のナビゲーション装置に用いられる一般的な地図情報を記憶する装置であり、例えばハードディスクや半導体素子により構成される。地図情報には、道路の位置情報、道路形状(曲率など)の情報、交差点や分岐点の位置情報が含まれる。なお、地図データベース3に記憶される地図情報を、コントローラ10の記憶部12に記憶してもよい。
The map database 3 is a device that stores general map information used in a navigation device (not shown), and is composed of, for example, a hard disk or a semiconductor element. Map information includes road position information, road shape (curvature, etc.) information, and intersection and branch point position information. The map information stored in the map database 3 may be stored in the
通信ユニット4は、インターネット回線などの無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報および交通情報などを定期的に、あるいは任意のタイミングでサーバから取得する。取得した地図情報は、地図データベース3や記憶部12に出力され、地図情報が更新される。
The communication unit 4 communicates with various servers (not shown) via a network including a wireless communication network such as an Internet line, and acquires map information, traffic information, and the like from the server periodically or at an arbitrary timing. The acquired map information is output to the map database 3 and the
コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。
The
記憶部12には、道路情報が記憶される。道路情報には、高速道路、有料道路、国道などの道路の種別を表す情報、道路の車線数、各車線の幅員、道路の勾配、道路の3次元座標位置、車線のカーブの曲率、車線の合流ポイントおよび分岐ポイントの位置、道路標識等の情報が含まれる。車線データ生成装置100により生成された車線データ、すなわち車線LNの位置データ(境界線BLの位置データ、中央線CLの位置データ等)も、道路情報の一部として記憶部12に記憶される。記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等の情報も記憶される。
Road information is stored in the
演算部11は、車線データの生成に関する機能的構成として、境界線判定部111と、距離算出部112と、情報取得部113と、データ生成部114とを有する。
The
図3は、演算部11で実行される処理の一例を説明するための図である。なお、図3には、道路の平面図上に車両101が模式的な円形のマークで示されるとともに、車両101が右端の第5車線LN5から左隣の第4車線LN4に移動した状態が示される。車両101の向きは円形マーク内の突起状のマークの向きによって示され、車両101は車線LNの延在する方向を向いている。突起状のマークの先端Pは、GPSユニット1により検出される車両101の位置、すなわち基準点である。円形マークから車両進行方向に向けて延びるハッチングの領域は、基準点Pに設けられたカメラ2による撮像範囲ARを表す。撮像範囲ARには制限があり、例えば第5車線LN5に車両101が位置するとき、車線LN5の左右両側の境界線BL5,BL6は撮像範囲に含まれるが、全ての境界線BL1〜BL6を撮像範囲ARに含めることは期待できない。
FIG. 3 is a diagram for explaining an example of processing executed by the
境界線判定部111は、カメラ2により撮像された画像に含まれる境界線BLの画像を、エッジ検出やパターンマッチングの処理を行うことにより認識する。さらに、境界線判定部111は、認識された境界線BLの画像の特徴点を抽出し、抽出された特徴点に基づいて、認識された境界線BLが端部境界線BL1,BL6(実線)および中間境界線BL2〜BL5(破線)のいずれであるかを判定する。
The boundary
距離算出部112は、カメラ2により撮像された左右両側の境界線BLの画像情報に基づいて、車両101の左右方向中央の基準点Pから左右両側の境界線BL(例えば所定幅を有する境界線BLの中心または境界線BLの左右方向内側のエッジ)までの距離D1,D2を算出する。より詳しくは、予め記憶部12に記憶された画像上の位置と実位置との相関関係を用いることで、基準点Pに位置するカメラ2から境界線判定部111で認識された境界線BLまでの左右方向の距離、すなわち、境界線BLと中央線CLとに垂直な方向の距離を算出する。例えば図3に示すように、車両101が第5車線LN5に位置するとき、基準点Pから中間境界線BL5までの左側の距離D1と端部境界線BL6までの右側の距離D2とを算出する。
The
情報取得部113は、GPSユニット1から送信された信号に基づいて車両101が位置する道路地点を特定するとともに、記憶部12に記憶された道路情報から、当該道路地点に対応する車線数の情報を取得する。図3の例では、車線数=5の情報を取得する。
The
データ生成部114は、境界線判定部111により左右の境界線BLのいずれか一方が端部境界線BL1またはBL6であると判定されたときの距離算出部112により算出された距離D1,D2のデータ(距離データ)と、GPSユニット1により検出された車両101(基準点P)の位置データと、情報取得部113により取得された車線数の情報とに基づいて、複数の車線LN1〜LN5の位置データを生成する。
The
より具体的には、カメラ2により認識された境界線BLの画像が、図3に示すように、端部境界線BL6の画像であると認識されると、データ生成部114は、基準点Pからその左右両側の境界線BL5,BL6までの距離D1,D2のデータを用いて、車両101が位置する車線LN5の位置データ(車線データ)、すなわち境界線BL5,BL6と中央線CLの位置データを生成する。さらに、この車線データに含まれる境界線BL5,BL6の位置データから車線幅ΔWを算出し、GPSユニット1により検出された自車位置に対応する、情報取得部113により取得された道路の車線数の数だけ、車線幅ΔWの長さ分、境界線BL5、BL6の位置データを左方向にオフセットすることにより、残りの車線LN1〜LN4の位置データ(境界線BL1〜BL4の位置データ等)を生成する。
More specifically, when the image of the boundary line BL recognized by the
なお、基準点Pからの距離D1,D2を算出することにより得られる車線LN5の位置データを実測車線データ、この実測車線データを用いて得られる残りの車線LN1〜LN4の位置データを推測車線データと呼ぶ。以上により複数の車線LN1〜LN5の車線データを得ることができる。カメラ2により認識された境界線BLの画像が端部境界線BL1の画像であると認識されたときは、データ生成部114は、車両101が位置する第1車線LN1の位置データを車線数の数だけ右方向にオフセットすることにより、車線LN2〜LN5の推測車線データを生成する。データ生成部114により生成された位置データは、車線データ(実測車線データ、推測車線データ)として記憶部12に記憶される。
The position data of the lane LN5 obtained by calculating the distances D1 and D2 from the reference point P is the measured lane data, and the position data of the remaining lanes LN1 to LN4 obtained by using the measured lane data is estimated lane data. Called. From the above, lane data of a plurality of lanes LN1 to LN5 can be obtained. When the image of the boundary line BL recognized by the
データ生成部114は、例えば所定時間毎に車線データを生成し、記憶部12に記憶された車線データを更新する。図3に示すように、車両101が第5車線LN5から第4車線LN4に車線変更したときには、データ生成部114は、車両101から左右両側の境界線BL4,BL5までの距離D1,D2を算出し、算出された距離D1,D2のデータを用いて第4車線LN4の車線データ(実測車線データ)を生成する。そして、記憶部12に記憶されていた第4車線LN4の推測車線データを実測車線データに置き換えて更新するとともに、この車線データの更新(例えば境界線BL4の位置データの変更)に伴い、第1車線LN1〜第3車線LN3の推測車線データを修正(更新)する。
The
なお、車両101が第1車線LN1〜第3車線LN3に移動したときも同様に、各車線LN1〜LN3の実測車線データを生成し、推測車線データを実測車線データに置き換えて車線データを更新する。このように実測された距離D1,D2のデータを用いて車線データを更新することで、車線データが実際の車線LNの位置を精度よく表すようになり、車線データの生成精度が高まる。
Similarly, when the
以上のようにして生成された車線データは、車両101から車線LNの延在する方向における所定距離(カメラ2の撮像範囲)内に存在する複数の車線LNの位置データ(第1の車線データと呼ぶ)である。データ生成部114は、この第1の車線データと、地図データベース3により得られる地図情報(道路情報)とに基づいて、車両101から所定距離を越えて存在する複数の車線LNの位置データ(第2の車線データと呼ぶ)をさらに生成する。
The lane data generated as described above is the position data (with the first lane data) of a plurality of lane LNs existing within a predetermined distance (imaging range of the camera 2) in the extending direction of the lane LN from the
具体的には、GPSユニット1により検出された自車位置と地図情報とに基づいて地図上の自車位置を認識する。そして、データ生成部114が、例えば図4に示すように、道路が所定曲率のカーブ路になると判断すると、このカーブ路に沿って車線データが変化するように(例えば図4の矢印で示すように中央線CLの位置が変化するように)、車両101から所定距離を越える各車線LN1〜LN5の車線データを生成し、この車線データを記憶部12に記憶する。このように道路形状に応じて第2の車線データを生成することで、車両101から離れた位置における複数の車線LNの車線データを、精度よく生成することができる。また、車両101から所定距離内に存在するが、カメラ2により認識することができない車線LNがある場合の車線データも、道路形状のデータを用いることで良好に生成することができる。すなわち、第2の車線データだけでなく第1の車線データも、道路形状のデータを用いて生成することができる。
Specifically, the vehicle position on the map is recognized based on the vehicle position detected by the GPS unit 1 and the map information. Then, when the
図5は、予め記憶部12に記憶されたプログラムに従い演算部11で実行される処理の一例、特に第1の車線データの生成に係る処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば車両電源のオンにより開始され、所定周期で繰り返される。なお、以下のフローチャートの説明では、便宜上、図1の車線LN1〜LN5を用いる。
FIG. 5 is a flowchart showing an example of processing executed by the
まず、ステップS1で、GPSユニット1により検出された車両101(基準点P)の位置データを読み込む。次いで、ステップS2で、カメラ2により取得されたカメラ画像を読み込む。次いで、ステップS3で、記憶部12から、ステップS1の車両101の位置データに対応する道路の情報を取得する。すなわち、車線数の情報と、車両101の進行方向における道路形状の情報を取得する。次いで、ステップS4で、エッジ検出やパターンマッチングの処理を行うことにより、ステップS2で読み込まれたカメラ画像に境界線BLの画像が含まれているか否かを判定する。ステップS4で肯定されるとステップS5に進み、否定されると処理を終了する。
First, in step S1, the position data of the vehicle 101 (reference point P) detected by the GPS unit 1 is read. Next, in step S2, the camera image acquired by the
ステップS5では、ステップS4で判定された境界線BLの画像が端部境界線BL1またはBL6の画像であるか否かを判定する。ステップS5で肯定されるとステップS6に進み、ステップS2で読み込まれたカメラ画像に基づいて、車両101(基準点P)から左右両側の境界線BL1,BL2またはBL5,BL6までの距離D1,D2を算出する。次いで、ステップS7で、車両101が位置する車線LN1またはLN5の位置データ(実測車線データ)を生成するとともに、ステップS3で取得した道路情報に含まれる車線数の数だけ、車線データを左右方向(車線幅方向)にオフセットして残りの車線LN2〜LN5またはLN1〜LN4の位置データ(推測車線データ)を生成する。そして、これら生成した車線データを記憶部12に記憶する。
In step S5, it is determined whether or not the image of the boundary line BL determined in step S4 is the image of the end boundary line BL1 or BL6. If affirmed in step S5, the process proceeds to step S6, and the distances D1 and D2 from the vehicle 101 (reference point P) to the left and right boundary lines BL1, BL2 or BL5 and BL6 based on the camera image read in step S2. Is calculated. Next, in step S7, the position data (measured lane data) of the lane LN1 or LN5 in which the
一方、ステップS5で否定されるとステップ8に進み、車両101の位置データに対応する車線LN1〜LN5の位置データ(車線データ)が既に記憶部12に記憶されているか否かを判定する。この車線データには、ステップS7で車線LNの位置データを車線幅方向にオフセットすることにより得られた推測車線データが含まれる。ステップS8で肯定されるとステップS9に進み、否定されると処理を終了する。ステップS9では、ステップS2で読み込んだカメラ画像に基づいて、車両101から左右両側の境界線BLまでの距離D1,D2を算出する。次いで、ステップS10で、ステップS9で算出された距離D1,D2のデータを用いて車両101が位置する車線LNの位置データ(実測車線データ)を生成し、さらに、ステップS7で生成された当該車線LNの位置データ(推測車線データ)をこの実測車線データによって更新する。
On the other hand, if it is denied in step S5, the process proceeds to step 8, and it is determined whether or not the position data (lane data) of the lanes LN1 to LN5 corresponding to the position data of the
なお、ステップS7で車線データを生成する際に、ステップS3で取得した道路情報に含まれる道路形状の情報を用いて車両101の進行方向の車線データ(第2の車線データ)を同時に生成するようにしてもよい。さらに、ステップS8で、第2の車線データの有無を判定し、ステップS10で、第2の車線データを更新するようにしてもよい。
When the lane data is generated in step S7, the lane data (second lane data) in the traveling direction of the
本実施形態に係る車線データ生成装置100の動作をまとめると以下のようになる。車両101が複数の車線LN1〜LN5のうちの、例えば右端の第5車線LN5を走行すると、カメラ2により撮像された右側の境界線BL6の画像が端部境界線画像であると認識される。これにより、カメラ画像に基づいて車両101から左右両側の境界線BL5、BL6までの距離D1,D2が算出される(ステップS6)。さらに、この距離データと自車位置に対応する道路の車線数の情報とを用いて、全ての車線LN1〜LN5の位置データ(車線データ)が生成される(ステップS7)。これによりカメラ2により全ての車線LNを認識できない場合であっても、車線データを容易に生成することができる。
The operation of the lane
その後、車両101が第4車線LN4に車線変更すると、自車位置(基準点P)からカメラ2により認識された境界線BL4,BL5までの距離D1,D2が算出される(ステップS9)。そして、この距離データを用いて第4車線LN4の車線データが更新される(ステップS10)。これにより推測車線データが実測車線データに置き換わり、車線データの生成精度が向上する。
After that, when the
図6は、図2の変形例としての車線データ生成装置100Aの概略構成を示すブロック図である。図6では、コントローラ10の演算部11が、機能的構成として、境界線判定部111と距離算出部112と情報取得部113とデータ生成部114とに加え、位置算出部115を有する。
FIG. 6 is a block diagram showing a schematic configuration of a lane
位置算出部115は、データ生成部114により生成された車線データと、距離算出部112により算出された距離D1,D2と、に基づいて、車両101(基準点P)の位置、より詳しくは車線幅方向の位置を算出する。すなわち、車線データに含まれる車両101の左右一方(例えば右側)の境界線BLの位置データから距離D2を減算して基準点Pの位置データを算出する。図7のP1は、位置算出部115により算出された基準点の一例であり、基準点P1は、記憶部12に記憶された境界線BL5(2点鎖線)の位置データからカメラ画像により算出された距離D2を減算することにより得られる。図7のP2は,基準点P1を算出した後に、GPSユニット1により検出された基準点の一例である。すなわち、基準点P1は第1時点で得られ、基準点P2は第1時点よりも後の第2時点で得られる。
The
データ生成部114は、これら基準点P1,P2の位置偏差(例えば基準点P1,P2間の車線幅方向の距離)を算出する。そして、偏差が所定値以上であるとき、基準点P2の位置データを用いて車線データを生成し直す。つまり、距離算出部112で基準点P2から境界線(図4の例では境界線BL4,BL5)までの距離D1,D2を算出するとともに、この距離データと基準点P2の位置データと車線数の情報とに基づいて車線データを生成し、第1時点の車線データを第2時点の車線データにより更新する。更新後の車線データによる境界線BL4,BL5の位置を破線で、境界線BL6の位置を実線で示す。
The
このように最新の車両101の位置データに基づいて車線データを生成することで、例えば車両101の走行に伴い車両周囲の車線LNの形状が変化したときに、その変化に対応した良好な車線データに更新することができる。すなわち、本実施形態の車線データ生成装置100は、車線データが生成されていない箇所の車線データを生成するだけでなく、車線データが既に生成されている箇所の車線データの更新も行うので、例えば道路工事等を行った後で境界線BLの位置が変化した場合にも、適切に対処することができる。
By generating lane data based on the latest position data of the
本実施形態によれば以下のような作用効果を奏することができる。
(1)車線データ生成装置100は、車両101に設けられ、路面上に左右方向に互いに離間して延在する複数の境界線BLによって区画された複数の車線LNの車線データを生成する。複数の境界線BLは、右端の車線LN5の右側および左端の車線LN1の左側に形成された左右一対の端部境界線BL1,BL6と、左右一対の端部境界線BL1,BL6の内側に、端部境界線BL1,BL6に対し略平行に形成された中間境界線BL2〜BL5と、を含む(図1)。この車線データ生成装置100は、車両101の位置を検出するGPSユニット1と、車両101の左右両側に位置する境界線BLを撮像するカメラ2と、カメラ2により撮像された境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5のいずれであるかを判定する境界線判定部111と、カメラ2により撮像された境界線BLの画像情報に基づいて、車両101(基準点P)から左右両側の境界線BLまでの距離D1,D2を算出する距離算出部112と、GPSユニット1により検出された車両101の位置に基づいて、車両101が位置する路面の車線数の情報を取得する情報取得部113と、境界線判定部111により左右両側の境界線BLが端部境界線BL1,BL6のいずれかおよび中間境界線BL2〜BL5のいずれかであると判定されたときの距離算出部112により算出された距離データと、GPSユニット1により検出された車両101の位置データと、情報取得部113により取得された車線数の情報と、に基づいて、複数の車線LNの位置データを生成するデータ生成部114と、を備える(図2)。
According to this embodiment, the following effects can be obtained.
(1) The lane
この構成により、複数の車線LNを有する道路上に車両101が位置する場合において、通信手段を介してダイナミックマップ等から車線データを得ることなく、車載カメラ2の画像に基づいて独自に車線LNの位置データを生成することができる。これにより、例えば自動運転機能を有する車両が自車の走行車線を認識することができ、自動運転車両の走行動作を良好に制御することができる。
With this configuration, when the
(2)データ生成部114は、境界線判定部111により左右両側の境界線BLが端部境界線BL1,BL6のいずれかおよび中間境界線BL2〜BL5のいずれかであると判定されたときの距離算出部112により算出された距離データとGPSユニット1により検出された位置データとに基づいてカメラ2により撮像された左右両側の境界線BLの位置データを算出するとともに、この位置データに基づいて、左端の車線LN1または右端の車線LN5の位置データを生成する。さらに、この車線LN1,LN5の位置データを情報取得部113により取得された車線数の分だけ左右方向にオフセットさせることにより、他の車線LN2〜LN5またはL1〜LN4の位置データを生成する。これにより全ての車線LN1〜LN5の車線データを容易かつ良好に生成することができる。
(2) When the
(3)上記のようにデータ生成部114により生成された複数の車線LN1〜LN5の位置データは、車両101から複数の車線LNが延在する方向における所定距離以内に位置する複数の車線LN1〜LN5の位置データである第1の車線データである。情報取得部113は、さらに道路形状の情報を取得し、データ生成部114は、第1の車線データを生成した後、第1の車線データと情報取得部113により取得された道路形状の情報とに基づいて、車両101から所定距離を越えて位置する複数の車線LN1〜LN5の位置データである第2の車線データを生成する(図4)。これにより車両101から離れた位置における複数の車線LN1〜LN5の車線データを、精度よく生成することができる。また、車両101から所定距離内に存在するが、カメラ2により認識することができない車線LNがある場合の車線データも、道路形状のデータを用いることで良好に生成することができる。
(3) The position data of the plurality of lanes LN1 to LN5 generated by the
(4)変形例の車線データ生成装置100Aは、データ生成部114により生成された複数の車線LNの位置データと、距離算出部112により算出された距離データとに基づいて、車両101の位置を算出する位置算出部115をさらに備える(図6)。GPSユニット1は、第1時点と第1時点よりも後の第2時点の車両101の位置をそれぞれ検出し、データ生成部114は、第1時点に位置算出部115により算出された車両101の位置P1と、第2時点にGPSユニット1により検出された車両101の位置P2との偏差が所定値以上であるとき、第2時点にGPSユニット1により検出された車両101の位置データに基づいて、複数の車線LNの位置データを生成し直す(図7)。最新の車両101の位置データに基づいて車線データを生成することで、車両101の走行に伴い車両周囲の車線LNの形状が変化したときに、その変化に対応した良好な車線データに更新することができる。
(4) The lane
以上の車線データ生成装置100,100Aにより生成された車線データを用いることにより、車両101が位置する車線LNを特定することができる。以下、本発明の実施形態に係る位置特定装置について説明する。
By using the lane data generated by the above lane
図8は、本実施形態に係る位置特定装置200の概略構成を示すブロック図である。位置特定装置200は、例えば図2の車線データ生成装置100をベースとして構成される。すなわち、位置特定装置200は、図2の演算部11に、機能的構成として車線特定部116が追加して構成される。なお、図6の演算部11に、車線特定部116を追加して構成してもよい。
FIG. 8 is a block diagram showing a schematic configuration of the
図9は、車線特定部116の処理を説明するための道路の平面図である。図9の実線および破線の境界線BL1〜BL6は、予め車線データ生成装置100により生成されて記憶部12に記憶された境界線である。車線特定部116は、車線データ生成装置100により生成された複数の車線LNの位置データと、GPSユニット1により検出された車両101の位置データとに基づいて、車両101が位置する車線LNを特定する。
FIG. 9 is a plan view of a road for explaining the processing of the
より詳しくは、車線特定部116は、GPSユニット1により検出された車両101の位置データと、距離算出部112により算出された距離D1,D2のデータとに基づいて、カメラ2により撮像された境界線BLの位置を算出する。例えば、図9に示すように第3車線LN3に車両101が位置する場合において、車両101からの距離D2を用いて車両101の右側の境界線BLの位置を算出する。なお、算出された境界線BLの位置を、図9では点線で示す。そして、この境界線BLの位置と予め記憶部12に記憶された複数の境界線BL1〜BL6の位置とのそれぞれの偏差を算出し、偏差が最も小さい境界線BLを抽出する。図9の例では、偏差が最も小さい境界線として、複数の境界線BL1〜BL6のうち境界線BL4が抽出される。これにより、右側に境界線BL4を有する第3車線LN3が、車両101の位置する車線LNとして特定される。
More specifically, the
このように位置特定装置200においては、車線特定部116が、GPSユニット1により検出された車両101の位置データと、距離算出部112により算出された距離データとに基づいて、カメラ2により撮像された境界線BLの位置を算出するとともに、この境界線BLの位置データと車線データ生成装置100により生成された複数の車線(境界線BL1〜BL6)の位置データとを比較し、比較結果に基づいて車両101が位置する車線LNを特定する。これにより、複数の車線LNのうち自車両101が位置する走行車線を常に把握することができる。
In this way, in the
車両101が位置する車線LNは、車両101が境界線BLをまたいだ回数をカウントすることによっても把握できるが、そのためにはこの回数を正確にカウントする必要がある。このため、正確なカウントが困難な状況においては、車線LNの位置を誤認識するおそれがある。この点、本実施形態では、境界線BLをまたいだ回数をカウントする必要がないため、車両101が位置する車線LNを精度よく認識することができる。
The lane LN in which the
なお、上記実施形態では、車線データ生成装置100,100Aと位置特定装置200とを自動運転車両101に設ける例を説明したが、これらを自動運転車両以外の種々の車両に設けることもでき、車両以外の他の移動体に車線データ装置と位置特定装置とを設けることもできる。上記実施形態では、GPSユニット1により車両101の位置を検出するようにしたが、移動体の位置を検出する位置検出部の構成はこれに限らない。上記実施形態では、車両101の基準点Pに設けられたカメラ2により左右の境界線BLを撮像するようにしたが、撮像部の構成はこれに限らない。
In the above embodiment, an example in which the lane
本実施形態の車線データ生成装置100,100Aを、車線データ生成方法として構成することもできる。この場合には、移動体(車両101)の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線BLを撮像する撮像ステップと、撮像ステップで撮像された境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5のいずれであるかを判定する判定ステップと、撮像された境界線BLの画像情報に基づいて、移動体から左右両側の境界線BLまでの距離D1,D2を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、判定ステップで左右両側の境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5であると判定されたときの算出ステップで算出された距離データと、位置検出ステップで検出された移動体の位置データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線LN1〜LN5の位置データを生成するデータ生成ステップと、を含むように車線データ生成方法を構成することができる(図5)。
The lane
また、本実施形態の位置特定装置200を、位置特定方法として構成することもできる。この場合には、移動体(車両101)の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線BLを撮像する撮像ステップと、撮像ステップで撮像された境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5のいずれであるかを判定する判定ステップと、撮像された境界線BLの画像情報に基づいて、移動体から左右両側の境界線BLまでの距離D1,D2を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、位置検出ステップで検出された移動体の位置データと、判定ステップで左右両側の境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5であると判定されたときの算出ステップで算出された距離データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線LN1〜LN5の位置データを生成するデータ生成ステップと、データ生成ステップで生成された複数の車線LN1〜LN5の位置データと、位置検出ステップで検出された移動体の位置データと、に基づいて、移動体が位置する車線LNを特定する車線特定ステップと、を含むように位置特定方法を構成することができる。
Further, the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or a plurality of the above-described embodiments and the modified examples, and it is also possible to combine the modified examples.
1 GPSユニット、2 カメラ、12 記憶部、100,100A 車線データ生成装置、101 車両、111 境界線判定部、112 距離算出部、113 情報取得部、114 データ生成部、115 位置算出部、116 車線特定部、200 位置特定装置、BL1,BL6 端部境界線、BL2〜BL5 中間境界線 1 GPS unit, 2 cameras, 12 storage units, 100, 100A lane data generator, 101 vehicle, 111 boundary line determination unit, 112 distance calculation unit, 113 information acquisition unit, 114 data generation unit, 115 position calculation unit, 116 lanes Specific part, 200 position identification device, BL1, BL6 end boundary line, BL2 to BL5 intermediate boundary line
Claims (8)
前記複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、前記左右一対の端部境界線の内側に、前記端部境界線に対し略平行に形成された中間境界線と、を含み、
移動体の位置を検出する位置検出部と、
前記移動体の左右両側に位置する境界線を撮像する撮像部と、
前記撮像部により撮像された境界線が前記端部境界線および前記中間境界線のいずれであるかを判定する境界線判定部と、
前記撮像部により撮像された境界線の画像情報に基づいて、前記移動体から前記左右両側の境界線までの距離を算出する距離算出部と、
前記位置検出部により検出された前記移動体の位置に基づいて、前記移動体が位置する路面の車線数の情報を取得する情報取得部と、
前記境界線判定部により前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記距離算出部により算出された距離データと、前記位置検出部により検出された前記移動体の位置データと、前記情報取得部により取得された前記車線数の情報と、に基づいて、前記複数の車線の位置データを生成するデータ生成部と、を備えることを特徴とする車線データ生成装置。 It is a lane data generation device that generates lane data of a plurality of lanes partitioned by a plurality of boundary lines extending laterally apart from each other on the road surface.
The plurality of boundary lines are formed on the right side of the rightmost lane and on the left side of the leftmost lane, and inside the pair of left and right end boundary lines, with respect to the end boundary line. Includes intermediate boundaries formed approximately parallel
A position detector that detects the position of a moving object,
An imaging unit that images the boundary lines located on the left and right sides of the moving body, and
A boundary line determination unit that determines whether the boundary line imaged by the imaging unit is the end boundary line or the intermediate boundary line, and
A distance calculation unit that calculates the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured by the imaging unit.
An information acquisition unit that acquires information on the number of lanes on the road surface on which the moving body is located based on the position of the moving body detected by the position detecting unit.
The distance data calculated by the distance calculation unit when the boundary line determination unit determines that the left and right boundary lines are the end boundary line and the intermediate boundary line, and the position detection unit detects the distance data. It is characterized by including a data generation unit that generates position data of the plurality of lanes based on the position data of the moving body and the information on the number of lanes acquired by the information acquisition unit. Lane data generator.
前記データ生成部は、前記境界線判定部により前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記距離算出部により算出された距離データと前記位置検出部により検出された位置データとに基づいて前記撮像部により撮像された前記左右両側の境界線の位置データを算出するとともに、この位置データに基づいて左端または右端の車線の位置データを生成し、さらにこの車線の位置データを前記情報取得部により取得された車線数の分だけ左右方向にオフセットさせることにより、他の車線の位置データを生成することを特徴とする車線データ生成装置。 In the lane data generator according to claim 1,
The data generation unit is the distance data and the position calculated by the distance calculation unit when the boundary line determination unit determines that the left and right boundary lines are the end boundary line and the intermediate boundary line. Based on the position data detected by the detection unit, the position data of the boundary lines on both the left and right sides captured by the imaging unit is calculated, and the position data of the leftmost or rightmost lane is generated based on this position data. Further, a lane data generation device characterized in that position data of another lane is generated by offsetting the position data of this lane in the left-right direction by the number of lanes acquired by the information acquisition unit.
前記データ生成部により生成された前記複数の車線の位置データと、前記距離算出部により算出された距離データと、に基づいて、前記移動体の位置を算出する位置算出部をさらに備え、
前記位置検出部は、第1時点と該第1時点よりも後の第2時点の前記移動体の位置をそれぞれ検出し、
前記データ生成部は、前記第1時点に前記位置算出部により算出された前記移動体の位置と、前記第2時点に前記位置検出部により検出された前記移動体の位置との偏差が所定値以上であるとき、前記第2時点に前記位置検出部により検出された前記移動体の位置データに基づいて、前記複数の車線の位置データを生成し直すことを特徴とする車線データ生成装置。 In the lane data generator according to claim 1 or 2.
A position calculation unit for calculating the position of the moving body based on the position data of the plurality of lanes generated by the data generation unit and the distance data calculated by the distance calculation unit is further provided.
The position detection unit detects the positions of the moving body at the first time point and the second time point after the first time point, respectively.
In the data generation unit, the deviation between the position of the moving body calculated by the position calculation unit at the first time point and the position of the moving body detected by the position detection unit at the second time point is a predetermined value. In the above case, the lane data generation device is characterized in that the position data of the plurality of lanes is regenerated based on the position data of the moving body detected by the position detection unit at the second time point.
前記データ生成部により生成された前記複数の車線の位置データは、前記移動体から前記複数の車線が延在する方向における所定距離以内に位置する複数の車線の位置データである第1の車線データであり、
前記情報取得部は、さらに道路形状の情報を取得し、
前記データ生成部は、前記第1の車線データを生成した後、前記第1の車線データと前記情報取得部により取得された道路形状の情報とに基づいて、前記移動体から前記所定距離を越えて位置する複数の車線の位置データである第2の車線データを生成することを特徴とする車線データ生成装置。 In the lane data generation device according to any one of claims 1 to 3.
The position data of the plurality of lanes generated by the data generation unit is first lane data which is position data of a plurality of lanes located within a predetermined distance in a direction in which the plurality of lanes extend from the moving body. And
The information acquisition unit further acquires road shape information and obtains information on the road shape.
After generating the first lane data, the data generation unit exceeds the predetermined distance from the moving body based on the first lane data and the road shape information acquired by the information acquisition unit. A lane data generation device characterized in that it generates second lane data which is position data of a plurality of lanes located in a row.
前記車線データ生成装置により生成された複数の車線の位置データと、前記位置検出部により検出された前記移動体の位置データと、に基づいて、前記移動体が位置する車線を特定する車線特定部と、を備えることを特徴とする位置特定装置。 The lane data generator according to any one of claims 1 to 4,
A lane identification unit that identifies the lane in which the moving body is located based on the position data of a plurality of lanes generated by the lane data generation device and the position data of the moving body detected by the position detecting unit. A positioning device characterized by being provided with.
前記車線特定部は、前記位置検出部により検出された前記移動体の位置データと、前記距離算出部により算出された前記距離データと、に基づいて、前記撮像部により撮像された境界線の位置を算出するとともに、この境界線の位置データと前記車線データ生成装置により生成された複数の車線の位置データとを比較し、比較結果に基づいて前記移動体が位置する車線を特定することを特徴とする位置特定装置。 In the position identifying device according to claim 5,
The lane identification unit is based on the position data of the moving body detected by the position detection unit and the distance data calculated by the distance calculation unit, and the position of the boundary line imaged by the image pickup unit. Is calculated, and the position data of the boundary line is compared with the position data of a plurality of lanes generated by the lane data generation device, and the lane in which the moving body is located is specified based on the comparison result. Positioning device.
前記複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、前記左右一対の端部境界線の内側に、前記端部境界線に対し略平行に形成された中間境界線と、を含み、
移動体の位置を検出する位置検出ステップと、
前記移動体の左右両側に位置する境界線を撮像する撮像ステップと、
前記撮像ステップで撮像された境界線が前記端部境界線および前記中間境界線のいずれであるかを判定する判定ステップと、
前記撮像ステップで撮像された境界線の画像情報に基づいて、前記移動体から前記左右両側の境界線までの距離を算出する算出ステップと、
前記位置検出ステップで検出された前記移動体の位置に基づいて、前記移動体が位置する路面の車線数の情報を取得する取得ステップと、
前記判定ステップで前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記算出ステップで算出された距離データと、前記位置検出ステップで検出された前記移動体の位置データと、前記取得ステップで取得された前記車線数の情報と、に基づいて、前記複数の車線の位置データを生成するデータ生成ステップと、を含むことを特徴とする車線データ生成方法。 It is a lane data generation method that generates lane data of a plurality of lanes partitioned by a plurality of boundary lines extending laterally apart from each other on the road surface.
The plurality of boundary lines are formed on the right side of the rightmost lane and on the left side of the leftmost lane, and inside the pair of left and right end boundary lines, with respect to the end boundary line. Includes intermediate boundaries formed approximately parallel
A position detection step that detects the position of a moving object, and
An imaging step for imaging the boundary lines located on the left and right sides of the moving body, and
A determination step for determining whether the boundary line imaged in the imaging step is the edge boundary line or the intermediate boundary line, and
A calculation step of calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step.
An acquisition step of acquiring information on the number of lanes on the road surface on which the moving body is located based on the position of the moving body detected in the position detection step, and
The distance data calculated in the calculation step when it is determined in the determination step that the boundary lines on both the left and right sides are the end boundary line and the intermediate boundary line, and the movement detected in the position detection step. A lane data generation method including a data generation step for generating position data of a plurality of lanes based on body position data and information on the number of lanes acquired in the acquisition step. ..
前記複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、前記左右一対の端部境界線の内側に形成された中間境界線と、を含み、
前記移動体の位置を検出する位置検出ステップと、
前記移動体の左右両側に位置する境界線を撮像する撮像ステップと、
前記撮像ステップで撮像された境界線が前記端部境界線および前記中間境界線のいずれであるかを判定する判定ステップと、
前記撮像ステップで撮像された境界線の画像情報に基づいて、前記移動体から前記左右両側の境界線までの距離を算出する算出ステップと、
前記位置検出ステップで検出された前記移動体の位置に基づいて、前記移動体が位置する路面の車線数の情報を取得する取得ステップと、
前記位置検出ステップで検出された前記移動体の位置データと、前記判定ステップで前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記算出ステップで算出された距離データと、前記取得ステップで取得された前記車線数の情報と、に基づいて、前記複数の車線の位置データを生成するデータ生成ステップと、
前記データ生成ステップで生成された前記複数の車線の位置データと、前記位置検出ステップで検出された前記移動体の位置データと、に基づいて、前記移動体が位置する車線を特定する車線特定ステップと、を含むことを特徴とする位置特定方法。 It is a position identification method for identifying the lane in which the moving body is located by using the lane data of a plurality of lanes partitioned by a plurality of boundary lines extending horizontally apart from each other on the road surface.
The plurality of boundary lines include a pair of left and right end boundary lines formed on the right side of the rightmost lane and a left side of the leftmost lane, and an intermediate boundary line formed inside the pair of left and right end boundary lines. Including
A position detection step for detecting the position of the moving body and
An imaging step for imaging the boundary lines located on the left and right sides of the moving body, and
A determination step for determining whether the boundary line imaged in the imaging step is the edge boundary line or the intermediate boundary line, and
A calculation step of calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step.
An acquisition step of acquiring information on the number of lanes on the road surface on which the moving body is located based on the position of the moving body detected in the position detection step, and
Calculated in the position data of the moving body detected in the position detection step and in the calculation step when it is determined in the determination step that the boundary lines on both the left and right sides are the end boundary line and the intermediate boundary line. A data generation step that generates position data of the plurality of lanes based on the obtained distance data and the information on the number of lanes acquired in the acquisition step.
A lane identification step for identifying the lane in which the moving body is located based on the position data of the plurality of lanes generated in the data generation step and the position data of the moving body detected in the position detection step. And, a positioning method characterized by including.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019134687A JP7149234B2 (en) | 2019-07-22 | 2019-07-22 | Lane data generation device, position specifying device, lane data generation method, and position specifying method |
CN202010665067.2A CN112288805B (en) | 2019-07-22 | 2020-07-10 | Lane data generating device, position determining device, lane data generating method, and position determining method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019134687A JP7149234B2 (en) | 2019-07-22 | 2019-07-22 | Lane data generation device, position specifying device, lane data generation method, and position specifying method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018661A true JP2021018661A (en) | 2021-02-15 |
JP7149234B2 JP7149234B2 (en) | 2022-10-06 |
Family
ID=74419698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019134687A Active JP7149234B2 (en) | 2019-07-22 | 2019-07-22 | Lane data generation device, position specifying device, lane data generation method, and position specifying method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7149234B2 (en) |
CN (1) | CN112288805B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022123239A (en) * | 2021-02-12 | 2022-08-24 | 本田技研工業株式会社 | Division line recognition device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010151658A (en) * | 2008-12-25 | 2010-07-08 | Zhencheng Hu | Apparatus and method for measuring position of mobile object |
JP2010152139A (en) * | 2008-12-25 | 2010-07-08 | Zhencheng Hu | Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body |
JP2018055715A (en) * | 2017-12-06 | 2018-04-05 | 株式会社Jvcケンウッド | Lane recognition apparatus, lane recognition method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4861850B2 (en) * | 2007-02-13 | 2012-01-25 | アイシン・エィ・ダブリュ株式会社 | Lane determination device and lane determination method |
JP5968064B2 (en) * | 2012-05-08 | 2016-08-10 | アルパイン株式会社 | Traveling lane recognition device and traveling lane recognition method |
CN103942959B (en) * | 2014-04-22 | 2016-08-24 | 深圳市宏电技术股份有限公司 | A kind of lane detection method and device |
US9494438B1 (en) * | 2015-12-15 | 2016-11-15 | Honda Motor Co., Ltd. | System and method for verifying map data for a vehicle |
-
2019
- 2019-07-22 JP JP2019134687A patent/JP7149234B2/en active Active
-
2020
- 2020-07-10 CN CN202010665067.2A patent/CN112288805B/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010151658A (en) * | 2008-12-25 | 2010-07-08 | Zhencheng Hu | Apparatus and method for measuring position of mobile object |
JP2010152139A (en) * | 2008-12-25 | 2010-07-08 | Zhencheng Hu | Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body |
JP2018055715A (en) * | 2017-12-06 | 2018-04-05 | 株式会社Jvcケンウッド | Lane recognition apparatus, lane recognition method |
Also Published As
Publication number | Publication date |
---|---|
CN112288805A (en) | 2021-01-29 |
CN112288805B (en) | 2024-03-22 |
JP7149234B2 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5218656B2 (en) | Vehicle travel position determination method and vehicle travel position determination device | |
JP6464783B2 (en) | Object detection device | |
JP6520740B2 (en) | Object detection method, object detection device, and program | |
JP6758160B2 (en) | Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection | |
US11928871B2 (en) | Vehicle position estimation device and traveling position estimation method | |
CN107957258A (en) | Pavement marker identification device | |
JP2007278813A (en) | Vehicle-position positioning device | |
JP6834914B2 (en) | Object recognition device | |
JP2020003463A (en) | Vehicle's self-position estimating device | |
JP7198687B2 (en) | Ambient environment information generation method and ambient environment information generation device | |
JP2007011937A (en) | Signal detection system, signal detection device, information center, and signal detection method | |
JP7149234B2 (en) | Lane data generation device, position specifying device, lane data generation method, and position specifying method | |
JP6790951B2 (en) | Map information learning method and map information learning device | |
JP6776717B2 (en) | Road marking device | |
CN111989541B (en) | Stereo camera device | |
JP7025293B2 (en) | Vehicle position estimation device | |
JP2018120303A (en) | Object detection device | |
JP7291065B2 (en) | Information processing device, information processing method and information processing program | |
US20220307840A1 (en) | Apparatus, method, and computer program for identifying road being traveled | |
JP6869452B2 (en) | Distance measuring device and distance measuring method | |
US20240119832A1 (en) | Vehicle external environment detection system and vehicle | |
JP2018096935A (en) | Own vehicle position estimation device, program, recording medium, and own vehicle position estimation method | |
JP2001283202A (en) | Vehicle state recognizing device | |
CN117622204A (en) | Vehicle control device, vehicle control method, and computer program for vehicle control | |
CN117622206A (en) | Vehicle control device, vehicle control method, and computer program for vehicle control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7149234 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |