JP2021018661A - Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method - Google Patents

Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method Download PDF

Info

Publication number
JP2021018661A
JP2021018661A JP2019134687A JP2019134687A JP2021018661A JP 2021018661 A JP2021018661 A JP 2021018661A JP 2019134687 A JP2019134687 A JP 2019134687A JP 2019134687 A JP2019134687 A JP 2019134687A JP 2021018661 A JP2021018661 A JP 2021018661A
Authority
JP
Japan
Prior art keywords
lane
data
unit
moving body
lanes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019134687A
Other languages
Japanese (ja)
Other versions
JP7149234B2 (en
Inventor
順平 市野川
Junpei Ichinokawa
順平 市野川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019134687A priority Critical patent/JP7149234B2/en
Priority to CN202010665067.2A priority patent/CN112288805B/en
Publication of JP2021018661A publication Critical patent/JP2021018661A/en
Application granted granted Critical
Publication of JP7149234B2 publication Critical patent/JP7149234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

To provide a traffic lane data generation device that appropriately generates traffic lane data containing position information for a plurality of traffic lanes.SOLUTION: A traffic lane data generation device 100 comprises: a border line determination unit 111 that determines whether a boarder line imaged by a camera 2 is an edge border line or an intermediate border line; a distance calculation unit 112 that calculates distances from a vehicle to left and right border lines on the basis of image information for the border line; an information acquisition unit 113 that acquires information on the number of traffic lanes on the basis of a position of the vehicle detected by a GPS unit 1; and a data generation unit 114 that generates position data for a plurality of traffic lanes on the basis of distance data which is calculated by the distance calculation unit 112 when it is determined by the border line determination unit 111 that one and the other of the left and right border lines are an edge border line and an intermediate border line, respectively, and the information on the number of traffic lanes acquired by the information acquisition unit.SELECTED DRAWING: Figure 2

Description

本発明は、車線の位置情報を含む車線データを生成する車線データ生成装置およびこの車線データを用いて移動体の位置を特定する位置特定装置、ならびに車線データ生成方法および位置特定方法に関する。 The present invention relates to a lane data generation device that generates lane data including lane position information, a position identification device that specifies the position of a moving body using the lane data, and a lane data generation method and a position identification method.

この種の装置として、従来、車両に搭載された車載カメラとGPS受信機とからの信号に基づいて、車載カメラにより撮像された車線を規定する左右の境界線の絶対位置(緯度、経度、高度)を算出するようにした装置が知られている(例えば特許文献1参照)。 Conventionally, as this kind of device, the absolute position (latitude, longitude, altitude) of the left and right boundary lines that define the lane imaged by the in-vehicle camera based on the signals from the in-vehicle camera mounted on the vehicle and the GPS receiver. ) Is known (see, for example, Patent Document 1).

特許文献1:特開2018−55715号公報 Patent Document 1: Japanese Unexamined Patent Publication No. 2018-55715

しかしながら、上記特許文献1記載の装置では、複数の車線が設けられた路面上に車両が位置して車載カメラで全ての境界線を認識することが困難な場合に、十分な車線データを得ることが難しい。 However, with the device described in Patent Document 1, sufficient lane data can be obtained when a vehicle is located on a road surface provided with a plurality of lanes and it is difficult for an in-vehicle camera to recognize all the boundary lines. Is difficult.

本発明の一態様は、路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを生成する車線データ生成装置であって、複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、左右一対の端部境界線の内側に、端部境界線に対し略平行に形成された中間境界線と、を含む。車線データ生成装置は、移動体の位置を検出する位置検出部と、移動体の左右両側に位置する境界線を撮像する撮像部と、撮像部により撮像された境界線が端部境界線および中間境界線のいずれであるかを判定する境界線判定部と、撮像部により撮像された境界線の画像情報に基づいて、移動体から左右両側の境界線までの距離を算出する距離算出部と、位置検出部により検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する情報取得部と、境界線判定部により左右両側の境界線が端部境界線および中間境界線であると判定されたときの距離算出部により算出された距離データと、位置検出部により検出された移動体の位置データと、情報取得部により取得された車線数の情報と、に基づいて、複数の車線の位置データを生成するデータ生成部と、を備える。 One aspect of the present invention is a lane data generation device that generates lane data of a plurality of lanes partitioned by a plurality of boundary lines extending laterally apart from each other on a road surface, wherein the plurality of boundary lines are , A pair of left and right end boundaries formed on the right side of the rightmost lane and a left side of the leftmost lane, and an intermediate boundary formed substantially parallel to the end boundary line inside the pair of left and right end boundaries. Includes lines and. The lane data generator includes a position detection unit that detects the position of the moving body, an imaging unit that images the boundary lines located on both the left and right sides of the moving body, and the boundary line imaged by the imaging unit at the end boundary line and the middle. A boundary line determination unit that determines which of the boundary lines is used, and a distance calculation unit that calculates the distance from the moving body to the left and right boundary lines based on the image information of the boundary line captured by the imaging unit. Based on the position of the moving body detected by the position detection unit, the information acquisition unit that acquires information on the number of lanes on the road surface on which the moving body is located, and the boundary line determination unit sets the boundary lines on both the left and right sides to the end boundary line and The distance data calculated by the distance calculation unit when it is determined to be the intermediate boundary line, the position data of the moving body detected by the position detection unit, and the information on the number of lanes acquired by the information acquisition unit are Based on this, it includes a data generation unit that generates position data of a plurality of lanes.

本発明の他の態様である位置特定装置は、上記の車線データ生成装置と、車線データ生成装置により生成された複数の車線の位置データと、位置検出部により検出された移動体の位置データと、に基づいて、移動体が位置する車線を特定する車線特定部と、を備える。 The position identification device according to another aspect of the present invention includes the above-mentioned lane data generation device, the position data of a plurality of lanes generated by the lane data generation device, and the position data of the moving body detected by the position detection unit. A lane identification unit that identifies the lane in which the moving body is located is provided based on.

本発明のさらに他の態様は、路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを生成する車線データ生成方法であって、複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、左右一対の端部境界線の内側に、端部境界線に対し略平行に形成された中間境界線と、を含む。車線データ生成方法は、移動体の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線を撮像する撮像ステップと、撮像ステップで撮像された境界線が端部境界線および中間境界線のいずれであるかを判定する判定ステップと、撮像ステップで撮像された境界線の画像情報に基づいて、移動体から左右両側の境界線までの距離を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、判定ステップで左右両側の境界線が端部境界線および中間境界線であると判定されたときの算出ステップで算出された距離データと、位置検出ステップで検出された移動体の位置データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線の位置データを生成するデータ生成ステップと、を含む。 Yet another aspect of the present invention is a lane data generation method for generating lane data of a plurality of lanes partitioned by a plurality of boundaries extending laterally apart from each other on a road surface, wherein the plurality of boundaries. The lines were formed on the right side of the rightmost lane and on the left side of the leftmost lane, and inside the pair of left and right end boundary lines, substantially parallel to the end boundary line. Includes intermediate boundaries. The lane data generation method includes a position detection step for detecting the position of the moving body, an imaging step for imaging the boundary lines located on both the left and right sides of the moving body, and the boundary line imaged in the imaging step at the end boundary line and the middle. A determination step for determining which of the boundary lines, a calculation step for calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step, and a position detection step. Based on the position of the moving body detected in, the acquisition step of acquiring the information on the number of lanes on the road surface on which the moving body is located and the determination step indicate that the boundary lines on both the left and right sides are the end boundary line and the intermediate boundary line. Positions of a plurality of lanes based on the distance data calculated in the calculation step at the time of determination, the position data of the moving body detected in the position detection step, and the information on the number of lanes acquired in the acquisition step. Includes a data generation step to generate data.

本発明のさらにまた他の態様は、路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを用いて、移動体が位置する車線を特定する位置特定方法であって、複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、左右一対の端部境界線の内側に形成された中間境界線と、を含む。位置特定方法は、移動体の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線を撮像する撮像ステップと、撮像ステップで撮像された境界線が端部境界線および中間境界線のいずれであるかを判定する判定ステップと、撮像ステップで撮像された境界線の画像情報に基づいて、移動体から左右両側の境界線までの距離を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、位置検出ステップで検出された移動体の位置データと、判定ステップで左右両側の境界線が端部境界線および中間境界線であると判定されたときの算出ステップで算出された距離データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線の位置データを生成するデータ生成ステップと、データ生成ステップで生成された複数の車線の位置データと、位置検出ステップで検出された移動体の位置データと、に基づいて、移動体が位置する車線を特定する車線特定ステップと、を含む。 Yet another aspect of the present invention uses lane data of a plurality of lanes partitioned by a plurality of boundaries extending laterally apart from each other on the road surface to identify the lane in which the moving body is located. In the positioning method, a plurality of boundary lines are formed inside a pair of left and right end boundary lines formed on the right side of the right end lane and the left side of the left end lane, and inside a pair of left and right end boundary lines. Includes intermediate boundaries. The position identification method includes a position detection step for detecting the position of the moving object, an imaging step for imaging the boundary lines located on both the left and right sides of the moving object, and the boundary line imaged in the imaging step for the end boundary line and the intermediate boundary. In the determination step of determining which of the lines it is, the calculation step of calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step, and the position detection step. Based on the detected position of the moving body, the acquisition step of acquiring the information on the number of lanes on the road surface on which the moving body is located, the position data of the moving body detected in the position detection step, and the boundary between the left and right sides in the determination step. Position data of a plurality of lanes based on the distance data calculated in the calculation step when it is determined that the line is the end boundary line and the intermediate boundary line, and the information on the number of lanes acquired in the acquisition step. The lane in which the moving body is located is specified based on the data generation step for generating the data, the position data of a plurality of lanes generated in the data generation step, and the position data of the moving body detected in the position detection step. Including lane identification steps and.

本発明によれば、複数の車線の車線データを容易かつ良好に得ることができる。 According to the present invention, lane data of a plurality of lanes can be easily and satisfactorily obtained.

本発明の実施形態に係る車線データ生成装置が適用される道路の一例を示す平面図。The plan view which shows an example of the road to which the lane data generation device which concerns on embodiment of this invention is applied. 本発明の実施形態に係る車線データ生成装置の要部構成を示すブロック図。The block diagram which shows the main part structure of the lane data generation apparatus which concerns on embodiment of this invention. 図2の演算部で実行される処理の一例を説明するための図。The figure for demonstrating an example of the process executed by the arithmetic unit of FIG. 図2の車線データ生成装置により得られる車線データの一例を示す図。The figure which shows an example of the lane data obtained by the lane data generator of FIG. 図4の演算部で実行される処理の一例を示すフローチャート。The flowchart which shows an example of the process executed by the arithmetic unit of FIG. 図2の変形例を示す図。The figure which shows the modification of FIG. 図6の位置算出部の処理を説明するための図。The figure for demonstrating the processing of the position calculation part of FIG. 本発明の実施形態に係る位置特定装置の要部構成を示すブロック図。The block diagram which shows the main part structure of the position identification apparatus which concerns on embodiment of this invention. 図8の車線特定部の処理を説明するための図。The figure for demonstrating the processing of the lane identification part of FIG.

以下、図1〜図9を参照して本発明の実施形態について説明する。本発明の実施形態に係る車線データ生成装置は、例えば自動運転機能を有する車両に搭載される。この種の車両は、複数の車線を有する幅広の道路を走行中に、どの車線を走行しているかが特定された上で走行動作が制御される。このため、車線の位置データを車両が正確に把握する必要があるが、これを例えば通信手段を介してダイナミックマップ(HDマップとも呼ぶ)に含まれるデータなどから取得しようとすると、データ取得のための高度な通信手段が必要となり、コストの上昇を招く。そこで、本実施形態に係る車線データ生成装置は、ダイナミックマップからデータを得るのではなく、独自に車線データを生成するように構成される。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 9. The lane data generation device according to the embodiment of the present invention is mounted on, for example, a vehicle having an automatic driving function. In a vehicle of this type, while traveling on a wide road having a plurality of lanes, the traveling operation is controlled after identifying which lane the vehicle is traveling in. For this reason, it is necessary for the vehicle to accurately grasp the lane position data, but if it is attempted to acquire this from data included in a dynamic map (also called an HD map) via a communication means, for example, the data is acquired. Advanced communication means are required, which leads to an increase in cost. Therefore, the lane data generation device according to the present embodiment is configured to independently generate lane data instead of obtaining data from the dynamic map.

図1は、複数の車線(例えば片側5車線)を有する道路の一例を示す平面図である。車線とは、車両101の走行領域を規定する所定幅の走行レーンである。以下では、図示のように前後方向および左右方向を定義し、この定義に従い各部の構成を説明する。前後方向は車線LNの延在する方向であり、左右方向は車線LNに直交する車線幅方向である。図示のように車線LNに沿って車両101が走行しているとき、前後方向は車両101の長さ方向に相当し、左右方向は車幅方向に相当する。複数の車線LN(LN1〜LN5)を左側から順番に第1車線LN1、第2車線LN2、第3車線LN3、第4車線LN4、第5車線LN5と呼ぶ。図1では、車線データ生成装置100を有する車両101が、第1車線LN1を走行している。 FIG. 1 is a plan view showing an example of a road having a plurality of lanes (for example, five lanes on each side). A lane is a traveling lane having a predetermined width that defines a traveling area of the vehicle 101. In the following, the front-rear direction and the left-right direction are defined as shown in the figure, and the configuration of each part will be described according to this definition. The front-rear direction is the direction in which the lane LN extends, and the left-right direction is the lane width direction orthogonal to the lane LN. When the vehicle 101 is traveling along the lane LN as shown in the drawing, the front-rear direction corresponds to the length direction of the vehicle 101, and the left-right direction corresponds to the vehicle width direction. The plurality of lanes LNs (LN1 to LN5) are referred to as a first lane LN1, a second lane LN2, a third lane LN3, a fourth lane LN4, and a fifth lane LN5 in order from the left side. In FIG. 1, a vehicle 101 having a lane data generation device 100 is traveling in the first lane LN1.

各車線LNは、互いに左右方向に離間して並行に延在する複数の境界線BL(BL1〜BL6)によって規定される。すなわち、第1車線LN1は左右一対の境界線BL1,BL2により、第2車線LN2は左右一対の境界線BL2,BL3により、第3車線LN3は左右一対の境界線BL3,BL4により、第4車線LN4は左右一対の境界線BL4,BL5により、第5車線LN5は左右一対の境界線BL5,BL6によりそれぞれ規定される。境界線BL1〜BL6のうち、左右両端部の境界線BL1,BL6、すなわち道路領域を規定する境界線を端部境界線と呼び、端部境界線BL1,BL6の内側の境界線BL2〜BL5を中間境界線と呼ぶ。 Each lane LN is defined by a plurality of boundary lines BL (BL1 to BL6) extending in parallel so as to be separated from each other in the left-right direction. That is, the first lane LN1 has a pair of left and right boundary lines BL1 and BL2, the second lane LN2 has a pair of left and right boundary lines BL2 and BL3, and the third lane LN3 has a pair of left and right boundary lines BL3 and BL4. The LN4 is defined by a pair of left and right boundary lines BL4 and BL5, and the fifth lane LN5 is defined by a pair of left and right boundary lines BL5 and BL6. Of the boundary lines BL1 to BL6, the boundary lines BL1 and BL6 at both left and right ends, that is, the boundary lines defining the road area are called end boundary lines, and the inner boundary lines BL2 to BL5 of the end boundary lines BL1 and BL6 are referred to. Called the intermediate boundary.

端部境界線BL1,BL6と中間境界線BL2〜BL5とは、互いに異なる形態で表される。例えば、図1に示すように端部境界線BL1,BL6は実線で、中間境界線BL2〜BL5は破線で表される。なお、図1に一点鎖線で示す、各車線LNの中央を通る仮想線CLを、中央線と呼ぶ。各車線LNの車線データは、各車線LNを規定する左右一対の境界線BLの位置データ(緯度、経度など)と、各車線LNの中央線CLの位置データ(緯度、経度など)とを含む。 The end boundary lines BL1 and BL6 and the intermediate boundary lines BL2 and BL5 are represented in different forms from each other. For example, as shown in FIG. 1, the end boundary lines BL1 and BL6 are represented by solid lines, and the intermediate boundary lines BL2 to BL5 are represented by broken lines. The virtual line CL passing through the center of each lane LN shown by the alternate long and short dash line in FIG. 1 is referred to as a center line. The lane data of each lane LN includes the position data (latitude, longitude, etc.) of the pair of left and right boundary lines BL that define each lane LN, and the position data (latitude, longitude, etc.) of the center line CL of each lane LN. ..

図2は、本実施形態に係る車線データ生成装置100の要部構成を示すブロック図である。図2に示すように、車線データ生成装置100は、GPSユニット1と、カメラ2と、地図データベース3と、通信ユニット4と、コントローラ10とを備える。GPSユニット1とカメラ2と地図データベース3と通信ユニット4とは、それぞれコントローラ10に通信可能に接続される。 FIG. 2 is a block diagram showing a main configuration of the lane data generation device 100 according to the present embodiment. As shown in FIG. 2, the lane data generation device 100 includes a GPS unit 1, a camera 2, a map database 3, a communication unit 4, and a controller 10. The GPS unit 1, the camera 2, the map database 3, and the communication unit 4 are connected to the controller 10 so as to be able to communicate with each other.

GPSユニット(GNSSユニット)1は、複数のGPS衛星からの測位信号を受信するGPS受信機(GPSセンサ)を有し、GPS受信機が受信した測位信号に基づいて車両101の基準点の絶対位置(緯度、経度など)を測定する。基準点は、車両101の車幅方向中央の所定位置、例えばフロントガラスの上方に設定される。 The GPS unit (GNSS unit) 1 has a GPS receiver (GPS sensor) that receives positioning signals from a plurality of GPS satellites, and an absolute position of a reference point of the vehicle 101 based on the positioning signal received by the GPS receiver. Measure (latitude, longitude, etc.). The reference point is set at a predetermined position in the center of the vehicle 101 in the vehicle width direction, for example, above the windshield.

カメラ2は、CCDやCMOS等の撮像素子(イメージセンサ)を有する単眼カメラである。カメラ2は、例えばフロントガラスの上方の基準点に取り付けられ、車両101の前方空間を撮像し、対象物の画像(カメラ画像)を取得する。対象物には、車両斜め前方の左右一対の境界線BLが含まれる。カメラ画像上の対象物の位置と対象物の実際の位置(カメラ2を基準とした相対位置)との間には所定の相関関係がある。この相関関係は予め記憶部12に記憶されており、この相関関係を用いて、カメラ画像から対象物の実位置(カメラ2からの相対位置)を検出できる。なお、単眼カメラに代えてステレオカメラをカメラ2として用い、ステレオカメラにより対象物の実位置を検出してもよい。 The camera 2 is a monocular camera having an image sensor (image sensor) such as a CCD or CMOS. The camera 2 is attached to, for example, a reference point above the windshield, images the space in front of the vehicle 101, and acquires an image (camera image) of the object. The object includes a pair of left and right boundary lines BL diagonally forward of the vehicle. There is a predetermined correlation between the position of the object on the camera image and the actual position of the object (relative position with respect to the camera 2). This correlation is stored in the storage unit 12 in advance, and the actual position of the object (relative position from the camera 2) can be detected from the camera image by using this correlation. A stereo camera may be used as the camera 2 instead of the monocular camera, and the actual position of the object may be detected by the stereo camera.

地図データベース3は、不図示のナビゲーション装置に用いられる一般的な地図情報を記憶する装置であり、例えばハードディスクや半導体素子により構成される。地図情報には、道路の位置情報、道路形状(曲率など)の情報、交差点や分岐点の位置情報が含まれる。なお、地図データベース3に記憶される地図情報を、コントローラ10の記憶部12に記憶してもよい。 The map database 3 is a device that stores general map information used in a navigation device (not shown), and is composed of, for example, a hard disk or a semiconductor element. Map information includes road position information, road shape (curvature, etc.) information, and intersection and branch point position information. The map information stored in the map database 3 may be stored in the storage unit 12 of the controller 10.

通信ユニット4は、インターネット回線などの無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報および交通情報などを定期的に、あるいは任意のタイミングでサーバから取得する。取得した地図情報は、地図データベース3や記憶部12に出力され、地図情報が更新される。 The communication unit 4 communicates with various servers (not shown) via a network including a wireless communication network such as an Internet line, and acquires map information, traffic information, and the like from the server periodically or at an arbitrary timing. The acquired map information is output to the map database 3 and the storage unit 12, and the map information is updated.

コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。 The controller 10 is composed of an electronic control unit (ECU). More specifically, the controller 10 includes a computer having a calculation unit 11 such as a CPU, a storage unit 12 such as a ROM and a RAM, and other peripheral circuits (not shown) such as an I / O interface. ..

記憶部12には、道路情報が記憶される。道路情報には、高速道路、有料道路、国道などの道路の種別を表す情報、道路の車線数、各車線の幅員、道路の勾配、道路の3次元座標位置、車線のカーブの曲率、車線の合流ポイントおよび分岐ポイントの位置、道路標識等の情報が含まれる。車線データ生成装置100により生成された車線データ、すなわち車線LNの位置データ(境界線BLの位置データ、中央線CLの位置データ等)も、道路情報の一部として記憶部12に記憶される。記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等の情報も記憶される。 Road information is stored in the storage unit 12. Road information includes information indicating the type of road such as highways, toll roads, and national roads, the number of lanes, the width of each lane, the slope of the road, the three-dimensional coordinate position of the road, the curvature of the curve of the lane, and the lane. Information such as the positions of merging points and branching points, road signs, etc. is included. The lane data generated by the lane data generation device 100, that is, the position data of the lane LN (position data of the boundary line BL, position data of the center line CL, etc.) is also stored in the storage unit 12 as a part of the road information. Information such as various control programs and threshold values used in the programs is also stored in the storage unit 12.

演算部11は、車線データの生成に関する機能的構成として、境界線判定部111と、距離算出部112と、情報取得部113と、データ生成部114とを有する。 The calculation unit 11 has a boundary line determination unit 111, a distance calculation unit 112, an information acquisition unit 113, and a data generation unit 114 as a functional configuration for generating lane data.

図3は、演算部11で実行される処理の一例を説明するための図である。なお、図3には、道路の平面図上に車両101が模式的な円形のマークで示されるとともに、車両101が右端の第5車線LN5から左隣の第4車線LN4に移動した状態が示される。車両101の向きは円形マーク内の突起状のマークの向きによって示され、車両101は車線LNの延在する方向を向いている。突起状のマークの先端Pは、GPSユニット1により検出される車両101の位置、すなわち基準点である。円形マークから車両進行方向に向けて延びるハッチングの領域は、基準点Pに設けられたカメラ2による撮像範囲ARを表す。撮像範囲ARには制限があり、例えば第5車線LN5に車両101が位置するとき、車線LN5の左右両側の境界線BL5,BL6は撮像範囲に含まれるが、全ての境界線BL1〜BL6を撮像範囲ARに含めることは期待できない。 FIG. 3 is a diagram for explaining an example of processing executed by the calculation unit 11. In addition, FIG. 3 shows a state in which the vehicle 101 is indicated by a schematic circular mark on the plan view of the road and the vehicle 101 has moved from the fifth lane LN5 at the right end to the fourth lane LN4 adjacent to the left. Is done. The orientation of the vehicle 101 is indicated by the orientation of the protruding mark in the circular mark, and the vehicle 101 is oriented in the extending direction of the lane LN. The tip P of the protruding mark is the position of the vehicle 101 detected by the GPS unit 1, that is, the reference point. The hatched area extending from the circular mark in the vehicle traveling direction represents the imaging range AR by the camera 2 provided at the reference point P. The imaging range AR is limited. For example, when the vehicle 101 is located in the fifth lane LN5, the boundary lines BL5 and BL6 on both the left and right sides of the lane LN5 are included in the imaging range, but all the boundary lines BL1 to BL6 are imaged. It cannot be expected to be included in the range AR.

境界線判定部111は、カメラ2により撮像された画像に含まれる境界線BLの画像を、エッジ検出やパターンマッチングの処理を行うことにより認識する。さらに、境界線判定部111は、認識された境界線BLの画像の特徴点を抽出し、抽出された特徴点に基づいて、認識された境界線BLが端部境界線BL1,BL6(実線)および中間境界線BL2〜BL5(破線)のいずれであるかを判定する。 The boundary line determination unit 111 recognizes the image of the boundary line BL included in the image captured by the camera 2 by performing edge detection and pattern matching processing. Further, the boundary line determination unit 111 extracts feature points of the image of the recognized boundary line BL, and based on the extracted feature points, the recognized boundary line BL is the end boundary lines BL1 and BL6 (solid lines). And which of the intermediate boundary lines BL2 to BL5 (broken line) is determined.

距離算出部112は、カメラ2により撮像された左右両側の境界線BLの画像情報に基づいて、車両101の左右方向中央の基準点Pから左右両側の境界線BL(例えば所定幅を有する境界線BLの中心または境界線BLの左右方向内側のエッジ)までの距離D1,D2を算出する。より詳しくは、予め記憶部12に記憶された画像上の位置と実位置との相関関係を用いることで、基準点Pに位置するカメラ2から境界線判定部111で認識された境界線BLまでの左右方向の距離、すなわち、境界線BLと中央線CLとに垂直な方向の距離を算出する。例えば図3に示すように、車両101が第5車線LN5に位置するとき、基準点Pから中間境界線BL5までの左側の距離D1と端部境界線BL6までの右側の距離D2とを算出する。 The distance calculation unit 112 is based on the image information of the boundary lines BL on both the left and right sides captured by the camera 2, and the boundary lines BL on both the left and right sides (for example, a boundary line having a predetermined width) from the reference point P at the center in the left-right direction of the vehicle 101 The distances D1 and D2 to the center of the BL or the inner edge of the boundary line BL in the left-right direction are calculated. More specifically, by using the correlation between the position on the image and the actual position stored in the storage unit 12 in advance, from the camera 2 located at the reference point P to the boundary line BL recognized by the boundary line determination unit 111. The distance in the left-right direction of, that is, the distance in the direction perpendicular to the boundary line BL and the center line CL is calculated. For example, as shown in FIG. 3, when the vehicle 101 is located in the fifth lane LN5, the distance D1 on the left side from the reference point P to the intermediate boundary line BL5 and the distance D2 on the right side to the end boundary line BL6 are calculated. ..

情報取得部113は、GPSユニット1から送信された信号に基づいて車両101が位置する道路地点を特定するとともに、記憶部12に記憶された道路情報から、当該道路地点に対応する車線数の情報を取得する。図3の例では、車線数=5の情報を取得する。 The information acquisition unit 113 identifies the road point where the vehicle 101 is located based on the signal transmitted from the GPS unit 1, and from the road information stored in the storage unit 12, information on the number of lanes corresponding to the road point. To get. In the example of FIG. 3, the information of the number of lanes = 5 is acquired.

データ生成部114は、境界線判定部111により左右の境界線BLのいずれか一方が端部境界線BL1またはBL6であると判定されたときの距離算出部112により算出された距離D1,D2のデータ(距離データ)と、GPSユニット1により検出された車両101(基準点P)の位置データと、情報取得部113により取得された車線数の情報とに基づいて、複数の車線LN1〜LN5の位置データを生成する。 The data generation unit 114 of the distances D1 and D2 calculated by the distance calculation unit 112 when one of the left and right boundary lines BL is determined by the boundary line determination unit 111 to be the end boundary line BL1 or BL6. Based on the data (distance data), the position data of the vehicle 101 (reference point P) detected by the GPS unit 1, and the information on the number of lanes acquired by the information acquisition unit 113, the plurality of lanes LN1 to LN5 Generate position data.

より具体的には、カメラ2により認識された境界線BLの画像が、図3に示すように、端部境界線BL6の画像であると認識されると、データ生成部114は、基準点Pからその左右両側の境界線BL5,BL6までの距離D1,D2のデータを用いて、車両101が位置する車線LN5の位置データ(車線データ)、すなわち境界線BL5,BL6と中央線CLの位置データを生成する。さらに、この車線データに含まれる境界線BL5,BL6の位置データから車線幅ΔWを算出し、GPSユニット1により検出された自車位置に対応する、情報取得部113により取得された道路の車線数の数だけ、車線幅ΔWの長さ分、境界線BL5、BL6の位置データを左方向にオフセットすることにより、残りの車線LN1〜LN4の位置データ(境界線BL1〜BL4の位置データ等)を生成する。 More specifically, when the image of the boundary line BL recognized by the camera 2 is recognized as the image of the end boundary line BL6 as shown in FIG. 3, the data generation unit 114 sets the reference point P. Position data (lane data) of the lane LN5 where the vehicle 101 is located, that is, position data of the boundary lines BL5, BL6 and the center line CL, using the data of the distances D1 and D2 from the boundary lines BL5 and BL6 on both the left and right sides thereof. To generate. Further, the lane width ΔW is calculated from the position data of the boundary lines BL5 and BL6 included in the lane data, and the number of lanes on the road acquired by the information acquisition unit 113 corresponding to the own vehicle position detected by the GPS unit 1. By offsetting the position data of the boundary lines BL5 and BL6 to the left by the length of the lane width ΔW, the position data of the remaining lanes LN1 to LN4 (position data of the boundary lines BL1 to BL4, etc.) can be obtained. Generate.

なお、基準点Pからの距離D1,D2を算出することにより得られる車線LN5の位置データを実測車線データ、この実測車線データを用いて得られる残りの車線LN1〜LN4の位置データを推測車線データと呼ぶ。以上により複数の車線LN1〜LN5の車線データを得ることができる。カメラ2により認識された境界線BLの画像が端部境界線BL1の画像であると認識されたときは、データ生成部114は、車両101が位置する第1車線LN1の位置データを車線数の数だけ右方向にオフセットすることにより、車線LN2〜LN5の推測車線データを生成する。データ生成部114により生成された位置データは、車線データ(実測車線データ、推測車線データ)として記憶部12に記憶される。 The position data of the lane LN5 obtained by calculating the distances D1 and D2 from the reference point P is the measured lane data, and the position data of the remaining lanes LN1 to LN4 obtained by using the measured lane data is estimated lane data. Called. From the above, lane data of a plurality of lanes LN1 to LN5 can be obtained. When the image of the boundary line BL recognized by the camera 2 is recognized as the image of the end boundary line BL1, the data generation unit 114 uses the position data of the first lane LN1 in which the vehicle 101 is located as the number of lanes. Estimated lane data of lanes LN2 to LN5 is generated by offsetting to the right by the number. The position data generated by the data generation unit 114 is stored in the storage unit 12 as lane data (measured lane data, estimated lane data).

データ生成部114は、例えば所定時間毎に車線データを生成し、記憶部12に記憶された車線データを更新する。図3に示すように、車両101が第5車線LN5から第4車線LN4に車線変更したときには、データ生成部114は、車両101から左右両側の境界線BL4,BL5までの距離D1,D2を算出し、算出された距離D1,D2のデータを用いて第4車線LN4の車線データ(実測車線データ)を生成する。そして、記憶部12に記憶されていた第4車線LN4の推測車線データを実測車線データに置き換えて更新するとともに、この車線データの更新(例えば境界線BL4の位置データの変更)に伴い、第1車線LN1〜第3車線LN3の推測車線データを修正(更新)する。 The data generation unit 114 generates lane data at predetermined time intervals, for example, and updates the lane data stored in the storage unit 12. As shown in FIG. 3, when the vehicle 101 changes lanes from the fifth lane LN5 to the fourth lane LN4, the data generation unit 114 calculates the distances D1 and D2 from the vehicle 101 to the left and right boundary lines BL4 and BL5. Then, the lane data (measured lane data) of the fourth lane LN4 is generated using the calculated data of the distances D1 and D2. Then, the estimated lane data of the fourth lane LN4 stored in the storage unit 12 is replaced with the actually measured lane data and updated, and the first lane data is updated (for example, the position data of the boundary line BL4 is changed). Correct (update) the estimated lane data for lanes LN1 to 3rd lane LN3.

なお、車両101が第1車線LN1〜第3車線LN3に移動したときも同様に、各車線LN1〜LN3の実測車線データを生成し、推測車線データを実測車線データに置き換えて車線データを更新する。このように実測された距離D1,D2のデータを用いて車線データを更新することで、車線データが実際の車線LNの位置を精度よく表すようになり、車線データの生成精度が高まる。 Similarly, when the vehicle 101 moves to the first lane LN1 to the third lane LN3, the measured lane data of each lane LN1 to LN3 is generated, the estimated lane data is replaced with the measured lane data, and the lane data is updated. .. By updating the lane data using the data of the distances D1 and D2 actually measured in this way, the lane data can accurately represent the position of the actual lane LN, and the lane data generation accuracy is improved.

以上のようにして生成された車線データは、車両101から車線LNの延在する方向における所定距離(カメラ2の撮像範囲)内に存在する複数の車線LNの位置データ(第1の車線データと呼ぶ)である。データ生成部114は、この第1の車線データと、地図データベース3により得られる地図情報(道路情報)とに基づいて、車両101から所定距離を越えて存在する複数の車線LNの位置データ(第2の車線データと呼ぶ)をさらに生成する。 The lane data generated as described above is the position data (with the first lane data) of a plurality of lane LNs existing within a predetermined distance (imaging range of the camera 2) in the extending direction of the lane LN from the vehicle 101. Call). The data generation unit 114 is based on the first lane data and the map information (road information) obtained by the map database 3, and the position data (first) of a plurality of lane LNs existing over a predetermined distance from the vehicle 101. (Called 2 lane data) is further generated.

具体的には、GPSユニット1により検出された自車位置と地図情報とに基づいて地図上の自車位置を認識する。そして、データ生成部114が、例えば図4に示すように、道路が所定曲率のカーブ路になると判断すると、このカーブ路に沿って車線データが変化するように(例えば図4の矢印で示すように中央線CLの位置が変化するように)、車両101から所定距離を越える各車線LN1〜LN5の車線データを生成し、この車線データを記憶部12に記憶する。このように道路形状に応じて第2の車線データを生成することで、車両101から離れた位置における複数の車線LNの車線データを、精度よく生成することができる。また、車両101から所定距離内に存在するが、カメラ2により認識することができない車線LNがある場合の車線データも、道路形状のデータを用いることで良好に生成することができる。すなわち、第2の車線データだけでなく第1の車線データも、道路形状のデータを用いて生成することができる。 Specifically, the vehicle position on the map is recognized based on the vehicle position detected by the GPS unit 1 and the map information. Then, when the data generation unit 114 determines that the road becomes a curved road having a predetermined curvature as shown in FIG. 4, for example, the lane data is changed along the curved road (for example, as shown by the arrow in FIG. 4). The lane data of each lane LN1 to LN5 exceeding a predetermined distance from the vehicle 101 is generated (so that the position of the center line CL changes), and the lane data is stored in the storage unit 12. By generating the second lane data according to the road shape in this way, it is possible to accurately generate lane data of a plurality of lanes LNs at positions away from the vehicle 101. Further, lane data when there is a lane LN that exists within a predetermined distance from the vehicle 101 but cannot be recognized by the camera 2 can be satisfactorily generated by using the road shape data. That is, not only the second lane data but also the first lane data can be generated by using the road shape data.

図5は、予め記憶部12に記憶されたプログラムに従い演算部11で実行される処理の一例、特に第1の車線データの生成に係る処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば車両電源のオンにより開始され、所定周期で繰り返される。なお、以下のフローチャートの説明では、便宜上、図1の車線LN1〜LN5を用いる。 FIG. 5 is a flowchart showing an example of processing executed by the calculation unit 11 according to a program stored in the storage unit 12 in advance, particularly an example of processing related to the generation of the first lane data. The process shown in this flowchart is started, for example, by turning on the vehicle power, and is repeated at a predetermined cycle. In the description of the flowchart below, the lanes LN1 to LN5 of FIG. 1 are used for convenience.

まず、ステップS1で、GPSユニット1により検出された車両101(基準点P)の位置データを読み込む。次いで、ステップS2で、カメラ2により取得されたカメラ画像を読み込む。次いで、ステップS3で、記憶部12から、ステップS1の車両101の位置データに対応する道路の情報を取得する。すなわち、車線数の情報と、車両101の進行方向における道路形状の情報を取得する。次いで、ステップS4で、エッジ検出やパターンマッチングの処理を行うことにより、ステップS2で読み込まれたカメラ画像に境界線BLの画像が含まれているか否かを判定する。ステップS4で肯定されるとステップS5に進み、否定されると処理を終了する。 First, in step S1, the position data of the vehicle 101 (reference point P) detected by the GPS unit 1 is read. Next, in step S2, the camera image acquired by the camera 2 is read. Next, in step S3, road information corresponding to the position data of the vehicle 101 in step S1 is acquired from the storage unit 12. That is, the information on the number of lanes and the information on the road shape in the traveling direction of the vehicle 101 are acquired. Next, in step S4, edge detection and pattern matching are performed to determine whether or not the camera image read in step S2 includes the image of the boundary line BL. If affirmed in step S4, the process proceeds to step S5, and if denied, the process ends.

ステップS5では、ステップS4で判定された境界線BLの画像が端部境界線BL1またはBL6の画像であるか否かを判定する。ステップS5で肯定されるとステップS6に進み、ステップS2で読み込まれたカメラ画像に基づいて、車両101(基準点P)から左右両側の境界線BL1,BL2またはBL5,BL6までの距離D1,D2を算出する。次いで、ステップS7で、車両101が位置する車線LN1またはLN5の位置データ(実測車線データ)を生成するとともに、ステップS3で取得した道路情報に含まれる車線数の数だけ、車線データを左右方向(車線幅方向)にオフセットして残りの車線LN2〜LN5またはLN1〜LN4の位置データ(推測車線データ)を生成する。そして、これら生成した車線データを記憶部12に記憶する。 In step S5, it is determined whether or not the image of the boundary line BL determined in step S4 is the image of the end boundary line BL1 or BL6. If affirmed in step S5, the process proceeds to step S6, and the distances D1 and D2 from the vehicle 101 (reference point P) to the left and right boundary lines BL1, BL2 or BL5 and BL6 based on the camera image read in step S2. Is calculated. Next, in step S7, the position data (measured lane data) of the lane LN1 or LN5 in which the vehicle 101 is located is generated, and the lane data is rotated in the left-right direction (as many as the number of lanes included in the road information acquired in step S3). The position data (estimated lane data) of the remaining lanes LN2 to LN5 or LN1 to LN4 is generated by offsetting in the lane width direction). Then, these generated lane data are stored in the storage unit 12.

一方、ステップS5で否定されるとステップ8に進み、車両101の位置データに対応する車線LN1〜LN5の位置データ(車線データ)が既に記憶部12に記憶されているか否かを判定する。この車線データには、ステップS7で車線LNの位置データを車線幅方向にオフセットすることにより得られた推測車線データが含まれる。ステップS8で肯定されるとステップS9に進み、否定されると処理を終了する。ステップS9では、ステップS2で読み込んだカメラ画像に基づいて、車両101から左右両側の境界線BLまでの距離D1,D2を算出する。次いで、ステップS10で、ステップS9で算出された距離D1,D2のデータを用いて車両101が位置する車線LNの位置データ(実測車線データ)を生成し、さらに、ステップS7で生成された当該車線LNの位置データ(推測車線データ)をこの実測車線データによって更新する。 On the other hand, if it is denied in step S5, the process proceeds to step 8, and it is determined whether or not the position data (lane data) of the lanes LN1 to LN5 corresponding to the position data of the vehicle 101 is already stored in the storage unit 12. This lane data includes estimated lane data obtained by offsetting the position data of the lane LN in the lane width direction in step S7. If affirmed in step S8, the process proceeds to step S9, and if denied, the process ends. In step S9, the distances D1 and D2 from the vehicle 101 to the boundary lines BL on both the left and right sides are calculated based on the camera image read in step S2. Next, in step S10, the position data (measured lane data) of the lane LN in which the vehicle 101 is located is generated using the data of the distances D1 and D2 calculated in step S9, and further, the lane generated in step S7. The position data (estimated lane data) of the LN is updated by this measured lane data.

なお、ステップS7で車線データを生成する際に、ステップS3で取得した道路情報に含まれる道路形状の情報を用いて車両101の進行方向の車線データ(第2の車線データ)を同時に生成するようにしてもよい。さらに、ステップS8で、第2の車線データの有無を判定し、ステップS10で、第2の車線データを更新するようにしてもよい。 When the lane data is generated in step S7, the lane data (second lane data) in the traveling direction of the vehicle 101 is simultaneously generated by using the road shape information included in the road information acquired in step S3. It may be. Further, the presence / absence of the second lane data may be determined in step S8, and the second lane data may be updated in step S10.

本実施形態に係る車線データ生成装置100の動作をまとめると以下のようになる。車両101が複数の車線LN1〜LN5のうちの、例えば右端の第5車線LN5を走行すると、カメラ2により撮像された右側の境界線BL6の画像が端部境界線画像であると認識される。これにより、カメラ画像に基づいて車両101から左右両側の境界線BL5、BL6までの距離D1,D2が算出される(ステップS6)。さらに、この距離データと自車位置に対応する道路の車線数の情報とを用いて、全ての車線LN1〜LN5の位置データ(車線データ)が生成される(ステップS7)。これによりカメラ2により全ての車線LNを認識できない場合であっても、車線データを容易に生成することができる。 The operation of the lane data generation device 100 according to the present embodiment can be summarized as follows. When the vehicle 101 travels in, for example, the fifth lane LN5 at the right end of the plurality of lanes LN1 to LN5, the image of the right boundary line BL6 captured by the camera 2 is recognized as the end boundary line image. As a result, the distances D1 and D2 from the vehicle 101 to the left and right boundary lines BL5 and BL6 are calculated based on the camera image (step S6). Further, position data (lane data) of all lanes LN1 to LN5 are generated by using this distance data and information on the number of lanes on the road corresponding to the position of the own vehicle (step S7). As a result, lane data can be easily generated even when the camera 2 cannot recognize all lane LNs.

その後、車両101が第4車線LN4に車線変更すると、自車位置(基準点P)からカメラ2により認識された境界線BL4,BL5までの距離D1,D2が算出される(ステップS9)。そして、この距離データを用いて第4車線LN4の車線データが更新される(ステップS10)。これにより推測車線データが実測車線データに置き換わり、車線データの生成精度が向上する。 After that, when the vehicle 101 changes lanes to the fourth lane LN4, the distances D1 and D2 from the own vehicle position (reference point P) to the boundary lines BL4 and BL5 recognized by the camera 2 are calculated (step S9). Then, the lane data of the fourth lane LN4 is updated using this distance data (step S10). As a result, the estimated lane data is replaced with the actually measured lane data, and the accuracy of lane data generation is improved.

図6は、図2の変形例としての車線データ生成装置100Aの概略構成を示すブロック図である。図6では、コントローラ10の演算部11が、機能的構成として、境界線判定部111と距離算出部112と情報取得部113とデータ生成部114とに加え、位置算出部115を有する。 FIG. 6 is a block diagram showing a schematic configuration of a lane data generation device 100A as a modification of FIG. 2. In FIG. 6, the calculation unit 11 of the controller 10 has a position calculation unit 115 in addition to the boundary line determination unit 111, the distance calculation unit 112, the information acquisition unit 113, and the data generation unit 114 as a functional configuration.

位置算出部115は、データ生成部114により生成された車線データと、距離算出部112により算出された距離D1,D2と、に基づいて、車両101(基準点P)の位置、より詳しくは車線幅方向の位置を算出する。すなわち、車線データに含まれる車両101の左右一方(例えば右側)の境界線BLの位置データから距離D2を減算して基準点Pの位置データを算出する。図7のP1は、位置算出部115により算出された基準点の一例であり、基準点P1は、記憶部12に記憶された境界線BL5(2点鎖線)の位置データからカメラ画像により算出された距離D2を減算することにより得られる。図7のP2は,基準点P1を算出した後に、GPSユニット1により検出された基準点の一例である。すなわち、基準点P1は第1時点で得られ、基準点P2は第1時点よりも後の第2時点で得られる。 The position calculation unit 115 is based on the lane data generated by the data generation unit 114 and the distances D1 and D2 calculated by the distance calculation unit 112, and the position of the vehicle 101 (reference point P), more specifically, the lane. Calculate the position in the width direction. That is, the position data of the reference point P is calculated by subtracting the distance D2 from the position data of the boundary line BL on the left and right sides (for example, the right side) of the vehicle 101 included in the lane data. P1 in FIG. 7 is an example of a reference point calculated by the position calculation unit 115, and the reference point P1 is calculated by a camera image from the position data of the boundary line BL5 (dashed-dotted line) stored in the storage unit 12. It is obtained by subtracting the distance D2. P2 in FIG. 7 is an example of the reference point detected by the GPS unit 1 after the reference point P1 is calculated. That is, the reference point P1 is obtained at the first time point, and the reference point P2 is obtained at the second time point after the first time point.

データ生成部114は、これら基準点P1,P2の位置偏差(例えば基準点P1,P2間の車線幅方向の距離)を算出する。そして、偏差が所定値以上であるとき、基準点P2の位置データを用いて車線データを生成し直す。つまり、距離算出部112で基準点P2から境界線(図4の例では境界線BL4,BL5)までの距離D1,D2を算出するとともに、この距離データと基準点P2の位置データと車線数の情報とに基づいて車線データを生成し、第1時点の車線データを第2時点の車線データにより更新する。更新後の車線データによる境界線BL4,BL5の位置を破線で、境界線BL6の位置を実線で示す。 The data generation unit 114 calculates the position deviation of these reference points P1 and P2 (for example, the distance between the reference points P1 and P2 in the lane width direction). Then, when the deviation is equal to or greater than a predetermined value, the lane data is regenerated using the position data of the reference point P2. That is, the distance calculation unit 112 calculates the distances D1 and D2 from the reference point P2 to the boundary line (boundary lines BL4 and BL5 in the example of FIG. 4), and the distance data, the position data of the reference point P2, and the number of lanes. Lane data is generated based on the information, and the lane data at the first time point is updated with the lane data at the second time point. The positions of the boundary lines BL4 and BL5 based on the updated lane data are shown by broken lines, and the positions of the boundary lines BL6 are shown by solid lines.

このように最新の車両101の位置データに基づいて車線データを生成することで、例えば車両101の走行に伴い車両周囲の車線LNの形状が変化したときに、その変化に対応した良好な車線データに更新することができる。すなわち、本実施形態の車線データ生成装置100は、車線データが生成されていない箇所の車線データを生成するだけでなく、車線データが既に生成されている箇所の車線データの更新も行うので、例えば道路工事等を行った後で境界線BLの位置が変化した場合にも、適切に対処することができる。 By generating lane data based on the latest position data of the vehicle 101 in this way, for example, when the shape of the lane LN around the vehicle changes as the vehicle 101 travels, good lane data corresponding to the change is obtained. Can be updated to. That is, the lane data generation device 100 of the present embodiment not only generates lane data at a location where lane data is not generated, but also updates lane data at a location where lane data has already been generated. Even if the position of the boundary line BL changes after road construction or the like, it can be appropriately dealt with.

本実施形態によれば以下のような作用効果を奏することができる。
(1)車線データ生成装置100は、車両101に設けられ、路面上に左右方向に互いに離間して延在する複数の境界線BLによって区画された複数の車線LNの車線データを生成する。複数の境界線BLは、右端の車線LN5の右側および左端の車線LN1の左側に形成された左右一対の端部境界線BL1,BL6と、左右一対の端部境界線BL1,BL6の内側に、端部境界線BL1,BL6に対し略平行に形成された中間境界線BL2〜BL5と、を含む(図1)。この車線データ生成装置100は、車両101の位置を検出するGPSユニット1と、車両101の左右両側に位置する境界線BLを撮像するカメラ2と、カメラ2により撮像された境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5のいずれであるかを判定する境界線判定部111と、カメラ2により撮像された境界線BLの画像情報に基づいて、車両101(基準点P)から左右両側の境界線BLまでの距離D1,D2を算出する距離算出部112と、GPSユニット1により検出された車両101の位置に基づいて、車両101が位置する路面の車線数の情報を取得する情報取得部113と、境界線判定部111により左右両側の境界線BLが端部境界線BL1,BL6のいずれかおよび中間境界線BL2〜BL5のいずれかであると判定されたときの距離算出部112により算出された距離データと、GPSユニット1により検出された車両101の位置データと、情報取得部113により取得された車線数の情報と、に基づいて、複数の車線LNの位置データを生成するデータ生成部114と、を備える(図2)。
According to this embodiment, the following effects can be obtained.
(1) The lane data generation device 100 is provided in the vehicle 101 and generates lane data of a plurality of lane LNs defined by a plurality of boundary lines BL extending laterally apart from each other on the road surface. The plurality of boundary lines BL are formed inside the pair of left and right end boundary lines BL1 and BL6 formed on the right side of the rightmost lane LN5 and the left side of the leftmost lane LN1 and the pair of left and right end boundary lines BL1 and BL6. The intermediate boundary lines BL2 to BL5 formed substantially parallel to the end boundary lines BL1 and BL6 are included (FIG. 1). The lane data generation device 100 has a GPS unit 1 that detects the position of the vehicle 101, a camera 2 that captures the boundary lines BL located on both the left and right sides of the vehicle 101, and a boundary line BL imaged by the camera 2 at the ends. Vehicle 101 (reference point P) based on the image information of the boundary line BL captured by the camera 2 and the boundary line determination unit 111 for determining which of the boundary lines BL1 and BL6 and the intermediate boundary lines BL2 and BL5. Based on the distance calculation unit 112 that calculates the distances D1 and D2 from to the boundary lines BL on both the left and right sides and the position of the vehicle 101 detected by the GPS unit 1, information on the number of lanes on the road surface on which the vehicle 101 is located is acquired. Distance calculation when it is determined by the information acquisition unit 113 and the boundary line determination unit 111 that the boundary lines BL on both the left and right sides are either the end boundary lines BL1 and BL6 and the intermediate boundary lines BL2 to BL5. Based on the distance data calculated by the unit 112, the position data of the vehicle 101 detected by the GPS unit 1, the information on the number of lanes acquired by the information acquisition unit 113, and the position data of a plurality of lane LNs. It includes a data generation unit 114 to be generated (FIG. 2).

この構成により、複数の車線LNを有する道路上に車両101が位置する場合において、通信手段を介してダイナミックマップ等から車線データを得ることなく、車載カメラ2の画像に基づいて独自に車線LNの位置データを生成することができる。これにより、例えば自動運転機能を有する車両が自車の走行車線を認識することができ、自動運転車両の走行動作を良好に制御することができる。 With this configuration, when the vehicle 101 is located on a road having a plurality of lane LNs, the lane LNs are independently based on the image of the in-vehicle camera 2 without obtaining lane data from a dynamic map or the like via a communication means. Position data can be generated. As a result, for example, a vehicle having an automatic driving function can recognize the traveling lane of the own vehicle, and the traveling operation of the automatic driving vehicle can be satisfactorily controlled.

(2)データ生成部114は、境界線判定部111により左右両側の境界線BLが端部境界線BL1,BL6のいずれかおよび中間境界線BL2〜BL5のいずれかであると判定されたときの距離算出部112により算出された距離データとGPSユニット1により検出された位置データとに基づいてカメラ2により撮像された左右両側の境界線BLの位置データを算出するとともに、この位置データに基づいて、左端の車線LN1または右端の車線LN5の位置データを生成する。さらに、この車線LN1,LN5の位置データを情報取得部113により取得された車線数の分だけ左右方向にオフセットさせることにより、他の車線LN2〜LN5またはL1〜LN4の位置データを生成する。これにより全ての車線LN1〜LN5の車線データを容易かつ良好に生成することができる。 (2) When the data generation unit 114 determines by the boundary line determination unit 111 that the boundary lines BL on both the left and right sides are either the end boundary lines BL1 and BL6 and the intermediate boundary lines BL2 to BL5. Based on the distance data calculated by the distance calculation unit 112 and the position data detected by the GPS unit 1, the position data of the boundary lines BL on both the left and right sides captured by the camera 2 is calculated, and based on this position data. , Generates position data for the leftmost lane LN1 or the rightmost lane LN5. Further, by offsetting the position data of the lanes LN1 and LN5 in the left-right direction by the number of lanes acquired by the information acquisition unit 113, the position data of the other lanes LN2 to LN5 or L1 to LN4 is generated. As a result, lane data for all lanes LN1 to LN5 can be easily and satisfactorily generated.

(3)上記のようにデータ生成部114により生成された複数の車線LN1〜LN5の位置データは、車両101から複数の車線LNが延在する方向における所定距離以内に位置する複数の車線LN1〜LN5の位置データである第1の車線データである。情報取得部113は、さらに道路形状の情報を取得し、データ生成部114は、第1の車線データを生成した後、第1の車線データと情報取得部113により取得された道路形状の情報とに基づいて、車両101から所定距離を越えて位置する複数の車線LN1〜LN5の位置データである第2の車線データを生成する(図4)。これにより車両101から離れた位置における複数の車線LN1〜LN5の車線データを、精度よく生成することができる。また、車両101から所定距離内に存在するが、カメラ2により認識することができない車線LNがある場合の車線データも、道路形状のデータを用いることで良好に生成することができる。 (3) The position data of the plurality of lanes LN1 to LN5 generated by the data generation unit 114 as described above includes the plurality of lanes LN1 to located within a predetermined distance in the direction in which the plurality of lanes LNs extend from the vehicle 101. It is the first lane data which is the position data of LN5. The information acquisition unit 113 further acquires road shape information, and the data generation unit 114 generates the first lane data, and then the first lane data and the road shape information acquired by the information acquisition unit 113. Second lane data, which is position data of a plurality of lanes LN1 to LN5 located beyond a predetermined distance from the vehicle 101, is generated based on the above (FIG. 4). This makes it possible to accurately generate lane data for a plurality of lanes LN1 to LN5 at positions away from the vehicle 101. Further, lane data when there is a lane LN that exists within a predetermined distance from the vehicle 101 but cannot be recognized by the camera 2 can be satisfactorily generated by using the road shape data.

(4)変形例の車線データ生成装置100Aは、データ生成部114により生成された複数の車線LNの位置データと、距離算出部112により算出された距離データとに基づいて、車両101の位置を算出する位置算出部115をさらに備える(図6)。GPSユニット1は、第1時点と第1時点よりも後の第2時点の車両101の位置をそれぞれ検出し、データ生成部114は、第1時点に位置算出部115により算出された車両101の位置P1と、第2時点にGPSユニット1により検出された車両101の位置P2との偏差が所定値以上であるとき、第2時点にGPSユニット1により検出された車両101の位置データに基づいて、複数の車線LNの位置データを生成し直す(図7)。最新の車両101の位置データに基づいて車線データを生成することで、車両101の走行に伴い車両周囲の車線LNの形状が変化したときに、その変化に対応した良好な車線データに更新することができる。 (4) The lane data generation device 100A of the modified example determines the position of the vehicle 101 based on the position data of the plurality of lane LNs generated by the data generation unit 114 and the distance data calculated by the distance calculation unit 112. A position calculation unit 115 for calculation is further provided (FIG. 6). The GPS unit 1 detects the positions of the vehicle 101 at the first time point and the second time point after the first time point, respectively, and the data generation unit 114 of the vehicle 101 calculated by the position calculation unit 115 at the first time point. When the deviation between the position P1 and the position P2 of the vehicle 101 detected by the GPS unit 1 at the second time point is equal to or greater than a predetermined value, based on the position data of the vehicle 101 detected by the GPS unit 1 at the second time point. , Regenerate the position data of a plurality of lane LNs (Fig. 7). By generating lane data based on the latest position data of the vehicle 101, when the shape of the lane LN around the vehicle changes as the vehicle 101 travels, it is updated to good lane data corresponding to the change. Can be done.

以上の車線データ生成装置100,100Aにより生成された車線データを用いることにより、車両101が位置する車線LNを特定することができる。以下、本発明の実施形態に係る位置特定装置について説明する。 By using the lane data generated by the above lane data generation devices 100 and 100A, the lane LN in which the vehicle 101 is located can be specified. Hereinafter, the position specifying device according to the embodiment of the present invention will be described.

図8は、本実施形態に係る位置特定装置200の概略構成を示すブロック図である。位置特定装置200は、例えば図2の車線データ生成装置100をベースとして構成される。すなわち、位置特定装置200は、図2の演算部11に、機能的構成として車線特定部116が追加して構成される。なお、図6の演算部11に、車線特定部116を追加して構成してもよい。 FIG. 8 is a block diagram showing a schematic configuration of the position specifying device 200 according to the present embodiment. The position identification device 200 is configured based on, for example, the lane data generation device 100 of FIG. That is, the position specifying device 200 is configured by adding the lane specifying unit 116 as a functional configuration to the calculation unit 11 of FIG. The lane identification unit 116 may be added to the calculation unit 11 of FIG.

図9は、車線特定部116の処理を説明するための道路の平面図である。図9の実線および破線の境界線BL1〜BL6は、予め車線データ生成装置100により生成されて記憶部12に記憶された境界線である。車線特定部116は、車線データ生成装置100により生成された複数の車線LNの位置データと、GPSユニット1により検出された車両101の位置データとに基づいて、車両101が位置する車線LNを特定する。 FIG. 9 is a plan view of a road for explaining the processing of the lane identification unit 116. The solid line and broken line boundaries BL1 to BL6 in FIG. 9 are boundary lines previously generated by the lane data generation device 100 and stored in the storage unit 12. The lane identification unit 116 identifies the lane LN in which the vehicle 101 is located based on the position data of the plurality of lane LNs generated by the lane data generation device 100 and the position data of the vehicle 101 detected by the GPS unit 1. To do.

より詳しくは、車線特定部116は、GPSユニット1により検出された車両101の位置データと、距離算出部112により算出された距離D1,D2のデータとに基づいて、カメラ2により撮像された境界線BLの位置を算出する。例えば、図9に示すように第3車線LN3に車両101が位置する場合において、車両101からの距離D2を用いて車両101の右側の境界線BLの位置を算出する。なお、算出された境界線BLの位置を、図9では点線で示す。そして、この境界線BLの位置と予め記憶部12に記憶された複数の境界線BL1〜BL6の位置とのそれぞれの偏差を算出し、偏差が最も小さい境界線BLを抽出する。図9の例では、偏差が最も小さい境界線として、複数の境界線BL1〜BL6のうち境界線BL4が抽出される。これにより、右側に境界線BL4を有する第3車線LN3が、車両101の位置する車線LNとして特定される。 More specifically, the lane identification unit 116 is a boundary imaged by the camera 2 based on the position data of the vehicle 101 detected by the GPS unit 1 and the data of the distances D1 and D2 calculated by the distance calculation unit 112. Calculate the position of the line BL. For example, when the vehicle 101 is located in the third lane LN3 as shown in FIG. 9, the position of the boundary line BL on the right side of the vehicle 101 is calculated using the distance D2 from the vehicle 101. The calculated position of the boundary line BL is shown by a dotted line in FIG. Then, the deviations between the positions of the boundary lines BL and the positions of the plurality of boundary lines BL1 to BL6 stored in the storage unit 12 in advance are calculated, and the boundary line BL having the smallest deviation is extracted. In the example of FIG. 9, the boundary line BL4 is extracted from the plurality of boundary lines BL1 to BL6 as the boundary line having the smallest deviation. As a result, the third lane LN3 having the boundary line BL4 on the right side is specified as the lane LN in which the vehicle 101 is located.

このように位置特定装置200においては、車線特定部116が、GPSユニット1により検出された車両101の位置データと、距離算出部112により算出された距離データとに基づいて、カメラ2により撮像された境界線BLの位置を算出するとともに、この境界線BLの位置データと車線データ生成装置100により生成された複数の車線(境界線BL1〜BL6)の位置データとを比較し、比較結果に基づいて車両101が位置する車線LNを特定する。これにより、複数の車線LNのうち自車両101が位置する走行車線を常に把握することができる。 In this way, in the position identification device 200, the lane identification unit 116 is imaged by the camera 2 based on the position data of the vehicle 101 detected by the GPS unit 1 and the distance data calculated by the distance calculation unit 112. The position of the boundary line BL is calculated, and the position data of the boundary line BL is compared with the position data of a plurality of lanes (boundary lines BL1 to BL6) generated by the lane data generation device 100, and based on the comparison result. The lane LN in which the vehicle 101 is located is specified. As a result, it is possible to always grasp the traveling lane in which the own vehicle 101 is located among the plurality of lane LNs.

車両101が位置する車線LNは、車両101が境界線BLをまたいだ回数をカウントすることによっても把握できるが、そのためにはこの回数を正確にカウントする必要がある。このため、正確なカウントが困難な状況においては、車線LNの位置を誤認識するおそれがある。この点、本実施形態では、境界線BLをまたいだ回数をカウントする必要がないため、車両101が位置する車線LNを精度よく認識することができる。 The lane LN in which the vehicle 101 is located can also be grasped by counting the number of times the vehicle 101 crosses the boundary line BL, but for that purpose, it is necessary to accurately count this number of times. Therefore, in a situation where accurate counting is difficult, the position of the lane LN may be erroneously recognized. In this respect, in the present embodiment, since it is not necessary to count the number of times the vehicle crosses the boundary line BL, the lane LN in which the vehicle 101 is located can be accurately recognized.

なお、上記実施形態では、車線データ生成装置100,100Aと位置特定装置200とを自動運転車両101に設ける例を説明したが、これらを自動運転車両以外の種々の車両に設けることもでき、車両以外の他の移動体に車線データ装置と位置特定装置とを設けることもできる。上記実施形態では、GPSユニット1により車両101の位置を検出するようにしたが、移動体の位置を検出する位置検出部の構成はこれに限らない。上記実施形態では、車両101の基準点Pに設けられたカメラ2により左右の境界線BLを撮像するようにしたが、撮像部の構成はこれに限らない。 In the above embodiment, an example in which the lane data generation devices 100 and 100A and the position identification device 200 are provided in the automatic driving vehicle 101 has been described, but these can also be provided in various vehicles other than the automatic driving vehicle. It is also possible to provide a lane data device and a position identification device on other moving bodies other than the above. In the above embodiment, the position of the vehicle 101 is detected by the GPS unit 1, but the configuration of the position detection unit that detects the position of the moving body is not limited to this. In the above embodiment, the left and right boundary lines BL are imaged by the camera 2 provided at the reference point P of the vehicle 101, but the configuration of the imaging unit is not limited to this.

本実施形態の車線データ生成装置100,100Aを、車線データ生成方法として構成することもできる。この場合には、移動体(車両101)の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線BLを撮像する撮像ステップと、撮像ステップで撮像された境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5のいずれであるかを判定する判定ステップと、撮像された境界線BLの画像情報に基づいて、移動体から左右両側の境界線BLまでの距離D1,D2を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、判定ステップで左右両側の境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5であると判定されたときの算出ステップで算出された距離データと、位置検出ステップで検出された移動体の位置データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線LN1〜LN5の位置データを生成するデータ生成ステップと、を含むように車線データ生成方法を構成することができる(図5)。 The lane data generation devices 100 and 100A of the present embodiment can also be configured as a lane data generation method. In this case, the position detection step for detecting the position of the moving body (vehicle 101), the imaging step for imaging the boundary lines BL located on the left and right sides of the moving body, and the boundary line BL imaged in the imaging step are the ends. The distance from the moving body to the boundary lines BL on both the left and right sides based on the determination step of determining which of the partial boundary lines BL1 and BL6 and the intermediate boundary lines BL2 to BL5 and the image information of the captured boundary line BL. A calculation step for calculating D1 and D2, an acquisition step for acquiring information on the number of lanes on the road surface on which the moving body is located based on the position of the moving body detected in the position detection step, and a boundary between the left and right sides in the determination step. Acquisition of distance data calculated in the calculation step when it is determined that the line BL is the end boundary lines BL1 and BL6 and the intermediate boundary lines BL2 and BL5, and the position data of the moving body detected in the position detection step. The lane data generation method can be configured to include a data generation step for generating position data of a plurality of lanes LN1 to LN5 based on the information on the number of lanes acquired in the step (FIG. 5). ..

また、本実施形態の位置特定装置200を、位置特定方法として構成することもできる。この場合には、移動体(車両101)の位置を検出する位置検出ステップと、移動体の左右両側に位置する境界線BLを撮像する撮像ステップと、撮像ステップで撮像された境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5のいずれであるかを判定する判定ステップと、撮像された境界線BLの画像情報に基づいて、移動体から左右両側の境界線BLまでの距離D1,D2を算出する算出ステップと、位置検出ステップで検出された移動体の位置に基づいて、移動体が位置する路面の車線数の情報を取得する取得ステップと、位置検出ステップで検出された移動体の位置データと、判定ステップで左右両側の境界線BLが端部境界線BL1,BL6および中間境界線BL2〜BL5であると判定されたときの算出ステップで算出された距離データと、取得ステップで取得された車線数の情報と、に基づいて、複数の車線LN1〜LN5の位置データを生成するデータ生成ステップと、データ生成ステップで生成された複数の車線LN1〜LN5の位置データと、位置検出ステップで検出された移動体の位置データと、に基づいて、移動体が位置する車線LNを特定する車線特定ステップと、を含むように位置特定方法を構成することができる。 Further, the position identification device 200 of the present embodiment can be configured as a position identification method. In this case, the position detection step for detecting the position of the moving body (vehicle 101), the imaging step for imaging the boundary lines BL located on both the left and right sides of the moving body, and the boundary line BL imaged in the imaging step are ends. The distance from the moving body to the left and right boundary lines BL based on the determination step of determining which of the partial boundary lines BL1 and BL6 and the intermediate boundary lines BL2 and BL5 and the image information of the captured boundary line BL. It was detected in the calculation step for calculating D1 and D2, the acquisition step for acquiring information on the number of lanes on the road surface on which the moving body is located, and the position detection step based on the position of the moving body detected in the position detection step. Acquisition of position data of the moving body and distance data calculated in the calculation step when it is determined in the determination step that the left and right boundary lines BL are the end boundary lines BL1 and BL6 and the intermediate boundary lines BL2 and BL5. A data generation step that generates position data of a plurality of lanes LN1 to LN5 based on the information on the number of lanes acquired in the step, and position data of a plurality of lanes LN1 to LN5 generated in the data generation step. The position identification method can be configured to include the position data of the moving body detected in the position detection step and the lane identification step for specifying the lane LN in which the moving body is located.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or a plurality of the above-described embodiments and the modified examples, and it is also possible to combine the modified examples.

1 GPSユニット、2 カメラ、12 記憶部、100,100A 車線データ生成装置、101 車両、111 境界線判定部、112 距離算出部、113 情報取得部、114 データ生成部、115 位置算出部、116 車線特定部、200 位置特定装置、BL1,BL6 端部境界線、BL2〜BL5 中間境界線 1 GPS unit, 2 cameras, 12 storage units, 100, 100A lane data generator, 101 vehicle, 111 boundary line determination unit, 112 distance calculation unit, 113 information acquisition unit, 114 data generation unit, 115 position calculation unit, 116 lanes Specific part, 200 position identification device, BL1, BL6 end boundary line, BL2 to BL5 intermediate boundary line

Claims (8)

路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを生成する車線データ生成装置であって、
前記複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、前記左右一対の端部境界線の内側に、前記端部境界線に対し略平行に形成された中間境界線と、を含み、
移動体の位置を検出する位置検出部と、
前記移動体の左右両側に位置する境界線を撮像する撮像部と、
前記撮像部により撮像された境界線が前記端部境界線および前記中間境界線のいずれであるかを判定する境界線判定部と、
前記撮像部により撮像された境界線の画像情報に基づいて、前記移動体から前記左右両側の境界線までの距離を算出する距離算出部と、
前記位置検出部により検出された前記移動体の位置に基づいて、前記移動体が位置する路面の車線数の情報を取得する情報取得部と、
前記境界線判定部により前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記距離算出部により算出された距離データと、前記位置検出部により検出された前記移動体の位置データと、前記情報取得部により取得された前記車線数の情報と、に基づいて、前記複数の車線の位置データを生成するデータ生成部と、を備えることを特徴とする車線データ生成装置。
It is a lane data generation device that generates lane data of a plurality of lanes partitioned by a plurality of boundary lines extending laterally apart from each other on the road surface.
The plurality of boundary lines are formed on the right side of the rightmost lane and on the left side of the leftmost lane, and inside the pair of left and right end boundary lines, with respect to the end boundary line. Includes intermediate boundaries formed approximately parallel
A position detector that detects the position of a moving object,
An imaging unit that images the boundary lines located on the left and right sides of the moving body, and
A boundary line determination unit that determines whether the boundary line imaged by the imaging unit is the end boundary line or the intermediate boundary line, and
A distance calculation unit that calculates the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured by the imaging unit.
An information acquisition unit that acquires information on the number of lanes on the road surface on which the moving body is located based on the position of the moving body detected by the position detecting unit.
The distance data calculated by the distance calculation unit when the boundary line determination unit determines that the left and right boundary lines are the end boundary line and the intermediate boundary line, and the position detection unit detects the distance data. It is characterized by including a data generation unit that generates position data of the plurality of lanes based on the position data of the moving body and the information on the number of lanes acquired by the information acquisition unit. Lane data generator.
請求項1に記載の車線データ生成装置において、
前記データ生成部は、前記境界線判定部により前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記距離算出部により算出された距離データと前記位置検出部により検出された位置データとに基づいて前記撮像部により撮像された前記左右両側の境界線の位置データを算出するとともに、この位置データに基づいて左端または右端の車線の位置データを生成し、さらにこの車線の位置データを前記情報取得部により取得された車線数の分だけ左右方向にオフセットさせることにより、他の車線の位置データを生成することを特徴とする車線データ生成装置。
In the lane data generator according to claim 1,
The data generation unit is the distance data and the position calculated by the distance calculation unit when the boundary line determination unit determines that the left and right boundary lines are the end boundary line and the intermediate boundary line. Based on the position data detected by the detection unit, the position data of the boundary lines on both the left and right sides captured by the imaging unit is calculated, and the position data of the leftmost or rightmost lane is generated based on this position data. Further, a lane data generation device characterized in that position data of another lane is generated by offsetting the position data of this lane in the left-right direction by the number of lanes acquired by the information acquisition unit.
請求項1または2に記載の車線データ生成装置において、
前記データ生成部により生成された前記複数の車線の位置データと、前記距離算出部により算出された距離データと、に基づいて、前記移動体の位置を算出する位置算出部をさらに備え、
前記位置検出部は、第1時点と該第1時点よりも後の第2時点の前記移動体の位置をそれぞれ検出し、
前記データ生成部は、前記第1時点に前記位置算出部により算出された前記移動体の位置と、前記第2時点に前記位置検出部により検出された前記移動体の位置との偏差が所定値以上であるとき、前記第2時点に前記位置検出部により検出された前記移動体の位置データに基づいて、前記複数の車線の位置データを生成し直すことを特徴とする車線データ生成装置。
In the lane data generator according to claim 1 or 2.
A position calculation unit for calculating the position of the moving body based on the position data of the plurality of lanes generated by the data generation unit and the distance data calculated by the distance calculation unit is further provided.
The position detection unit detects the positions of the moving body at the first time point and the second time point after the first time point, respectively.
In the data generation unit, the deviation between the position of the moving body calculated by the position calculation unit at the first time point and the position of the moving body detected by the position detection unit at the second time point is a predetermined value. In the above case, the lane data generation device is characterized in that the position data of the plurality of lanes is regenerated based on the position data of the moving body detected by the position detection unit at the second time point.
請求項1〜3のいずれか1項に記載の車線データ生成装置において、
前記データ生成部により生成された前記複数の車線の位置データは、前記移動体から前記複数の車線が延在する方向における所定距離以内に位置する複数の車線の位置データである第1の車線データであり、
前記情報取得部は、さらに道路形状の情報を取得し、
前記データ生成部は、前記第1の車線データを生成した後、前記第1の車線データと前記情報取得部により取得された道路形状の情報とに基づいて、前記移動体から前記所定距離を越えて位置する複数の車線の位置データである第2の車線データを生成することを特徴とする車線データ生成装置。
In the lane data generation device according to any one of claims 1 to 3.
The position data of the plurality of lanes generated by the data generation unit is first lane data which is position data of a plurality of lanes located within a predetermined distance in a direction in which the plurality of lanes extend from the moving body. And
The information acquisition unit further acquires road shape information and obtains information on the road shape.
After generating the first lane data, the data generation unit exceeds the predetermined distance from the moving body based on the first lane data and the road shape information acquired by the information acquisition unit. A lane data generation device characterized in that it generates second lane data which is position data of a plurality of lanes located in a row.
請求項1〜4のいずれか1項に記載の車線データ生成装置と、
前記車線データ生成装置により生成された複数の車線の位置データと、前記位置検出部により検出された前記移動体の位置データと、に基づいて、前記移動体が位置する車線を特定する車線特定部と、を備えることを特徴とする位置特定装置。
The lane data generator according to any one of claims 1 to 4,
A lane identification unit that identifies the lane in which the moving body is located based on the position data of a plurality of lanes generated by the lane data generation device and the position data of the moving body detected by the position detecting unit. A positioning device characterized by being provided with.
請求項5に記載の位置特定装置において、
前記車線特定部は、前記位置検出部により検出された前記移動体の位置データと、前記距離算出部により算出された前記距離データと、に基づいて、前記撮像部により撮像された境界線の位置を算出するとともに、この境界線の位置データと前記車線データ生成装置により生成された複数の車線の位置データとを比較し、比較結果に基づいて前記移動体が位置する車線を特定することを特徴とする位置特定装置。
In the position identifying device according to claim 5,
The lane identification unit is based on the position data of the moving body detected by the position detection unit and the distance data calculated by the distance calculation unit, and the position of the boundary line imaged by the image pickup unit. Is calculated, and the position data of the boundary line is compared with the position data of a plurality of lanes generated by the lane data generation device, and the lane in which the moving body is located is specified based on the comparison result. Positioning device.
路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを生成する車線データ生成方法であって、
前記複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、前記左右一対の端部境界線の内側に、前記端部境界線に対し略平行に形成された中間境界線と、を含み、
移動体の位置を検出する位置検出ステップと、
前記移動体の左右両側に位置する境界線を撮像する撮像ステップと、
前記撮像ステップで撮像された境界線が前記端部境界線および前記中間境界線のいずれであるかを判定する判定ステップと、
前記撮像ステップで撮像された境界線の画像情報に基づいて、前記移動体から前記左右両側の境界線までの距離を算出する算出ステップと、
前記位置検出ステップで検出された前記移動体の位置に基づいて、前記移動体が位置する路面の車線数の情報を取得する取得ステップと、
前記判定ステップで前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記算出ステップで算出された距離データと、前記位置検出ステップで検出された前記移動体の位置データと、前記取得ステップで取得された前記車線数の情報と、に基づいて、前記複数の車線の位置データを生成するデータ生成ステップと、を含むことを特徴とする車線データ生成方法。
It is a lane data generation method that generates lane data of a plurality of lanes partitioned by a plurality of boundary lines extending laterally apart from each other on the road surface.
The plurality of boundary lines are formed on the right side of the rightmost lane and on the left side of the leftmost lane, and inside the pair of left and right end boundary lines, with respect to the end boundary line. Includes intermediate boundaries formed approximately parallel
A position detection step that detects the position of a moving object, and
An imaging step for imaging the boundary lines located on the left and right sides of the moving body, and
A determination step for determining whether the boundary line imaged in the imaging step is the edge boundary line or the intermediate boundary line, and
A calculation step of calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step.
An acquisition step of acquiring information on the number of lanes on the road surface on which the moving body is located based on the position of the moving body detected in the position detection step, and
The distance data calculated in the calculation step when it is determined in the determination step that the boundary lines on both the left and right sides are the end boundary line and the intermediate boundary line, and the movement detected in the position detection step. A lane data generation method including a data generation step for generating position data of a plurality of lanes based on body position data and information on the number of lanes acquired in the acquisition step. ..
路面上に左右方向に互いに離間して延在する複数の境界線によって区画された複数の車線の車線データを用いて、移動体が位置する車線を特定する位置特定方法であって、
前記複数の境界線は、右端の車線の右側および左端の車線の左側に形成された左右一対の端部境界線と、前記左右一対の端部境界線の内側に形成された中間境界線と、を含み、
前記移動体の位置を検出する位置検出ステップと、
前記移動体の左右両側に位置する境界線を撮像する撮像ステップと、
前記撮像ステップで撮像された境界線が前記端部境界線および前記中間境界線のいずれであるかを判定する判定ステップと、
前記撮像ステップで撮像された境界線の画像情報に基づいて、前記移動体から前記左右両側の境界線までの距離を算出する算出ステップと、
前記位置検出ステップで検出された前記移動体の位置に基づいて、前記移動体が位置する路面の車線数の情報を取得する取得ステップと、
前記位置検出ステップで検出された前記移動体の位置データと、前記判定ステップで前記左右両側の境界線が前記端部境界線および前記中間境界線であると判定されたときの前記算出ステップで算出された距離データと、前記取得ステップで取得された前記車線数の情報と、に基づいて、前記複数の車線の位置データを生成するデータ生成ステップと、
前記データ生成ステップで生成された前記複数の車線の位置データと、前記位置検出ステップで検出された前記移動体の位置データと、に基づいて、前記移動体が位置する車線を特定する車線特定ステップと、を含むことを特徴とする位置特定方法。
It is a position identification method for identifying the lane in which the moving body is located by using the lane data of a plurality of lanes partitioned by a plurality of boundary lines extending horizontally apart from each other on the road surface.
The plurality of boundary lines include a pair of left and right end boundary lines formed on the right side of the rightmost lane and a left side of the leftmost lane, and an intermediate boundary line formed inside the pair of left and right end boundary lines. Including
A position detection step for detecting the position of the moving body and
An imaging step for imaging the boundary lines located on the left and right sides of the moving body, and
A determination step for determining whether the boundary line imaged in the imaging step is the edge boundary line or the intermediate boundary line, and
A calculation step of calculating the distance from the moving body to the boundary lines on both the left and right sides based on the image information of the boundary line captured in the imaging step.
An acquisition step of acquiring information on the number of lanes on the road surface on which the moving body is located based on the position of the moving body detected in the position detection step, and
Calculated in the position data of the moving body detected in the position detection step and in the calculation step when it is determined in the determination step that the boundary lines on both the left and right sides are the end boundary line and the intermediate boundary line. A data generation step that generates position data of the plurality of lanes based on the obtained distance data and the information on the number of lanes acquired in the acquisition step.
A lane identification step for identifying the lane in which the moving body is located based on the position data of the plurality of lanes generated in the data generation step and the position data of the moving body detected in the position detection step. And, a positioning method characterized by including.
JP2019134687A 2019-07-22 2019-07-22 Lane data generation device, position specifying device, lane data generation method, and position specifying method Active JP7149234B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019134687A JP7149234B2 (en) 2019-07-22 2019-07-22 Lane data generation device, position specifying device, lane data generation method, and position specifying method
CN202010665067.2A CN112288805B (en) 2019-07-22 2020-07-10 Lane data generating device, position determining device, lane data generating method, and position determining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019134687A JP7149234B2 (en) 2019-07-22 2019-07-22 Lane data generation device, position specifying device, lane data generation method, and position specifying method

Publications (2)

Publication Number Publication Date
JP2021018661A true JP2021018661A (en) 2021-02-15
JP7149234B2 JP7149234B2 (en) 2022-10-06

Family

ID=74419698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019134687A Active JP7149234B2 (en) 2019-07-22 2019-07-22 Lane data generation device, position specifying device, lane data generation method, and position specifying method

Country Status (2)

Country Link
JP (1) JP7149234B2 (en)
CN (1) CN112288805B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022123239A (en) * 2021-02-12 2022-08-24 本田技研工業株式会社 Division line recognition device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151658A (en) * 2008-12-25 2010-07-08 Zhencheng Hu Apparatus and method for measuring position of mobile object
JP2010152139A (en) * 2008-12-25 2010-07-08 Zhencheng Hu Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body
JP2018055715A (en) * 2017-12-06 2018-04-05 株式会社Jvcケンウッド Lane recognition apparatus, lane recognition method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4861850B2 (en) * 2007-02-13 2012-01-25 アイシン・エィ・ダブリュ株式会社 Lane determination device and lane determination method
JP5968064B2 (en) * 2012-05-08 2016-08-10 アルパイン株式会社 Traveling lane recognition device and traveling lane recognition method
CN103942959B (en) * 2014-04-22 2016-08-24 深圳市宏电技术股份有限公司 A kind of lane detection method and device
US9494438B1 (en) * 2015-12-15 2016-11-15 Honda Motor Co., Ltd. System and method for verifying map data for a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151658A (en) * 2008-12-25 2010-07-08 Zhencheng Hu Apparatus and method for measuring position of mobile object
JP2010152139A (en) * 2008-12-25 2010-07-08 Zhencheng Hu Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body
JP2018055715A (en) * 2017-12-06 2018-04-05 株式会社Jvcケンウッド Lane recognition apparatus, lane recognition method

Also Published As

Publication number Publication date
CN112288805A (en) 2021-01-29
CN112288805B (en) 2024-03-22
JP7149234B2 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
JP5218656B2 (en) Vehicle travel position determination method and vehicle travel position determination device
JP6464783B2 (en) Object detection device
JP6520740B2 (en) Object detection method, object detection device, and program
JP6758160B2 (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
US11928871B2 (en) Vehicle position estimation device and traveling position estimation method
CN107957258A (en) Pavement marker identification device
JP2007278813A (en) Vehicle-position positioning device
JP6834914B2 (en) Object recognition device
JP2020003463A (en) Vehicle's self-position estimating device
JP7198687B2 (en) Ambient environment information generation method and ambient environment information generation device
JP2007011937A (en) Signal detection system, signal detection device, information center, and signal detection method
JP7149234B2 (en) Lane data generation device, position specifying device, lane data generation method, and position specifying method
JP6790951B2 (en) Map information learning method and map information learning device
JP6776717B2 (en) Road marking device
CN111989541B (en) Stereo camera device
JP7025293B2 (en) Vehicle position estimation device
JP2018120303A (en) Object detection device
JP7291065B2 (en) Information processing device, information processing method and information processing program
US20220307840A1 (en) Apparatus, method, and computer program for identifying road being traveled
JP6869452B2 (en) Distance measuring device and distance measuring method
US20240119832A1 (en) Vehicle external environment detection system and vehicle
JP2018096935A (en) Own vehicle position estimation device, program, recording medium, and own vehicle position estimation method
JP2001283202A (en) Vehicle state recognizing device
CN117622204A (en) Vehicle control device, vehicle control method, and computer program for vehicle control
CN117622206A (en) Vehicle control device, vehicle control method, and computer program for vehicle control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7149234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150