JP6822427B2 - Map change point detector - Google Patents

Map change point detector Download PDF

Info

Publication number
JP6822427B2
JP6822427B2 JP2018021191A JP2018021191A JP6822427B2 JP 6822427 B2 JP6822427 B2 JP 6822427B2 JP 2018021191 A JP2018021191 A JP 2018021191A JP 2018021191 A JP2018021191 A JP 2018021191A JP 6822427 B2 JP6822427 B2 JP 6822427B2
Authority
JP
Japan
Prior art keywords
image
map
collation
bird
eye view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018021191A
Other languages
Japanese (ja)
Other versions
JP2019003606A5 (en
JP2019003606A (en
Inventor
舞子 杉江
舞子 杉江
伊藤 靖之
靖之 伊藤
弘之 北川
弘之 北川
悟 野村
悟 野村
知晴 村手
知晴 村手
美代 浜田
美代 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to PCT/JP2018/018296 priority Critical patent/WO2018225446A1/en
Publication of JP2019003606A publication Critical patent/JP2019003606A/en
Publication of JP2019003606A5 publication Critical patent/JP2019003606A5/ja
Priority to US16/682,538 priority patent/US11270131B2/en
Application granted granted Critical
Publication of JP6822427B2 publication Critical patent/JP6822427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Description

道路地図の変化点を検出する地図変化点検出装置に関する。 The present invention relates to a map change point detection device that detects a change point of a road map.

計測台車を走行させて、高精度に白線位置を計測する技術が知られている。特許文献1に記載の計測台車は、オドメトリ装置、3台のGPS(Global Positioning System)、3台のジャイロセンサ、レーザレーダ、カメラ、計算機を備えている。計測台車により計測された白線位置は、高精度地図に用いられる。高精度地図には、白線などの道路標示が正確に描かれる。特許文献2は、トップビュー変換処理を開示した文献である。 A technique of running a measuring trolley to measure the position of a white line with high accuracy is known. The measuring trolley described in Patent Document 1 includes an odometry device, three GPS (Global Positioning System), three gyro sensors, a laser radar, a camera, and a computer. The white line position measured by the measuring trolley is used for a high-precision map. Road markings such as white lines are accurately drawn on high-precision maps. Patent Document 2 is a document that discloses a top view conversion process.

特開2007−218705号公報JP-A-2007-218705 特開2009−212734号公報Japanese Unexamined Patent Publication No. 2009-21734

新規道路が開通することがある。新規道路が開通すれば、高精度地図も更新する必要がある。また、既存の道路でも、高精度地図を更新する必要が生じる変更が行われることがある。たとえば、一番右の車線が右折専用レーンに変更になるなどが、その例である。 New roads may open. When new roads open, high-precision maps need to be updated. Existing roads may also undergo changes that may require updating the precision map. For example, the rightmost lane will be changed to a right turn lane.

高精度地図は、実際の道路の変化に対応して速やかに更新されることが好ましい。以下では、高精度地図に示されている道路に対して、実際の道路に変化が生じた位置を変化点とする。 High-precision maps are preferably updated promptly in response to actual road changes. In the following, the change point will be the position where the actual road has changed with respect to the road shown on the high-precision map.

計測台車を頻繁に走行させて、作成済みの高精度地図と、計測台車が計測して得た地図とを比較すれば、変化点を検出できる。しかし、計測台車は、上述した種々の装置を備えているので高価であり、多くの台数を用意して、頻繁に種々の道路を走行させることは困難である。つまり、計測台車により変化点を迅速に検出することは困難である。 The change point can be detected by running the measuring trolley frequently and comparing the created high-precision map with the map obtained by the measuring trolley. However, since the measuring trolley is provided with the various devices described above, it is expensive, and it is difficult to prepare a large number of measuring trolleys and frequently travel on various roads. That is, it is difficult to quickly detect the change point by the measuring trolley.

一般の車両には、ドライブレコーダーなど、カメラを備えた機器が搭載されることが増えてきている。そこで、一般の車両に搭載されているカメラにより撮像された画像を用いて変化点を検出することが考えられる。しかし、一般の車両に搭載されているカメラで撮像した画像を用いて変化点を検出することは容易ではない。この理由は次の通りである。 Devices equipped with cameras, such as drive recorders, are increasingly being installed in general vehicles. Therefore, it is conceivable to detect the change point using an image captured by a camera mounted on a general vehicle. However, it is not easy to detect a change point using an image captured by a camera mounted on a general vehicle. The reason for this is as follows.

カメラが撮像した画像に写る道路は、実際には同じ道路幅であっても、遠方ほど狭幅に写る。そのため、カメラが撮像した画像を、単純に、高精度地図に描かれている道路部分の画像と照合することができない。 Even if the road width in the image captured by the camera is actually the same, the farther the road is, the narrower the road is. Therefore, the image captured by the camera cannot be simply collated with the image of the road portion drawn on the high-precision map.

また、一般の車両に搭載されているカメラは、他車両など、カメラが搭載された車両の周辺に存在する障害物を撮像するために設けられており、当然、カメラにより撮像された画像には、路面上にない種々の障害物が写っている。変化点を精度よく検出するためには、カメラにより撮像された画像から、変化点の検出に不要な障害物を除去することが好ましい。 In addition, the camera mounted on a general vehicle is provided to image an obstacle existing in the vicinity of the vehicle on which the camera is mounted, such as another vehicle. Naturally, the image captured by the camera is included in the image. , Various obstacles that are not on the road surface are shown. In order to detect the change point with high accuracy, it is preferable to remove obstacles unnecessary for detecting the change point from the image captured by the camera.

しかし、一般の車両に搭載されているカメラは計測車両に搭載されているものよりも解像度が高くない。そのため、画像から精度よく障害物を検出して除去できない恐れもある。 However, the resolution of the camera mounted on a general vehicle is not higher than that mounted on a measuring vehicle. Therefore, there is a possibility that obstacles cannot be detected and removed from the image with high accuracy.

これらの理由により、一般の車両に搭載されている解像度が低いカメラで撮像した画像を用いて、変化点を精度よく検出することは容易ではなかったのである。 For these reasons, it has not been easy to accurately detect the change point using an image captured by a low-resolution camera mounted on a general vehicle.

本開示は、この事情に基づいて成されたものであり、その目的とするところは、解像度が低いカメラを用いても精度よく変化点を検出することができる地図変化点検出装置を提供することにある。 The present disclosure has been made based on this circumstance, and an object of the present invention is to provide a map change point detecting device capable of accurately detecting a change point even by using a camera having a low resolution. It is in.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、技術的範囲を限定するものではない。 The above object is achieved by a combination of the features described in the independent claims, and the sub-claims provide further advantageous specific examples. The reference numerals in parentheses described in the claims indicate, as one embodiment, the correspondence with the specific means described in the embodiments described later, and do not limit the technical scope.

上記目的を達成するための開示の一つは、
車両に備えられ、車両の周辺を撮像するカメラ(110)と、
カメラが撮像した画像を俯瞰画像に変換する俯瞰変換部(S6)と、
路面地図を含んだ道路地図(151)を記憶する地図記憶部(150)と、
俯瞰画像と路面地図とを照合して、路面地図に対して、実際の路面に変化が生じた位置である変化点が存在するか否かを決定する照合処理部(164)と、
俯瞰画像から検出できる道路区画線の本数に基づいて、俯瞰画像から照合に用いる車両幅方向の領域を決定する照合領域特定部(163)とを備える地図変化点検出装置である。
上記目的を達成するための開示の他の一つは、
車両に備えられ、車両の周辺を撮像するカメラ(110)と、
カメラが撮像した画像を俯瞰画像に変換する俯瞰変換部(S6)と、
路面地図を含んだ道路地図(151)を記憶する地図記憶部(150)と、
俯瞰画像と路面地図とを照合して、路面地図に対して、実際の路面に変化が生じた位置である変化点が存在するか否かを決定する照合処理部(164)と、
俯瞰画像に対して、路面地図に含まれている物体の色を指定し、指定した色以外は黒に変換することで、俯瞰画像に含まれている障害物を除去する障害物除去処理部(S7)とを備え、
照合処理部は、障害物が除去された後の俯瞰画像と路面地図とを照合する地図変化点検出装置である
One of the disclosures to achieve the above objectives is
A camera (110) installed in the vehicle that captures the surroundings of the vehicle,
A bird's-eye view conversion unit (S6) that converts the image captured by the camera into a bird's-eye view image,
A map storage unit (150) that stores a road map (151) including a road surface map, and
A collation processing unit (164) that collates the bird's-eye view image with the road surface map to determine whether or not there is a change point that is a position where the actual road surface has changed with respect to the road surface map.
It is a map change point detection device including a collation area specifying unit (163) that determines an area in the vehicle width direction used for collation from the bird's-eye view image based on the number of road marking lines that can be detected from the bird's-eye view image.
The other disclosure to achieve the above objectives is
A camera (110) installed in the vehicle that captures the surroundings of the vehicle,
A bird's-eye view conversion unit (S6) that converts the image captured by the camera into a bird's-eye view image,
A map storage unit (150) that stores a road map (151) including a road surface map, and
A collation processing unit (164) that collates the bird's-eye view image with the road surface map to determine whether or not there is a change point that is a position where the actual road surface has changed with respect to the road surface map.
Obstacle removal processing unit that removes obstacles included in the bird's-eye view image by specifying the color of the object included in the road surface map and converting the color other than the specified color to black. With S7)
The collation processing unit is a map change point detection device that collates the bird's-eye view image after the obstacle is removed with the road surface map .

この地図変化点検出装置は、カメラが撮像した車両周辺の画像を俯瞰画像に変換する。俯瞰画像に変換することで、車両からの距離によらず、道路幅が、実際の道路と同様に一定幅の画像になる。また、俯瞰画像に変換することで、建物、樹木など、路面ではない場所に存在している種々の物体を除去することができる。この俯瞰画像を路面地図と照合する画像として用いるので、解像度が低くても、精度よく変化点を検出することができる。 This map change point detection device converts the image around the vehicle captured by the camera into a bird's-eye view image. By converting to a bird's-eye view image, the road width becomes a constant width image like an actual road regardless of the distance from the vehicle. Further, by converting to a bird's-eye view image, it is possible to remove various objects existing on a place other than the road surface, such as a building and a tree. Since this bird's-eye view image is used as an image to be collated with the road surface map, the change point can be detected accurately even if the resolution is low.

第1実施形態の道路地図情報更新システム100の構成を示すブロック図である。It is a block diagram which shows the structure of the road map information update system 100 of 1st Embodiment. 図1の画像処理部162が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the image processing unit 162 of FIG. 1 executes. カメラ110が撮像する前方画像180を示す図である。It is a figure which shows the front image 180 which the camera 110 takes. 図2のS2で生成する補正後前方画像181を示す図である。It is a figure which shows the corrected front image 181 generated in S2 of FIG. 実像高Y、理想像高Y0、入射角θ、焦点距離fの関係を示す図である。It is a figure which shows the relationship of the real image height Y, the ideal image height Y0, the incident angle θ, and the focal length f. 補正前画像の各点(u、v)と、理想像の直交座標(u0、v0)の関係を示す図である。It is a figure which shows the relationship between each point (u, v) of the image before correction, and the orthogonal coordinates (u0, v0) of an ideal image. 前方画像180を示す図である。It is a figure which shows the front image 180. ディストーション補正画像185を示す図である。It is a figure which shows the distortion correction image 185. ディストーション補正前の画像を説明する図である。It is a figure explaining the image before distortion correction. ボリューム歪補正後の画像を説明する図である。It is a figure explaining the image after volume distortion correction. 区画線182と消失点183の関係を示す図である。It is a figure which shows the relationship between the lane marking 182 and the vanishing point 183. 障害物を除去する前の俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image before removing an obstacle. 障害物を除去した後の俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image after removing an obstacle. 照合領域特定部163が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the collation area identification part 163 executes. 白線強度Gを算出する方法を説明する図である。It is a figure explaining the method of calculating the white line intensity G. 白線強度Gから白線中心を検出する方法を説明する図である。It is a figure explaining the method of detecting the center of a white line from the white line intensity G. 検出した線分のパターンと走行レーンとの関係を示す図である。It is a figure which shows the relationship between the detected line segment pattern, and a traveling lane. 照合処理部164が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the collation processing unit 164 executes. 距離変換する前の高精度地図を示す図である。It is a figure which shows the high-precision map before distance conversion. 距離変換した後の高精度地図を示す図である。It is a figure which shows the high-precision map after distance conversion. 図18のS22において実行する拡大縮小処理を示す図である。It is a figure which shows the enlargement / reduction process executed in S22 of FIG. 図18のS22において実行する射影変換を示す図である。It is a figure which shows the projective transformation performed in S22 of FIG. 図15のS23で実行するスコアリングを説明する図である。It is a figure explaining the scoring executed in S23 of FIG. 第2実施形態の道路地図情報更新システム200の構成を示すブロック図である。It is a block diagram which shows the structure of the road map information update system 200 of 2nd Embodiment. 図20の地図生成部265が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the map generation part 265 of FIG. 20 executes. 画像処理部162で生成した照合処理用の俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image for collation processing generated by the image processing unit 162. 図25から、図21のS31で抽出する画像を説明する図である。It is a figure explaining the image extracted in S31 of FIG. 21 from FIG. 第3実施形態で画像処理部162が実行する処理を示すフローチャートである。It is a flowchart which shows the process which image processing unit 162 executes in 3rd Embodiment. 図28のS4Aの詳細処理を示すフローチャートである。It is a flowchart which shows the detailed processing of S4A of FIG. 1フレーム前の消失点領域画像386である。It is a vanishing point region image 386 one frame before. 最新のフレームで得た消失点領域画像386である。It is a vanishing point region image 386 obtained in the latest frame. ピッチ変動量δyを説明する図である。It is a figure explaining the pitch fluctuation amount δy. ピッチ補正をしていない俯瞰画像である。This is a bird's-eye view image without pitch correction. ピッチ補正をした俯瞰画像である。This is a bird's-eye view image with pitch correction. 第4実施形態で照合処理部164が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the collation processing unit 164 executes in 4th Embodiment. 最初の照合領域401と1回目の部分領域402との関係を示す図である。It is a figure which shows the relationship between the first collation area 401 and the first partial area 402. 1回目の部分領域402aと2回目の部分領域403との関係を示す図である。It is a figure which shows the relationship between the 1st partial region 402a and the 2nd partial region 403.

以下、実施形態を図面に基づいて説明する。図1は、地図変化点検出装置としての機能を備えた道路地図情報更新システム100の構成を示すブロック図である。 Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a road map information updating system 100 having a function as a map change point detecting device.

[全体構成]
道路地図情報更新システム100は、カメラ110、パラメータ記憶部120、GPS受信機130、挙動検出センサ140、地図記憶部150、演算部160、蓄積データ記憶部170を備えている。この道路地図情報更新システム100は車両1に搭載される。
[overall structure]
The road map information update system 100 includes a camera 110, a parameter storage unit 120, a GPS receiver 130, a behavior detection sensor 140, a map storage unit 150, a calculation unit 160, and a stored data storage unit 170. The road map information updating system 100 is mounted on the vehicle 1.

カメラ110は、車両1の前方を撮像できる向きに取り付けられており、車両1の周辺のうち車両1の前方を撮像する。以下では、カメラ110が撮像した画像を前方画像180とする。図3に前方画像180の一例を示している。 The camera 110 is attached so as to be able to image the front of the vehicle 1, and images the front of the vehicle 1 in the periphery of the vehicle 1. In the following, the image captured by the camera 110 will be referred to as the front image 180. FIG. 3 shows an example of the front image 180.

本実施形態では、このカメラ110は、ドライブレコーダーが備えるカメラである。車両1にドライブレコーダーが搭載されていれば、道路地図情報更新システム100が別途、カメラ110を備える必要はない。ドライブレコーダーが備えるカメラ110であるので、カメラ110は広角レンズを備え、画角が広角になっている。 In the present embodiment, the camera 110 is a camera included in the drive recorder. If the vehicle 1 is equipped with a drive recorder, the road map information updating system 100 does not need to be separately provided with a camera 110. Since it is the camera 110 included in the drive recorder, the camera 110 is provided with a wide-angle lens and has a wide angle of view.

パラメータ記憶部120は、画像処理に必要なカメラ110のパラメータを記憶している。このパラメータは具体的には、カメラ110の焦点距離f、カメラ光軸のヨー角rxおよびチルト角ryである。カメラ110の焦点距離fは、製品により定まる値であり、パラメータ記憶部120に予め記憶されている。 The parameter storage unit 120 stores the parameters of the camera 110 required for image processing. Specifically, this parameter is the focal length f of the camera 110, the yaw angle rx of the camera optical axis, and the tilt angle ry. The focal length f of the camera 110 is a value determined by the product and is stored in advance in the parameter storage unit 120.

一方、カメラ光軸のヨー角rxおよびチルト角ryは、カメラ110の取り付け姿勢により変化する。そこで本実施形態では、前方画像180を解析して、これらヨー角rxおよびチルト角ryを計算する。そして、計算結果をパラメータ記憶部120に記憶する。パラメータ記憶部120には、計算結果を記憶できるようにするために、書込み可能な記憶部が用いられる。 On the other hand, the yaw angle rx and the tilt angle ry of the camera optical axis change depending on the mounting posture of the camera 110. Therefore, in the present embodiment, the front image 180 is analyzed to calculate the yaw angle rx and the tilt angle ry. Then, the calculation result is stored in the parameter storage unit 120. A writable storage unit is used in the parameter storage unit 120 so that the calculation result can be stored.

GPS受信機130は、衛星航法システムの一つであるGPS(Global Positioning System)が備える航法衛星が送信する航法信号を受信し、受信した航法信号に基づいて現在位置を逐次算出する。 The GPS receiver 130 receives a navigation signal transmitted by a navigation satellite included in GPS (Global Positioning System), which is one of the satellite navigation systems, and sequentially calculates the current position based on the received navigation signal.

挙動検出センサ140は、車両1の挙動を検出するセンサである。加速度センサ、車速センサ、ジャイロセンサが、挙動検出センサ140の具体例である。 The behavior detection sensor 140 is a sensor that detects the behavior of the vehicle 1. Accelerometers, vehicle speed sensors, and gyro sensors are specific examples of the behavior detection sensor 140.

地図記憶部150には高精度地図151が記憶されている。高精度地図151は、計測台車を走行させて計測した地図であり、道路区画線などの路面標示が画像のような詳細な状態で表されている。また、高精度地図151には、路面よりも上方の立体物、たとえば電柱、ガードレール、道路標識も詳細に表されている。以降の説明の便宜上、この高精度地図151のうち路面部分を路面地図とする。また、路面地図を含んでいる高精度地図151は道路地図に相当する。 A high-precision map 151 is stored in the map storage unit 150. The high-precision map 151 is a map measured by traveling a measuring trolley, and road markings such as road markings are shown in a detailed state like an image. In addition, the high-precision map 151 also shows in detail three-dimensional objects above the road surface, such as utility poles, guardrails, and road signs. For convenience of the following description, the road surface portion of the high-precision map 151 will be referred to as a road surface map. Further, the high-precision map 151 including the road surface map corresponds to a road map.

演算部160は、CPU、ROM、RAM等を備えたコンピュータであり、CPUが、RAMの一時記憶機能を利用しつつ、ROMなどの非遷移的実体的記録媒体(non-transitory tangible storage medium)に記憶されているプログラムを実行する。これにより、演算部160は、車両位置検出部161、画像処理部162、照合領域特定部163、照合処理部164として機能する。これらの機能を実行すると、プログラムに対応する方法が実行される。 The arithmetic unit 160 is a computer equipped with a CPU, ROM, RAM, etc., and the CPU can use the temporary storage function of the RAM as a non-transitory tangible storage medium such as a ROM. Execute the stored program. As a result, the calculation unit 160 functions as a vehicle position detection unit 161, an image processing unit 162, a collation area identification unit 163, and a collation processing unit 164. When these functions are executed, the method corresponding to the program is executed.

なお、演算部160が備える機能ブロックの一部または全部は、一つあるいは複数のIC等を用いて(換言すればハードウェアとして)実現してもよい。また、演算部160が備える機能ブロックの一部又は全部は、CPUによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。 A part or all of the functional blocks included in the arithmetic unit 160 may be realized by using one or a plurality of ICs (in other words, as hardware). Further, a part or all of the functional blocks included in the arithmetic unit 160 may be realized by a combination of software execution by the CPU and hardware members.

蓄積データ記憶部170は、照合処理部164の処理により検出した変化点および変化点に関する道路情報を蓄積しておく記憶部である。変化点は、高精度地図151に示されている道路に対して、実際の道路に変化が生じた位置である。変化点に関する道路情報は、変化点において、具体的に、道路にどのような変化が生じたのかを示す情報である。たとえば、道路に新たに追加された道路標示の文字などが、変化点に関する道路情報である。 The storage data storage unit 170 is a storage unit that stores the change point detected by the processing of the collation processing unit 164 and the road information regarding the change point. The change point is the position where the actual road is changed with respect to the road shown in the high-precision map 151. The road information regarding the change point is information indicating what kind of change has occurred on the road at the change point. For example, the characters of the road marking newly added to the road are the road information regarding the change point.

次に、演算部160が備える各部の処理を説明する。 Next, the processing of each unit included in the calculation unit 160 will be described.

[車両位置検出部161の処理]
車両位置検出部161は、衛星航法と自立航法とを組み合わせたハイブリッド航法により、車両1の現在位置を逐次検出する。衛星航法は、GPS受信機130から供給される信号に基づいて現在位置を推定する方法であり、自立航法は、挙動検出センサ140が検出する車両挙動に基づいて車両位置の相対軌跡を検出する方法である。なお、これに限られず、衛星航法のみで車両1の現在位置を逐次検出してもよい。車両位置検出部161は、検出した現在位置を画像処理部162に出力する。
[Processing of vehicle position detection unit 161]
The vehicle position detection unit 161 sequentially detects the current position of the vehicle 1 by hybrid navigation that combines satellite navigation and self-contained navigation. The satellite navigation is a method of estimating the current position based on the signal supplied from the GPS receiver 130, and the self-contained navigation is a method of detecting the relative trajectory of the vehicle position based on the vehicle behavior detected by the behavior detection sensor 140. Is. Not limited to this, the current position of the vehicle 1 may be sequentially detected only by satellite navigation. The vehicle position detection unit 161 outputs the detected current position to the image processing unit 162.

[画像処理部162の処理]
画像処理部162は、カメラ110が逐次撮像した前方画像180を処理して俯瞰画像を生成する。この画像処理部162が実行する処理を、図2に示すフローチャートを用いて説明する。画像処理部162は、図2に示す処理を、道路地図情報更新システム100の起動状態において周期的に実行する。
[Processing of image processing unit 162]
The image processing unit 162 processes the front image 180 sequentially captured by the camera 110 to generate a bird's-eye view image. The process executed by the image processing unit 162 will be described with reference to the flowchart shown in FIG. The image processing unit 162 periodically executes the process shown in FIG. 2 in the activated state of the road map information updating system 100.

ステップ(以下、ステップを省略する)S1ではカメラ110が撮像した前方画像180が入力される。S2では、S1で入力された前方画像180の歪みを補正する処理を行って、図4に例示する補正後前方画像181を生成する。S2は歪補正処理部に相当する。 In step (hereinafter, step is omitted) S1, the front image 180 captured by the camera 110 is input. In S2, the process of correcting the distortion of the front image 180 input in S1 is performed to generate the corrected front image 181 illustrated in FIG. S2 corresponds to the distortion correction processing unit.

前方画像180は、広角レンズで撮像されているため大きく歪みが生じる。歪みが大きい場合、変化点の検出精度が低下する。そのため、前方画像180の歪みを補正する。ここでの歪みはカメラ110への入射角に応じて画像の中心に引き寄せられて撮像される現象であり、ディストーションと呼ばれる。広角レンズの場合、ディストーションにより画像隅部ほど画像の上下中心あるいは左右中心に引き寄せられた樽型画像となる。 Since the front image 180 is captured by a wide-angle lens, a large amount of distortion occurs. When the distortion is large, the detection accuracy of the change point decreases. Therefore, the distortion of the front image 180 is corrected. The distortion here is a phenomenon in which the image is drawn to the center of the image according to the angle of incidence on the camera 110, and is called distortion. In the case of a wide-angle lens, a barrel-shaped image is obtained in which the corners of the image are drawn to the vertical center or the horizontal center of the image due to distortion.

画像の射影方式には正射影、等距離射影などがあり、射影方式に対応した歪み補正処理を行う。本実施形態では、等距離射影に対応する歪み補正処理を行う。等距離射影関係式は、式1で表される。式1において、Yは実像高、Y0は理想像、fは焦点距離、θは入射角である。図5に、これら実像高Y、理想像高Y0、入射角θ、焦点距離fの関係を図示する。
Image projection methods include normal projection and equidistant projection, and distortion correction processing corresponding to the projection method is performed. In the present embodiment, distortion correction processing corresponding to equidistant projection is performed. The equidistant projection relational expression is expressed by Equation 1. In Equation 1, Y is the real image height, Y0 is the ideal image, f is the focal length, and θ is the angle of incidence. FIG. 5 illustrates the relationship between the real image height Y, the ideal image height Y0, the incident angle θ, and the focal length f.

補正前画像の各点の直交座標(u、v)を、実像高Yと極座標系における角度φとを用いて表現すると式2になる。
Equation 2 is obtained by expressing the orthogonal coordinates (u, v) of each point of the uncorrected image using the real image height Y and the angle φ in the polar coordinate system.

また、理想像の直交座標(u0、v0)は式3で示される。
The Cartesian coordinates (u0, v0) of the ideal image are represented by Equation 3.

図6に、補正前画像の各点(u、v)と、理想像の直交座標(u0、v0)と、極座標との関係を示す。歪み補正処理では、まず、(u、v)を式2により極座標(Y、φ)に変換する。次いで、極座標のYを、式1から得た理想像高Y0に置き換える。その後、式3から、直交座標(u0、v0)を得る。 FIG. 6 shows the relationship between each point (u, v) of the uncorrected image, the orthogonal coordinates (u0, v0) of the ideal image, and the polar coordinates. In the distortion correction process, first, (u, v) is converted into polar coordinates (Y, φ) by Equation 2. Next, the polar coordinate Y is replaced with the ideal image height Y0 obtained from Equation 1. Then, the Cartesian coordinates (u0, v0) are obtained from Equation 3.

ここまでの処理で得た画像をディストーション補正画像185とする。図7には、図3とは別の前方画像180を示しており、図8には、図7の前方画像180を補正して得られたディストーション補正画像185を示している。 The image obtained by the processing up to this point is referred to as a distortion correction image 185. FIG. 7 shows a front image 180 different from that of FIG. 3, and FIG. 8 shows a distortion correction image 185 obtained by correcting the front image 180 of FIG. 7.

図6におけるYとY0の関係からも分かるように、図8に示すディストーション補正画像185は、画像の端部に写し出された立体物が画像の端方向に引っ張られたような像になる。これをボリューム歪像という。 As can be seen from the relationship between Y and Y0 in FIG. 6, the distortion correction image 185 shown in FIG. 8 is an image in which a three-dimensional object projected on the edge of the image is pulled toward the edge of the image. This is called a volume distortion image.

歪み補正処理では、ボリューム歪像を補正する処理も行う。ボリューム歪像を補正するため、図10に示すように、画像の周縁部ほど画像の中心に向かって近づける非線形の変換を行う。この変換をボリューム歪像補正という。ボリューム歪像補正は、図9に示す直線を、図10の式48に示す曲線に変換する補正である。また、この補正により、画像左右方向の大きさは、図10に示す破線まで縮められることになり、縮み率は画像の左右端ほど高くなっている。 In the distortion correction process, a process for correcting a volume distortion image is also performed. In order to correct the volume distortion image, as shown in FIG. 10, a non-linear conversion is performed so that the peripheral portion of the image is closer to the center of the image. This conversion is called volume distortion correction. The volume distortion image correction is a correction that converts the straight line shown in FIG. 9 into the curve shown in the equation 48 of FIG. Further, by this correction, the size in the left-right direction of the image is reduced to the broken line shown in FIG. 10, and the shrinkage rate is higher toward the left and right edges of the image.

ボリューム歪像補正を行った後の画像が、図4に示した補正後前方画像181である。補正後前方画像181では、道路や橋梁はほぼ直線となり、また、画像の周縁部に写し出されたビルもまっすぐに立っている。 The image after the volume distortion image correction is the corrected front image 181 shown in FIG. In the corrected front image 181 the roads and bridges are almost straight, and the building projected on the peripheral edge of the image also stands straight.

S3では、補正後前方画像181から直線を検出する。直線を検出するために、画像の濃淡を検出するエッジ検出処理を行う。検出したエッジは、点の集合で示される。このエッジの点の集合をハフ変換することで道路の区画線等の直線を検出する。 In S3, a straight line is detected from the corrected front image 181. In order to detect a straight line, an edge detection process for detecting the shading of an image is performed. The detected edges are represented by a set of points. A straight line such as a road marking line is detected by Hough transforming the set of points at this edge.

S4では補正後前方画像181の消失点183を検出する。S4は消失点検出部に相当する。消失点183を検出するために、まず、S3で検出した直線から、補正後前方画像181内の中心付近に延びている平行線を抽出する。図4に示すように、直線として4本の区画線182が検出できた場合、たとえば、車両1が走行する車線を区画する2本の区画線182を用いる。これら2本の区画線182が交差する点を消失点183とする。図11には、区画線182と消失点183の関係を図示している。 In S4, the vanishing point 183 of the corrected front image 181 is detected. S4 corresponds to the vanishing point detection unit. In order to detect the vanishing point 183, first, a parallel line extending near the center in the corrected front image 181 is extracted from the straight line detected in S3. As shown in FIG. 4, when four lane markings 182 can be detected as straight lines, for example, two lane markings 182 for dividing the lane in which the vehicle 1 travels are used. The point where these two lane markings 182 intersect is referred to as a vanishing point 183. FIG. 11 illustrates the relationship between the lane marking 182 and the vanishing point 183.

S5ではカメラ110の向きを検出する。S5はカメラ向き検出部に相当する。カメラ110の向きとは、カメラ110の光軸の向きを意味する。カメラ110は、ドライブレコーダーが備えるカメラであるので、車両購入後に取り付ける場合が多く、かつ、取り付け後も、カメラ110の向きを変えることができる場合が多い。したがって、カメラ110の向きは、車両1ごとに異なる。そこで、このS5で、カメラ110の向きを検出する。 In S5, the orientation of the camera 110 is detected. S5 corresponds to a camera orientation detection unit. The orientation of the camera 110 means the orientation of the optical axis of the camera 110. Since the camera 110 is a camera included in the drive recorder, it is often attached after the vehicle is purchased, and the orientation of the camera 110 can be changed even after the attachment. Therefore, the orientation of the camera 110 is different for each vehicle 1. Therefore, in this S5, the orientation of the camera 110 is detected.

カメラ110の向きは、具体的には、ヨー角rxとチルト角ryである。ヨー角rxとチルト角ryは、それぞれ、式4、式5で表すことができる。式4において、Δxは、図11に示すように、補正後前方画像181における画像中心184と消失点183とのx方向の距離である。式5において、Δyは、図11に示すように、補正後前方画像181における画像中心184と消失点183とのy方向の距離である。
Specifically, the orientation of the camera 110 is a yaw angle rx and a tilt angle ry. The yaw angle rx and the tilt angle ry can be expressed by Equations 4 and 5, respectively. In Equation 4, as shown in FIG. 11, Δx is the distance between the image center 184 and the vanishing point 183 in the corrected front image 181 in the x direction. In Equation 5, Δy is the distance in the y direction between the image center 184 and the vanishing point 183 in the corrected front image 181 as shown in FIG.

S5においてカメラ110の向きが検出できたら、次に、S6において、補正後前方画像181に対してトップビュー変換処理(すなわち俯瞰変換)を行い、車両1の上方に視点がある俯瞰画像を生成する。S6は俯瞰変換部に相当する。 When the orientation of the camera 110 can be detected in S5, then in S6, the top view conversion process (that is, bird's-eye view conversion) is performed on the corrected front image 181 to generate a bird's-eye view image having a viewpoint above the vehicle 1. .. S6 corresponds to the bird's-eye view conversion unit.

トップビュー変換処理は、カメラ110の光軸を、上方から下方へ向かう方向に変換する処理である。トップビュー変換処理は、特許文献2などに記載されている。 The top view conversion process is a process of converting the optical axis of the camera 110 in the direction from upward to downward. The top view conversion process is described in Patent Document 2 and the like.

補正後前方画像181を俯瞰画像に変換する際には、補正後前方画像181のうち、車両1の上方から見たときにも見える部分を俯瞰画像に変換することになる。つまり、補正後前方画像181のうち路面およびその周囲を俯瞰画像に変換する。俯瞰画像に変換する範囲は、消失点183およびカメラ110の画角に基づいて定める。 When converting the corrected front image 181 into a bird's-eye view image, the portion of the corrected front image 181 that can be seen even when viewed from above the vehicle 1 is converted into a bird's-eye view image. That is, the road surface and its surroundings in the corrected front image 181 are converted into a bird's-eye view image. The range to be converted into the bird's-eye view image is determined based on the vanishing point 183 and the angle of view of the camera 110.

S7では、S6で生成した俯瞰画像から、障害物を除去する。S7は障害物除去処理部に相当する。俯瞰画像にすることで、補正後前方画像181に写っていた障害物のうち、俯瞰画像に変換する範囲の外に写っていた障害物は除去される。これによって、変化点の検出精度の低下原因となる障害物の多くは除去できる。しかし、俯瞰画像にも、先行車両や落下物など、道路設置物以外のものが写っている場合がある。そこで、俯瞰画像から障害物を除去する処理を行う。 In S7, obstacles are removed from the bird's-eye view image generated in S6. S7 corresponds to the obstacle removal processing unit. By making the bird's-eye view image, among the obstacles shown in the corrected front image 181, the obstacles shown outside the range to be converted into the bird's-eye view image are removed. As a result, many obstacles that cause a decrease in the detection accuracy of the change point can be removed. However, the bird's-eye view image may also show objects other than road-installed objects, such as preceding vehicles and falling objects. Therefore, a process of removing obstacles from the bird's-eye view image is performed.

障害物を除去する方法は、指定した色を抽出し、その他の色は黒にする方法である。指定する色は、除去したくない路面標示や、道路区画線に対応する色である白やオレンジ色である。 The method of removing obstacles is to extract the specified color and make the other colors black. The colors to be specified are white and orange, which are the colors corresponding to the road markings and road markings that you do not want to remove.

図12に、障害物である先行車両が写っている俯瞰画像を示し、図13に、S7を実行して障害物を除去した後の画像を示す。先行車両の部分が黒に変換されることで、図13の画像では、先行車両が除去されている。なお、一定の大きさよりも小さい障害物は、その後の処理に支障がないとみなして、元の色に復元してよい。 FIG. 12 shows a bird's-eye view image showing the preceding vehicle which is an obstacle, and FIG. 13 shows an image after executing S7 to remove the obstacle. By converting the portion of the preceding vehicle to black, the preceding vehicle is removed in the image of FIG. Obstacles smaller than a certain size may be restored to their original colors, assuming that they do not interfere with the subsequent processing.

S8では、俯瞰画像内で最も輝度の高い部分が白の輝度となるように、俯瞰画像の全体の輝度を調整する。輝度調整をする理由は、俯瞰画像の輝度は、天候や時間帯、トンネル内など、カメラ撮像時の周辺環境の影響を受けるため、輝度調整をしないと、変化点を誤検出する恐れが高くなるからである。このS8における輝度調整を行った後の俯瞰画像が、照合処理用の俯瞰画像である。 In S8, the overall brightness of the bird's-eye view image is adjusted so that the portion having the highest brightness in the bird's-eye view image becomes the brightness of white. The reason for adjusting the brightness is that the brightness of the bird's-eye view image is affected by the surrounding environment at the time of camera imaging, such as the weather, time zone, and inside the tunnel, so if the brightness is not adjusted, there is a high risk of erroneous detection of change points. Because. The bird's-eye view image after the brightness adjustment in S8 is the bird's-eye view image for collation processing.

S9では、車両位置検出部161から供給された現在位置と、S8の処理により得られた照合処理用の俯瞰画像を、照合領域特定部163に出力する。 In S9, the current position supplied from the vehicle position detection unit 161 and the bird's-eye view image for the collation processing obtained by the processing of S8 are output to the collation area identification unit 163.

[照合領域特定部163の処理]
照合領域特定部163は、画像処理部162が生成した照合処理用の俯瞰画像から、照合領域を特定する。照合領域特定部163は、照合処理用の俯瞰画像から道路区画線を検出し、その道路区画線の本数に基づいて、照合領域の車両幅方向の範囲を決定する。
[Processing of collation area identification unit 163]
The collation area specifying unit 163 identifies the collation area from the bird's-eye view image for collation processing generated by the image processing unit 162. The collation area specifying unit 163 detects a road lane marking from the bird's-eye view image for collation processing, and determines the range of the collation region in the vehicle width direction based on the number of the road lane markings.

照合領域特定部163が実行する処理を図14に示す。照合領域特定部163の詳しい処理は図14を用いて説明する。照合領域特定部163は、照合処理用の俯瞰画像が生成された場合に、図14に示す処理を実行する。 FIG. 14 shows a process executed by the collation area specifying unit 163. Detailed processing of the collation area specifying unit 163 will be described with reference to FIG. The collation area specifying unit 163 executes the process shown in FIG. 14 when the bird's-eye view image for the collation process is generated.

図14において、S11では白線検出処理を実行する。白線検出処理は、俯瞰画像の各画素に対して、次に示すフィルタ処理を行って白線らしさを数値化する。この値を白線強度Gとする。 In FIG. 14, in S11, the white line detection process is executed. In the white line detection process, the following filter processing is performed on each pixel of the bird's-eye view image to quantify the white line-likeness. Let this value be the white line intensity G.

白線強度Gは、注目画素(m、n)を中心として、想定白線幅Sの範囲内の画素値を合計したものを、その面積で割った値である。注目画素(m、n)は、白線強度Gを算出する画素であり、全画素について白線強度Gを順番に算出する。 The white line intensity G is a value obtained by dividing the sum of the pixel values within the range of the assumed white line width S centering on the pixel of interest (m, n) by the area. The pixels of interest (m, n) are pixels for calculating the white line intensity G, and the white line intensity G is calculated in order for all the pixels.

白線強度Gは、式6、式7、式8により表される。式6は左側白線強度Gを示している。式6の右辺第1項の分子は、想定白線幅Sの範囲内の画素値の合計であり、式6の右辺第2項の分子は、想定白線幅Sの左側の範囲外画素値の合計である。 The white line strength G is represented by the formulas 6, 7, and 8. Equation 6 shows the left white line intensity GL . The numerator of the first term on the right side of Equation 6 is the sum of the pixel values within the range of the assumed white line width S, and the numerator of the second term on the right side of Equation 6 is the sum of the pixel values outside the range on the left side of the assumed white line width S. Is.

式7は右側白線強度Gを示している。式7の右辺第1項の分子は、式6の右辺第1項と同じく想定白線幅Sの範囲内の画素値の合計である。式7の右辺第2項の分子は、想定白線幅Sの右側の範囲外画素値の合計である。式6、式7の右辺第1項、第2項の分子がそれぞれ算出している画素値合計の範囲を図15に示している。 Equation 7 shows a right side white line intensity G R. The numerator of the first term on the right side of the equation 7 is the sum of the pixel values within the range of the assumed white line width S as in the first term of the right side of the equation 6. The numerator of the second term on the right side of Equation 7 is the sum of the out-of-range pixel values on the right side of the assumed white line width S. FIG. 15 shows the range of the total pixel values calculated by the numerator of the first term and the second term on the right side of the formulas 6 and 7, respectively.

画像上の白線が明確であるほど、式6および式7において、右辺第1項の値は大きくなり、かつ、右辺第2項の値は小さくなる。したがって、式6、式7は、白線強度Gを示しているのである。 The clearer the white line on the image, the larger the value of the first term on the right side and the smaller the value of the second term on the right side in Equations 6 and 7. Therefore, Equations 6 and 7 show the white line strength G.

式8は、左側白線強度Gと右側白線強度Gとを一つの値にまとめるために二乗和平方根を算出している。画像処理においてエッジ強度の算出方法として二乗和平方根を用いる手法は一般的である。
Equation 8, calculates the square root of sum of squares to put together a left white line intensity G L and the right white line intensity G R into a single value. In image processing, a method using the sum of square roots as a method for calculating the edge strength is common.

なお、図15は、画面横方向の白線強度Gである。S11では、画面横方向の白線強度Gに加えて画面縦方向の白線強度Gも算出する。 Note that FIG. 15 shows the white line strength G in the horizontal direction of the screen. In S11, in addition to the white line strength G in the horizontal direction of the screen, the white line strength G in the vertical direction of the screen is also calculated.

白線強度Gを算出したら、次いで、白線中心を検出する。白線中心を検出するために、横方向の白線強度Gは縦方向に1ラインずつ強度の強い部分を探し、横方向の白線強度Gは縦方向に1ラインずつ強度の強い部分を探し、白線中心とする。図16には、横方向の白線強度Gの大きさを1ラインずつ示している。図16に示すピークを白線中心とする。 After calculating the white line intensity G, the center of the white line is then detected. In order to detect the center of the white line, the horizontal white line strength G searches for a strong part by one line in the vertical direction, and the horizontal white line strength G searches for a strong part by one line in the vertical direction. And. FIG. 16 shows the magnitude of the white line strength G in the horizontal direction line by line. The peak shown in FIG. 16 is centered on the white line.

S12では、走行レーンを認識する。走行レーンの認識処理においては、S11で検出した白線中心が縦、横、斜め方向に連続している部分をグルーピングして(すなわちマージして)1つの線分とする。グルーピング後の画像を白線強度画像とする。また、マージした線分に含まれる白線強度Gの累積値をマージした線分の白線強度Gとし、マージした白線強度Gが最も強い線分を基準線とする。 In S12, the traveling lane is recognized. In the traveling lane recognition process, the portions where the center of the white line detected in S11 is continuous in the vertical, horizontal, and diagonal directions are grouped (that is, merged) into one line segment. The image after grouping is defined as a white line intensity image. Further, the cumulative value of the white line strength G included in the merged line segment is used as the white line strength G of the merged line segment, and the line segment having the strongest merged white line strength G is used as the reference line.

この基準線から左右それぞれの想定レーン幅位置付近に線分を探索する。線分は、自車位置を基準として左右2本目まで探索をする。また、線分の長さから、実線と破線を区別する。 A line segment is searched near the assumed lane width position on each of the left and right sides from this reference line. The line segment is searched up to the second left and right based on the position of the own vehicle. Also, the length of the line segment distinguishes between the solid line and the broken line.

そして、検出した線分のパターンから、図17に示す関係に従い、走行レーンを認識する。認識する情報は、走行している道路が、何車線の道路であるか、および、車両1がどの走行レーンを走行しているかである。 Then, from the detected line segment pattern, the traveling lane is recognized according to the relationship shown in FIG. The information to be recognized is how many lanes the road on which the vehicle is traveling is, and which traveling lane the vehicle 1 is traveling on.

S13では、S12で生成した白線強度画像から照合領域を抽出する。抽出する領域は、縦方向すなわち自車の前後方向の領域は固定し、横方向を可変とする。照合領域の縦方向の範囲は、白線強度画像の自車両側の端から一定範囲である。 In S13, the collation region is extracted from the white line intensity image generated in S12. The area to be extracted is fixed in the vertical direction, that is, the area in the front-rear direction of the own vehicle, and is variable in the horizontal direction. The vertical range of the collation area is a certain range from the edge of the white line intensity image on the own vehicle side.

照合領域の横方向の範囲は、S12で認識した走行レーンに対応している。たとえば、S12で認識した走行レーンの数が3車線の場合には、白線強度画像の全体を照合領域の横幅とする。S12で認識した走行レーンの数が2車線の場合には、両端の線分の中心を抽出領域の中心として、2車線分の想定車線幅+αを抽出領域の横方向の範囲とする。このS13で抽出される画像は矩形の画像になる。これにより、俯瞰画像から検出できる道路区画線の本数に応じた適切な大きさの俯瞰画像を照合領域とすることができる。なお、前方車両、並走車両が写っている部分など、S7の障害物除去により除去された部分は照合領域として使わないようにしてもよい。 The horizontal range of the collation area corresponds to the traveling lane recognized in S12. For example, when the number of traveling lanes recognized in S12 is three lanes, the entire white line intensity image is set as the width of the collation area. When the number of traveling lanes recognized in S12 is two lanes, the center of the line segments at both ends is set as the center of the extraction area, and the assumed lane width + α of the two lanes is set as the lateral range of the extraction area. The image extracted in S13 is a rectangular image. As a result, a bird's-eye view image of an appropriate size according to the number of road marking lines that can be detected from the bird's-eye view image can be used as a collation area. It should be noted that the portion removed by the obstacle removal in S7, such as the portion in which the vehicle in front and the parallel running vehicle are shown, may not be used as the collation area.

S14では、高精度地図151の路面地図から、マッチング対象領域を特定する。マッチング対象領域は、現在位置を基準として定まる一定領域である。マッチング対象領域の縦横の大きさは、白線強度画像の照合領域をマッチング対象領域に対してずらしつつ、照合判定が行えるようにするために、白線強度画像の照合領域よりも大きい大きさに設定されている。 In S14, the matching target area is specified from the road surface map of the high-precision map 151. The matching target area is a fixed area determined with reference to the current position. The vertical and horizontal sizes of the matching target area are set to be larger than the matching area of the white line intensity image so that the matching judgment can be performed while shifting the matching area of the white line intensity image with respect to the matching target area. ing.

[照合処理部164の処理]
照合処理部164は、S13で抽出した照合領域の白線強度画像と、S14で特定したマッチング対象領域の高精度地図151の路面地図とを照合することで、変化点を検出する。照合処理部164の詳しい処理は図18を用いて説明する。照合処理部164は、照合領域とマッチング対象領域が決定された場合に、図18に示す処理を実行する。
[Processing of collation processing unit 164]
The collation processing unit 164 detects a change point by collating the white line intensity image of the collation area extracted in S13 with the road surface map of the high-precision map 151 of the matching target area specified in S14. The detailed processing of the collation processing unit 164 will be described with reference to FIG. The collation processing unit 164 executes the process shown in FIG. 18 when the collation area and the matching target area are determined.

図18において、S21では、S14で特定したマッチング対象領域の高精度地図151に対して距離変換を行う。ここでの距離変換は、画像処理において広く用いられている距離変換と同じであり、0画素から、最も近い非0画素までの距離を、全ての0画素に対して計算し、0画素の画素値をその距離に置き換える変換である。 In FIG. 18, in S21, distance conversion is performed on the high-precision map 151 of the matching target area specified in S14. The distance conversion here is the same as the distance conversion widely used in image processing, and the distance from 0 pixel to the nearest non-zero pixel is calculated for all 0 pixels, and the pixel of 0 pixel is calculated. A transformation that replaces a value with that distance.

高精度地図151と白線強度画像をそのままマッチングすると、レーンの幅が少し相違しているだけでも相関値が低くなってしまう。そこで、マッチング対象領域の高精度地図151に対して距離変換を行う。 If the high-precision map 151 and the white line intensity image are matched as they are, the correlation value will be low even if the lane widths are slightly different. Therefore, the distance conversion is performed on the high-precision map 151 of the matching target area.

式9に距離変換の式を示す。式9において、左辺が置き換える距離、xは非0ピクセルまでの水平距離、yは非ゼロピクセルまでの垂直距離、Nは予め設定した係数である。
Equation 9 shows the equation for distance conversion. In Equation 9, the left side replaces the distance, x is the horizontal distance to non-zero pixels, y is the vertical distance to non-zero pixels, and N is a preset coefficient.

図19、図20に距離変換前後の地図を示す。図19が距離変換前の地図、すなわち、高精度地図151である。距離変換を行うと、図20に示すように、白線がぼやけた状態になる。 19 and 20 show maps before and after distance conversion. FIG. 19 is a map before distance conversion, that is, a high-precision map 151. When the distance conversion is performed, as shown in FIG. 20, the white line becomes blurred.

S22では、白線強度画像の照合領域の位置を所定値ずつ変化させつつ、S21で距離変換を行った後の高精度地図151のマッチング対象領域と白線強度画像の照合領域との相関値を算出する。白線強度画像の照合領域の位置を所定値ずつ変化させつつ相関値を算出することで、相関値マップが作成できる。相関値マップは、マッチング対象領域に対する照合領域の相対位置と相関値との関係を表している。 In S22, while changing the position of the collation area of the white line intensity image by a predetermined value, the correlation value between the matching target area of the high-precision map 151 after the distance conversion in S21 and the collation area of the white line intensity image is calculated. .. A correlation value map can be created by calculating the correlation value while changing the position of the collation area of the white line intensity image by a predetermined value. The correlation value map shows the relationship between the relative position of the collation area with respect to the matching target area and the correlation value.

相関値の算出においては、白線強度画像に描かれている道路区画線の間隔と、距離変換後の高精度地図151に描かれている道路区画線の間隔とが合わない場合には、白線強度画像を拡大縮小したり、白線強度画像を射影変換したりする。図21に、白線強度画像を拡大縮小する図を示し、図22に、白線強度画像を射影変換する図を示している。これら拡大縮小や射影変換などにより、高精度地図151の区画線と、白線強度画像の区画線とが一致するように、白線強度画像の全体の大きさを調整する。S22は相関値マップ作成部に相当する。 In calculating the correlation value, if the spacing between the road marking lines drawn in the white line strength image and the spacing between the road marking lines drawn on the high-precision map 151 after distance conversion do not match, the white line strength is calculated. Enlarge / reduce the image and project the white line intensity image. FIG. 21 shows a diagram for enlarging / reducing a white line intensity image, and FIG. 22 shows a diagram for projecting and transforming a white line intensity image. By these scaling and projective transformation, the overall size of the white line intensity image is adjusted so that the division line of the high-precision map 151 and the division line of the white line intensity image match. S22 corresponds to the correlation value map creation unit.

S23では、スコアリングを行う。スコアリングは、白線強度画像の照合領域の位置の確からしさを数値化することである。具体的には、S23では、まず、スコアリングマップを作成する。スコアリングマップは、車両位置検出部161が検出した車両1の現在位置が最も確からしさが高いとして係数を1とし、そこから離れるほど係数が低くなるマップである。 In S23, scoring is performed. Scoring is to quantify the certainty of the position of the collation area of the white line intensity image. Specifically, in S23, first, a scoring map is created. The scoring map is a map in which the coefficient is set to 1 assuming that the current position of the vehicle 1 detected by the vehicle position detection unit 161 is the most probable, and the coefficient decreases as the distance from the current position increases.

図23に示すように、このスコアリングマップと、S22で作成した相関値マップを掛け合わせることでスコアリングを行う。そして、スコアが最も高い位置を、マッチング位置とする。S23はマッチング位置決定部に相当する。 As shown in FIG. 23, scoring is performed by multiplying this scoring map with the correlation value map created in S22. Then, the position with the highest score is set as the matching position. S23 corresponds to the matching position determining unit.

S24では、白線強度画像をグレースケールに変換し、S23で決定した白線強度画像の位置に対応する高精度地図151と、白線強度画像との差分の絶対値を求める。この絶対値が所定値以上であれば、変化点に決定する。 In S24, the white line intensity image is converted into grayscale, and the absolute value of the difference between the high-precision map 151 corresponding to the position of the white line intensity image determined in S23 and the white line intensity image is obtained. If this absolute value is equal to or greater than a predetermined value, the change point is determined.

また、高精度地図151と白線強度画像との差分の絶対値をHSV色空間に置き換えて出力する。具体的には、HSV空間に置き換える際、S(彩度)、V(明度)は固定にし、H(色相)の値を変換する。また、上記差分の絶対値を0〜255に正規化する。この正規化した値をHの値とする。そして、Hの赤と青を入れ替えて、青が0、赤が255になるように割り当てる。これにより、道路情報としてペイントの増減等の変化点が色の違いで表される。 Further, the absolute value of the difference between the high-precision map 151 and the white line intensity image is replaced with the HSV color space and output. Specifically, when replacing with HSV space, S (saturation) and V (brightness) are fixed, and the value of H (hue) is converted. Further, the absolute value of the above difference is normalized to 0 to 255. Let this normalized value be the value of H. Then, the red and blue of H are exchanged, and blue is assigned to be 0 and red is assigned to be 255. As a result, change points such as increase / decrease of paint are represented by different colors as road information.

このようにして検出された変化点は、蓄積データ記憶部170に蓄積される。また、変化点の位置は、外部のシステムである更新情報活用システム2に提供される。更新情報活用システム2では、変化点を地図上にプロットしたり、リストを生成し、変化点すなわち道路が更新されたことを意味する道路更新情報を管理したりする。また、道路更新情報を期間別に比較できるようにして、どの期間に新しい道路が開通したかを確認できるようにしてもよい。 The change points detected in this way are accumulated in the accumulated data storage unit 170. Further, the position of the change point is provided to the update information utilization system 2 which is an external system. In the update information utilization system 2, the change points are plotted on a map, a list is generated, and the change points, that is, the road update information indicating that the road has been updated is managed. In addition, the road update information may be compared by period so that it can be confirmed in which period the new road was opened.

[実施形態の効果]
以上、説明したように、道路地図情報更新システム100は、カメラ110が撮像した前方画像180を俯瞰画像に変換する。俯瞰画像に変換することで、車両1からの距離によらず、道路幅が、実際の道路と同様に一定幅の画像になる。また、俯瞰画像に変換することで、建物、樹木など、路面ではない場所に存在している種々の物体を除去することができる。
[Effect of Embodiment]
As described above, the road map information updating system 100 converts the front image 180 captured by the camera 110 into a bird's-eye view image. By converting to a bird's-eye view image, the road width becomes an image having a constant width like an actual road regardless of the distance from the vehicle 1. Further, by converting to a bird's-eye view image, it is possible to remove various objects existing on a place other than the road surface, such as a building and a tree.

この俯瞰画像から生成した白線強度画像を、高精度地図151の一部である路面地図と照合する画像として用いるので、カメラ110の解像度が低くても、精度よく変化点を検出することができる。 Since the white line intensity image generated from this bird's-eye view image is used as an image to be collated with the road surface map which is a part of the high-precision map 151, the change point can be detected accurately even if the resolution of the camera 110 is low.

また、本実施形態では、S7の処理を実行することで俯瞰画像から障害物を除去している。これにより、より精度よく変化点を検出することができる。 Further, in the present embodiment, the obstacle is removed from the bird's-eye view image by executing the process of S7. As a result, the change point can be detected more accurately.

また、本実施形態では、マッチング処理での相関値が最も高くなる白線強度画像の位置を、そのままマッチング位置とはせずに、車両位置検出部161が計測した現在位置に基づいて定まるスコアリングマップで相関値を補正している。これにより、より変化点の検出精度が向上する。 Further, in the present embodiment, the position of the white line intensity image having the highest correlation value in the matching process is not used as the matching position as it is, but is determined based on the current position measured by the vehicle position detection unit 161. The correlation value is corrected with. As a result, the detection accuracy of the change point is further improved.

<第2実施形態>
次に、第2実施形態を説明する。この第2実施形態以下の説明において、それまでに使用した符号と同一番号の符号を有する要素は、特に言及する場合を除き、それ以前の実施形態における同一符号の要素と同一である。また、構成の一部のみを説明している場合、構成の他の部分については先に説明した実施形態を適用できる。
<Second Embodiment>
Next, the second embodiment will be described. In the following description of the second embodiment, the elements having the same number as the codes used so far are the same as the elements having the same code in the previous embodiments, unless otherwise specified. Further, when only a part of the configuration is described, the embodiment described above can be applied to the other parts of the configuration.

図24に、第2実施形態の道路地図情報更新システム200の構成を示す。第2実施形態の道路地図情報更新システム200は、演算部260が地図生成部265を備えている点が、第1実施形態の道路地図情報更新システム100と相違する。また、蓄積データ記憶部170には、生成地図画像171が記憶されている。生成地図画像171は、俯瞰画像を合成した地図である。 FIG. 24 shows the configuration of the road map information updating system 200 of the second embodiment. The road map information update system 200 of the second embodiment is different from the road map information update system 100 of the first embodiment in that the calculation unit 260 includes the map generation unit 265. Further, the accumulated data storage unit 170 stores the generated map image 171. The generated map image 171 is a map in which a bird's-eye view image is combined.

地図生成部265は、照合処理部164が変化点を検出した場合に、変化点の情報を反映した地図を生成する。地図生成部265の詳しい処理は図25を用いて説明する。 When the collation processing unit 164 detects a change point, the map generation unit 265 generates a map that reflects the information of the change point. The detailed processing of the map generation unit 265 will be described with reference to FIG.

図25において、S31では、重ね合わせ用の俯瞰画像を抽出する。具体的には、画像処理部162で生成した照合処理用の俯瞰画像から、S13で抽出した白線強度画像の照合領域に対応した領域を抽出する。図26に、画像処理部162で生成した照合処理用の俯瞰画像を示し、図27に、S31で抽出する重ね合わせ用の俯瞰画像を示す。なお、抽出した俯瞰画像に路面情報以外の物体が写っている箇所は使用領域から除く。S31で抽出する画像が地図画像である。 In FIG. 25, in S31, a bird's-eye view image for superposition is extracted. Specifically, a region corresponding to the collation region of the white line intensity image extracted in S13 is extracted from the bird's-eye view image for collation processing generated by the image processing unit 162. FIG. 26 shows a bird's-eye view image for collation processing generated by the image processing unit 162, and FIG. 27 shows a bird's-eye view image for superposition extracted in S31. In addition, the part where the extracted bird's-eye view image shows an object other than the road surface information is excluded from the used area. The image extracted in S31 is a map image.

S32では、生成地図画像171に対して、S31で抽出した俯瞰画像を追加する位置を決定する。この位置は、S23で決定したマッチング位置である。 In S32, the position to add the bird's-eye view image extracted in S31 is determined with respect to the generated map image 171. This position is the matching position determined in S23.

S33では、S32で決定した追加位置のうち、すでに生成地図画像171に画像が存在している部分について平均化画像を生成する。平均化画像は、すでにある画像と、今回追加する画像とを平均化した画像である。平均化することで、車両1の影等の路面以外の物体により生じる一時的な変化の影響を低減することができる。 In S33, an averaged image is generated for the portion of the additional position determined in S32 where the image already exists in the generated map image 171. The averaged image is an image obtained by averaging an existing image and an image to be added this time. By averaging, it is possible to reduce the influence of temporary changes caused by objects other than the road surface such as the shadow of the vehicle 1.

また、平均化の際、図27にも示すように、カメラ110に近い側ほどウェイトを高くして、すでに存在している画像と平均化処理を行う。俯瞰画像の特性上、カメラ110に近いほど画像の解像度が高いからである。 Further, at the time of averaging, as shown in FIG. 27, the weight is increased toward the side closer to the camera 110, and the averaging process is performed with the image that already exists. This is because, due to the characteristics of the bird's-eye view image, the closer to the camera 110, the higher the resolution of the image.

S34では、画像の重ね合わせを行い、生成地図画像171を更新する。重ね合わせの際、すでに生成地図画像171に画像が存在している部分については、S33で生成した平均化画像を、生成地図画像171に重ね合わせる。まだ生成地図画像171に画像が存在していない部分については、S31で抽出した俯瞰画像をそのまま生成地図画像171に重ね合わせる。 In S34, the images are superimposed and the generated map image 171 is updated. At the time of superimposition, the averaged image generated in S33 is superposed on the generated map image 171 for the portion where the image already exists in the generated map image 171. For the portion where the image does not yet exist in the generated map image 171, the bird's-eye view image extracted in S31 is superimposed on the generated map image 171 as it is.

このようにして逐次更新する生成地図画像171は、変化点の画像を含むので、変化点における変化を画像により認識できる。そのため、計測台車を走行させることなく変化点を認識できるので、高精度地図151の更新コストを低減できる。また、更新内容を、一時的な情報として自動運転など車両制御に利用することもできる。 Since the generated map image 171 that is sequentially updated in this way includes an image of the change point, the change at the change point can be recognized by the image. Therefore, since the change point can be recognized without running the measurement trolley, the update cost of the high-precision map 151 can be reduced. In addition, the updated contents can be used as temporary information for vehicle control such as automatic driving.

<第3実施形態>
第3実施形態では、画像処理部162は図28に示す処理を実行する。図28に示す処理は、図2に示す処理に対して、S4とS5の間にS4Aが追加されている。また、S5に代えてS5Aを実行する。
<Third Embodiment>
In the third embodiment, the image processing unit 162 executes the process shown in FIG. 28. In the process shown in FIG. 28, S4A is added between S4 and S5 with respect to the process shown in FIG. Also, S5A is executed instead of S5.

S4Aでは、補正後前方画像181のピッチ変動量を算出する。S4Aの詳細処理は図29に示す。図29において、S41では、消失点領域画像386を決定する。図30、図31に例示しているように、消失点領域画像386は、補正後前方画像181において消失点を基準として定まる領域の画像である。図30および図31に示している消失点領域画像386は、消失点183(図11参照)を中心とし、1対の短辺が垂直、1対の長辺が水平な横長の矩形領域である。 In S4A, the amount of pitch fluctuation of the corrected front image 181 is calculated. The detailed processing of S4A is shown in FIG. In FIG. 29, in S41, the vanishing point region image 386 is determined. As illustrated in FIGS. 30 and 31, the vanishing point region image 386 is an image of a region determined with reference to the vanishing point in the corrected front image 181. The vanishing point region image 386 shown in FIGS. 30 and 31 is a horizontally long rectangular region centered on the vanishing point 183 (see FIG. 11), in which a pair of short sides is vertical and a pair of long sides are horizontal. ..

S42では、前回のフレームで得た消失点領域画像386、すなわち前回の図28の実行において決定した消失点領域画像386と、このS42の直前に実行したS41で得た消失点領域画像386とをマッチングさせるマッチング処理を行う。図30は前回のフレームで得た消失点領域画像386であり、図31は今回のフレームで得た消失点領域画像386である。マッチング処理では、前回のフレームで得た消失点領域画像386を基準として、今回のフレームで得た消失点領域画像386を移動させて、2つの消失点領域画像386が最も一致するように今回のフレームで得た消失点領域画像386を移動させる。 In S42, the vanishing point region image 386 obtained in the previous frame, that is, the vanishing point region image 386 determined in the previous execution of FIG. 28, and the vanishing point region image 386 obtained in S41 executed immediately before this S42 are displayed. Performs matching processing to match. FIG. 30 is a vanishing point region image 386 obtained in the previous frame, and FIG. 31 is a vanishing point region image 386 obtained in the current frame. In the matching process, the vanishing point area image 386 obtained in the current frame is moved based on the vanishing point area image 386 obtained in the previous frame so that the two vanishing point area images 386 match most this time. The vanishing point region image 386 obtained in the frame is moved.

S43では、今回のフレームで得た消失点領域画像386のS42における移動量を算出する。この移動量は、1フレームの間に車両1に生じたピッチ変動を意味する値として利用する。ここまでのS41〜S43が移動量算出部に相当する。 In S43, the amount of movement of the vanishing point region image 386 obtained in this frame in S42 is calculated. This movement amount is used as a value meaning the pitch fluctuation generated in the vehicle 1 during one frame. S41 to S43 up to this point correspond to the movement amount calculation unit.

S44では、前方画像180が入力される毎に繰り返し実行する図28、図29の処理において逐次S43で算出した移動量を積分する。以下、積分した値を位置ずれ積分値とする。この位置ずれ積分値は、ピッチ変動による消失点領域画像386の位置ずれと、ピッチ変動以外の静的な理由による消失点領域画像386の位置の変化を含む。ピッチ変動以外の静的な理由は、たとえば、車両1が上り坂を走行していることによるカメラ光軸の変化である。このS44が積分値算出部に相当する。 In S44, the movement amount calculated in S43 in the processing of FIGS. 28 and 29, which is repeatedly executed each time the front image 180 is input, is integrated. Hereinafter, the integrated value will be referred to as a positional deviation integrated value. This position deviation integrated value includes the position shift of the vanishing point region image 386 due to the pitch fluctuation and the position change of the vanishing point region image 386 due to a static reason other than the pitch fluctuation. The static reason other than the pitch fluctuation is, for example, a change in the camera optical axis due to the vehicle 1 traveling uphill. This S44 corresponds to the integral value calculation unit.

S45では、S44で算出した位置ずれ積分値の移動平均値を算出する。移動平均する区間は予め設定されている。移動平均値は、車両の静止状態での消失点領域画像386の位置を示すものとして用いる。位置ずれ積分値には、ピッチ変動以外の静的な理由に起因した値の変化も含まれている。移動平均値は、この静的な理由に起因する値を算出するものであり、移動平均区間は、この静的な理由に起因する値を算出できる区間に設定される。 In S45, the moving average value of the position deviation integrated value calculated in S44 is calculated. The section for moving average is set in advance. The moving average value is used to indicate the position of the vanishing point region image 386 in the stationary state of the vehicle. The misalignment integral value also includes changes in the value due to static reasons other than pitch fluctuation. The moving average value calculates the value due to this static reason, and the moving average interval is set to the interval in which the value due to this static reason can be calculated.

S46では、S44で算出した位置ずれ積分値と、S45で算出した移動平均値との差を算出する。この差をピッチ変動量δyとする。ピッチ変動量δyを、位置ずれ積分値−移動平均値とするか、移動平均値−位置ずれ積分値とするかは、予め定められていれば、いずれでもよい。S45、S46がピッチ変動量算出部に相当する。図32には、位置ずれ積分値、移動平均値、ピッチ変動量δyを示している。 In S46, the difference between the position deviation integrated value calculated in S44 and the moving average value calculated in S45 is calculated. This difference is defined as the pitch fluctuation amount δy. Whether the pitch fluctuation amount δy is the position deviation integrated value-moving average value or the moving average value-position deviation integrated value may be set as long as it is predetermined. S45 and S46 correspond to the pitch fluctuation amount calculation unit. FIG. 32 shows the position deviation integrated value, the moving average value, and the pitch fluctuation amount δy.

S46を実行後は、図28のS5Aに進む。S5Aではカメラ110の向きを検出する。カメラ110の向きは、第1実施形態で説明したように、具体的には、ヨー角rxとチルト角ryである。ヨー角rxは、第1実施形態で説明した式4から求める。チルト角ryは、式10から求める。式10に示すように、ヨー角rxは、画像中心184と消失点183とのy方向の距離Δyと、ピッチ変動量δyから算出する。
After executing S46, the process proceeds to S5A in FIG. 28. In S5A, the orientation of the camera 110 is detected. Specifically, the orientation of the camera 110 is a yaw angle rx and a tilt angle ry, as described in the first embodiment. The yaw angle rx is obtained from the formula 4 described in the first embodiment. The tilt angle ry is obtained from Equation 10. As shown in Equation 10, the yaw angle rx is calculated from the distance Δy between the image center 184 and the vanishing point 183 in the y direction and the pitch fluctuation amount δy.

S5Aを実行した後の処理は第1実施形態と同じである。S6〜S9までを実行して、照合処理用の俯瞰画像と現在位置とを照合領域特定部163に出力する。 The process after executing S5A is the same as that of the first embodiment. S6 to S9 are executed, and the bird's-eye view image for collation processing and the current position are output to the collation area specifying unit 163.

[ピッチ補正の効果]
図33にピッチ補正をしていない俯瞰画像を示し、図34にピッチ補正をした俯瞰画像を示している。ピッチ補正をした俯瞰画像が図28を実行して得られた俯瞰画像である。ピッチ補正をしていない俯瞰画像では下側から上側に向かうに従い、白線の間隔が広がっている。一方、ピッチ補正をした俯瞰画像では、白線の間隔は、ほぼ平行になっている。
[Effect of pitch correction]
FIG. 33 shows a bird's-eye view image without pitch correction, and FIG. 34 shows a bird's-eye view image with pitch correction. The pitch-corrected bird's-eye view image is the bird's-eye view image obtained by executing FIG. 28. In the bird's-eye view image without pitch correction, the white line spacing increases from the bottom to the top. On the other hand, in the pitch-corrected bird's-eye view image, the intervals between the white lines are almost parallel.

このようにピッチ補正をすることで、俯瞰画像内での白線の間隔を平行に近づけることができる。したがって、この俯瞰画像に基づいて行うその後の処理の精度が向上する。 By performing pitch correction in this way, the intervals between the white lines in the bird's-eye view image can be made close to parallel. Therefore, the accuracy of the subsequent processing performed based on this bird's-eye view image is improved.

<第4実施形態>
次に第4実施形態を説明する。第1実施形態では、照合処理部164は、1フレームごとにマッチング位置を別々に決定していた。これに対して、第4実施形態では、最終的には1フレームごとにマッチング位置を決定するが、その前処理として、複数フレームを結合させた画像に対してマッチング位置を決定する。その後、順次、マッチング位置を決定する画像を小さくする。以下、詳しく説明する。
<Fourth Embodiment>
Next, a fourth embodiment will be described. In the first embodiment, the collation processing unit 164 separately determines the matching position for each frame. On the other hand, in the fourth embodiment, the matching position is finally determined for each frame, but as a preprocessing thereof, the matching position is determined for the image in which a plurality of frames are combined. After that, the images for which the matching position is determined are sequentially made smaller. The details will be described below.

第4実施形態では、上述したように、複数フレームを結合させた画像に対してマッチング位置を決定する。したがって、画像処理部162は、複数フレーム分の前方画像180が入力された場合に処理を実行する。第4実施形態において画像処理部162が実行する処理の内容は、処理対象とする前方画像180が複数フレーム分である以外は、これまでの実施形態と同じである。 In the fourth embodiment, as described above, the matching position is determined with respect to the image in which a plurality of frames are combined. Therefore, the image processing unit 162 executes the process when the front image 180 for a plurality of frames is input. The content of the processing executed by the image processing unit 162 in the fourth embodiment is the same as that of the previous embodiments except that the front image 180 to be processed is for a plurality of frames.

複数フレームの数は、適宜設定することができる。たとえば、ドライブレコーダーにおいて1イベントで録画された総フレームとすることができる。 The number of multiple frames can be set as appropriate. For example, it can be a total frame recorded in one event in a drive recorder.

照合領域特定部163は、画像処理部162が生成した照合処理用の俯瞰画像の全部に対して照合処理領域を特定する。第4実施形態において照合処理部164が実行する処理の内容は、処理対象とする俯瞰画像が複数フレームである以外は、これまでの実施形態と同じである。 The collation area specifying unit 163 specifies a collation processing area for all of the bird's-eye view images for collation processing generated by the image processing unit 162. The content of the processing executed by the collation processing unit 164 in the fourth embodiment is the same as that of the previous embodiments except that the bird's-eye view image to be processed is a plurality of frames.

第4実施形態では、照合処理部164は図35に示す処理を実行する。照合処理部164は、照合領域特定部163が照合領域を特定した場合に、図35に示す処理を実行する。 In the fourth embodiment, the collation processing unit 164 executes the process shown in FIG. 35. The collation processing unit 164 executes the process shown in FIG. 35 when the collation area identification unit 163 specifies the collation area.

S51では、最初の照合領域401(図36参照)を決定する。最初の照合領域401は、複数フレーム分の白線強度画像の照合領域を結合させて得られる領域である。図36に示した最初の照合領域401は、ドライブレコーダーの1イベント分の画像データに含まれる全部のフレームからそれぞれ決定した白線強度画像の照合領域を結合させて得られる領域である。 In S51, the first collation area 401 (see FIG. 36) is determined. The first collation area 401 is an area obtained by combining the collation areas of white line intensity images for a plurality of frames. The first collation area 401 shown in FIG. 36 is an area obtained by combining the collation areas of the white line intensity images determined from all the frames included in the image data for one event of the drive recorder.

S52では、S51で決定した最初の照合領域401に基づいて定まる、高精度地図のマッチング対象領域に対して、図18のS21と同じ処理を行う。照合領域特定部163は、図14のS14で説明したように、照合領域をもとにして高精度地図151の路面地図からマッチング対象領域を決定している。つまり、照合領域特定部163が1フレーム分の照合領域に対する路面地図のマッチング対象領域を決定している。したがって、このS52では、照合領域特定部163が決定した1フレーム分の照合領域に対する路面地図のマッチング対象領域を、S51で決定した最初の照合領域401に含まれる全フレーム分、足し合わせた領域に対して距離変換を行う。 In S52, the same processing as in S21 of FIG. 18 is performed on the matching target area of the high-precision map determined based on the first collation area 401 determined in S51. As described in S14 of FIG. 14, the collation area specifying unit 163 determines the matching target area from the road surface map of the high-precision map 151 based on the collation area. That is, the matching area specifying unit 163 determines the matching target area of the road surface map with respect to the matching area for one frame. Therefore, in this S52, the matching target area of the road surface map for one frame of the matching area determined by the matching area specifying unit 163 is added to the total of all the frames included in the first matching area 401 determined in S51. On the other hand, distance conversion is performed.

S53では、S51で決定した最初の照合領域401に含まれる全部の白線強度画像の照合領域を重ね合わせる。重ね合わせる処理は、第2実施形態で説明した地図生成部265と同じ処理である。 In S53, the collation areas of all the white line intensity images included in the first collation area 401 determined in S51 are overlapped. The overlay process is the same process as the map generation unit 265 described in the second embodiment.

S54では、照合領域に対してマッチング処理を行い、相関値マップを作成する。照合領域は、S51〜S53を実行した後の初回のS54の実行であれば、S51で決定した最初の照合領域401である。その後の照合領域は、後述するS59が実行されて決定される。S54の処理は、領域が異なる以外は、図18のS22の処理と同じである。したがって、S54は相関値マップ作成部に相当する。 In S54, a matching process is performed on the collation area to create a correlation value map. The collation area is the first collation area 401 determined in S51 if the first execution of S54 is performed after the executions of S51 to S53. Subsequent collation areas are determined by executing S59, which will be described later. The processing of S54 is the same as the processing of S22 of FIG. 18 except that the regions are different. Therefore, S54 corresponds to the correlation value map creation unit.

S55では、スコアリングおよびマッチング位置の決定を行う。このS55の処理は、図18のS23と同じである。したがって、S55はマッチング位置決定部に相当する。 In S55, scoring and matching position determination are performed. The processing of S55 is the same as that of S23 in FIG. Therefore, S55 corresponds to the matching position determining unit.

S56では、全部の照合領域のマッチング位置の決定が終了したか否かを判断する。最初の照合領域401は1つであるが、後述するS59を実行することで、1つの照合領域から複数の部分領域が決定される。そして、各部分領域が次の照合領域になる。したがって、照合領域が複数存在することがある。照合領域が複数存在している場合、順次、マッチング位置を決定することになる。そこで、このS56では、全部の照合領域に対するマッチング位置の決定が終了したか否かを判断する。 In S56, it is determined whether or not the determination of the matching position of all the collation areas is completed. Although the first collation area 401 is one, a plurality of partial areas are determined from one collation area by executing S59 described later. Then, each subregion becomes the next collation region. Therefore, there may be a plurality of collation areas. When a plurality of collation areas exist, the matching position is determined in sequence. Therefore, in this S56, it is determined whether or not the determination of the matching position for all the collation areas is completed.

S56の判断がNOである場合には、S57において、マッチング位置を決定する照合領域を、まだマッチング位置を決定していない照合領域に変更する。その後、S54、S55を実行して、マッチング位置を決定する。 If the determination in S56 is NO, in S57, the collation area for determining the matching position is changed to a collation area for which the matching position has not yet been determined. After that, S54 and S55 are executed to determine the matching position.

S56の判断がYESであればS58に進む。S58では、マッチング位置を決定した照合領域が1フレーム分であるか否かを判断する。1フレームは最終フレーム数に相当している。本実施形態では、最終フレーム数を1フレームとしているが、それよりも多いフレーム数(たとえば2フレーム)を最終フレーム数とすることもできる。S58の判断がNOであればS59に進む。 If the determination in S56 is YES, the process proceeds to S58. In S58, it is determined whether or not the collation area for which the matching position is determined is for one frame. One frame corresponds to the final number of frames. In the present embodiment, the final number of frames is one frame, but a larger number of frames (for example, two frames) can be set as the final number of frames. If the determination in S58 is NO, the process proceeds to S59.

S59では、各照合領域を分割して部分領域を作成する。図36には、最初の照合領域401と、部分領域402a、402b、402c、402d、402eが示されている。また、図36には、高精度地図151の路面地図も示されている。部分領域402a、402b、402c、402d、402eを区別しないときは、部分領域402と記載する。部分領域402は、2回目の照合領域になる部分である。 In S59, each collation area is divided to create a partial area. FIG. 36 shows the first collation region 401 and the partial regions 402a, 402b, 402c, 402d, 402e. In addition, FIG. 36 also shows a road surface map of the high-precision map 151. When the partial regions 402a, 402b, 402c, 402d, and 402e are not distinguished, it is described as the partial region 402. The partial area 402 is a part that becomes the second collation area.

部分領域402は、最初の照合領域401に含まれる領域であって、最初の照合領域401の一部の領域である。また、部分領域402は、最初の照合領域401から区画線である可能性がある部分を含む範囲である。区画線である可能性は、たとえば、エッジ強度の変化から決定する。 The partial area 402 is an area included in the first collation area 401 and is a part of the first collation area 401. Further, the partial area 402 is a range including a portion that may be a lane marking from the first collation area 401. The possibility of a lane marking is determined from, for example, a change in edge strength.

最初の照合領域401に対する部分領域402の大きさは、たとえば、半分あるいはそれ以上である。最初の照合領域401に対して部分領域402が小さすぎると、少しずつ位置合わせをすることで誤ったマッチング位置を決定してしまうことを抑制する効果が得られにくくなるからである。部分領域402の数は、1または複数であり、任意に設定できる。ただし、複数に設定することが好ましい。図36の例では、部分領域402の数は5である。 The size of the partial region 402 with respect to the initial collation region 401 is, for example, half or more. This is because if the partial region 402 is too small with respect to the initial collation region 401, it becomes difficult to obtain the effect of suppressing the determination of an erroneous matching position by adjusting the alignment little by little. The number of subregions 402 is one or more, and can be set arbitrarily. However, it is preferable to set a plurality. In the example of FIG. 36, the number of partial regions 402 is 5.

また、部分領域402の数を複数に設定している場合、それぞれの部分領域402は、互いに一部が重なるようにすることが好ましい。ある部分領域402の一部が他の部分領域402の一部にもなっていると、部分領域402に対するマッチング位置が誤った位置になってしまうことを抑制できるからである。 Further, when the number of the partial regions 402 is set to a plurality, it is preferable that the partial regions 402 partially overlap each other. This is because if a part of a certain partial region 402 is also a part of another partial region 402, it is possible to prevent the matching position with respect to the partial region 402 from becoming an erroneous position.

作成した部分領域は次の照合領域となる。次の照合領域を決定した後、S54以下を実行する。2回目以降のS55の実行においては、マッチング対象領域は、直前のS59で部分領域を作成する対象とした照合領域である。S54〜S59を実行することで、照合領域が1フレームになるまで、照合領域を順次小さくしつつ、照合領域のマッチング位置を決定する。 The created partial area becomes the next collation area. After determining the next collation area, S54 and below are executed. In the second and subsequent executions of S55, the matching target area is the matching area for which the partial area is created in the immediately preceding S59. By executing S54 to S59, the matching position of the collation area is determined while sequentially reducing the collation area until the collation area becomes one frame.

図37には、1回目の部分領域402aから作成した2回目の部分領域403a、403b、403c、403d、403eを例示している。部分領域403a、403b、403c、403d、403eを区別しないときは、部分領域403と記載する。部分領域403は、3回目の照合領域になる部分である。 FIG. 37 illustrates the second partial regions 403a, 403b, 403c, 403d, 403e created from the first partial region 402a. When the partial regions 403a, 403b, 403c, 403d, and 403e are not distinguished, they are described as the partial region 403. The partial area 403 is a part that becomes the third collation area.

部分領域403a、403b、403c、403d、403eは、部分領域402aの一部の領域である。また、各部分領域403a、403b、403c、403d、403eは区画線である可能性がある部分を含む範囲である。なお、区画線である可能性がある部分が、部分領域403を決定しようとしている照合領域の縁部付近にある場合、部分領域403の一部が照合領域の外に位置するように、部分領域403を決定してもよい。つまり、照合領域から決定する部分領域は、その一部が照合領域の外に位置していてもよい。区画線が縁部よりも中央寄りに位置するようにすることで、部分領域403の縁部に区画線が位置している場合と比較して、マッチング位置の精度が向上するからである。なお、図37を例にして、部分領域403a、403b、403c、403d、403eに対するマッチング対象領域は、部分領域402aになる。 The partial regions 403a, 403b, 403c, 403d, and 403e are partial regions of the partial region 402a. Further, each partial region 403a, 403b, 403c, 403d, 403e is a range including a portion that may be a lane marking. When the portion that may be a lane marking is near the edge of the collation area for which the partial area 403 is to be determined, the partial area is such that a part of the partial area 403 is located outside the collation area. 403 may be determined. That is, a part of the partial area determined from the collation area may be located outside the collation area. This is because the accuracy of the matching position is improved by setting the lane marking line closer to the center than the edge portion as compared with the case where the lane marking line is located at the edge portion of the partial region 403. Taking FIG. 37 as an example, the matching target region for the partial regions 403a, 403b, 403c, 403d, and 403e is the partial region 402a.

2回目の部分領域403は、1回目の部分領域402と同様、5つ作成されており、互いに一部が重複するように作成されている。3回目以降の部分領域(すなわち4回目以降の照合領域)の作成も、1回目、2回目の部分領域402、403と同様にして作成する。 Like the first partial region 402, the second partial region 403 is created in five, and is created so as to partially overlap each other. The third and subsequent partial regions (that is, the fourth and subsequent collation regions) are also created in the same manner as the first and second partial regions 402 and 403.

S59で複数の照合領域が作成され、かつ、照合領域の一部が互いに重複している場合、重複領域については、その重複領域を持つ複数の照合領域から、それぞれマッチング位置が得られる。つまり、重複領域については、複数のマッチング位置が得られる。重複領域の位置は、複数のマッチング位置を平均するなど、複数のマッチング位置を両方とも考慮して決定する。照合領域のうち重複領域以外の領域も、重複領域の位置に合わせて、位置を決定する。このように重複領域の位置を、複数の照合領域のマッチング位置を考慮して決定することで、重複領域がないように照合領域を決定する場合に比較して、照合領域のマッチング位置を誤った位置に決定してしまうことを抑制できる。 When a plurality of collation areas are created in S59 and some of the collation areas overlap with each other, matching positions are obtained from each of the plurality of collation areas having the overlap areas. That is, a plurality of matching positions can be obtained for the overlapping area. The position of the overlapping region is determined by considering both of the plurality of matching positions, such as averaging a plurality of matching positions. The positions of the collation areas other than the overlapping area are also determined according to the positions of the overlapping areas. By determining the position of the overlapping area in consideration of the matching positions of the plurality of matching areas in this way, the matching position of the matching area is erroneous as compared with the case where the matching area is determined so that there is no overlapping area. It is possible to suppress the determination of the position.

照合領域が1フレーム分になると、S58の判断がYESになりS60に進む。S60では、変化点を抽出する。S60の処理は図18のS24と同じである。 When the collation area becomes one frame, the determination in S58 becomes YES and the process proceeds to S60. In S60, the change point is extracted. The processing of S60 is the same as that of S24 of FIG.

第4実施形態の照合処理部164は、上述したように、大きな照合領域でマッチング位置を決定し、順次、その照合領域を小さくしつつマッチング位置を決定する。これにより、小さい領域では、ある照合領域の画像に類似する画像がその照合領域の本来の位置とは異なる位置にも存在していたとしても、マッチング位置を誤った位置に決定してしまうことが抑制できる。 As described above, the collation processing unit 164 of the fourth embodiment determines the matching position in a large collation area, and sequentially determines the matching position while reducing the collation area. As a result, in a small area, even if an image similar to the image in a certain collation area exists at a position different from the original position of the collation area, the matching position may be determined at an erroneous position. Can be suppressed.

以上、本実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、次の変形例も開示範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施できる。 Although the present embodiment has been described above, the present disclosure is not limited to the above-described embodiment, the following modifications are also included in the scope of disclosure, and various other than the following, as long as the gist is not deviated. Can be changed and implemented.

<変形例1>
第2実施形態の地図生成部265が行う処理の一部を、車両1の外部にあるセンタが行ってもよい。この場合には、S31で抽出した画像をセンタへ送信する。そして、センタで、S32以降の処理を行う。
<Modification example 1>
A center outside the vehicle 1 may perform a part of the processing performed by the map generation unit 265 of the second embodiment. In this case, the image extracted in S31 is transmitted to the center. Then, at the center, the processing after S32 is performed.

<変形例2>
第2実施形態の生成地図画像171は、照合処理用の俯瞰画像を、生成地図画像171を生成する画像としていた。しかし、生成地図画像171を生成する画像として白線強度画像を用いてもよい。
<Modification 2>
In the generated map image 171 of the second embodiment, the bird's-eye view image for collation processing is used as an image for generating the generated map image 171. However, a white line intensity image may be used as the image for generating the generated map image 171.

<変形例3>
画像処理部162、照合領域特定部163、照合処理部164の機能をセンタが備え、車両1は、前方画像180と、車両位置検出部161が検出した車両1の現在位置を、逐次センタに送信するようにしてもよい。また、画像処理部162の処理までを車両1で行い、照合領域特定部163および照合処理部164の処理をセンタで行ってもよい。また、照合領域特定部163の処理までを車両1で行い、照合処理部164の処理をセンタで行ってもよい。これらの場合には、車両1は、センタと通信するための通信部を備える。
<Modification example 3>
The center has the functions of the image processing unit 162, the collation area identification unit 163, and the collation processing unit 164, and the vehicle 1 sequentially transmits the front image 180 and the current position of the vehicle 1 detected by the vehicle position detection unit 161 to the center. You may try to do it. Further, the processing of the image processing unit 162 may be performed by the vehicle 1, and the processing of the collation area specifying unit 163 and the collation processing unit 164 may be performed by the center. Further, the vehicle 1 may perform the processing up to the collation area specifying unit 163, and the collation processing unit 164 may perform the processing at the center. In these cases, the vehicle 1 includes a communication unit for communicating with the center.

なお、照合領域特定部163の処理を車両1で行う場合、センタは車両1へ、処理を行うエリアを指定することもできる。そして、指定したエリアについての高精度地図151のみを車両1へ送信してもよい。これにより、車両1は、高精度地図151を記憶するための容量および通信量を削減でき、また、センタも処理負荷を軽減できる。 When the processing of the collation area specifying unit 163 is performed by the vehicle 1, the center can also specify the area to be processed to the vehicle 1. Then, only the high-precision map 151 for the designated area may be transmitted to the vehicle 1. As a result, the vehicle 1 can reduce the capacity and the amount of communication for storing the high-precision map 151, and the center can also reduce the processing load.

<変形例4>
カメラ110として、車両の後方を撮像するカメラを用いてもよい。
<Modification example 4>
As the camera 110, a camera that images the rear of the vehicle may be used.

1:車両 2:更新情報活用システム 100:道路地図情報更新システム 110:カメラ 120:パラメータ記憶部 130:GPS受信機 140:挙動検出センサ 150:地図記憶部 151:高精度地図 160:演算部 161:車両位置検出部 162:画像処理部 163:照合領域特定部 164:照合処理部 170:蓄積データ記憶部 171:生成地図画像 180:前方画像 181:補正後前方画像 182:区画線 183:消失点 184:画像中心 185:ディストーション補正画像 200:道路地図情報更新システム 260:演算部 265:地図生成部 386:消失点領域画像 401:最初の照合領域 402:部分領域 S2:歪補正処理部 S4:消失点検出部 S5:カメラ向き検出部 S6 俯瞰変換部、 S7 障害物除去処理部 S22、S54:相関値マップ作成部 S23、S55:マッチング位置決定部 S41、S42、S43:移動量算出部 S44:積分値算出部 S45、S46:ピッチ変動量算出部 δy:ピッチ変動量 1: Vehicle 2: Update information utilization system 100: Road map information update system 110: Camera 120: Parameter storage unit 130: GPS receiver 140: Behavior detection sensor 150: Map storage unit 151: High-precision map 160: Calculation unit 161: Vehicle position detection unit 162: Image processing unit 163: Matching area identification unit 164: Matching processing unit 170: Accumulated data storage unit 171: Generated map image 180: Front image 181: Corrected front image 182: Compartment line 183: Vanishing point 184 : Image center 185: Distortion correction image 200: Road map information update system 260: Calculation unit 265: Map generation unit 386: Disappearance point area image 401: First collation area 402: Partial area S2: Distortion correction processing unit S4: Disappearance inspection Output part S5: Camera orientation detection part S6 Bird's-eye view conversion part, S7 Obstacle removal processing part S22, S54: Correlation value map creation part S23, S55: Matching position determination part S41, S42, S43: Movement amount calculation part S44: Integrated value Calculation unit S45, S46: Pitch fluctuation amount calculation unit δy: Pitch fluctuation amount

Claims (8)

車両に備えられ、前記車両の周辺を撮像するカメラ(110)と、
前記カメラが撮像した画像を俯瞰画像に変換する俯瞰変換部(S6)と、
路面地図を含んだ道路地図(151)を記憶する地図記憶部(150)と、
前記俯瞰画像と前記路面地図とを照合して、前記路面地図に対して、実際の路面に変化が生じた位置である変化点が存在するか否かを決定する照合処理部(164)と、
前記俯瞰画像から検出できる道路区画線の本数に基づいて、前記俯瞰画像から照合に用いる車両幅方向の領域を決定する照合領域特定部(163)とを備える地図変化点検出装置。
A camera (110) provided in the vehicle that captures the surroundings of the vehicle,
A bird's-eye view conversion unit (S6) that converts an image captured by the camera into a bird's-eye view image, and
A map storage unit (150) that stores a road map (151) including a road surface map, and
A collation processing unit (164) that collates the bird's-eye view image with the road surface map to determine whether or not there is a change point at a position where the actual road surface has changed with respect to the road surface map.
A map change point detection device including a collation area specifying unit (163) that determines a region in the vehicle width direction used for collation from the bird's-eye view image based on the number of road marking lines that can be detected from the bird's-eye view image.
前記俯瞰画像に対して、前記路面地図に含まれている物体の色を指定し、指定した色以外は黒に変換することで、前記俯瞰画像に含まれている障害物を除去する障害物除去処理部(S7)を備え、
前記照合処理部は、前記障害物が除去された後の前記俯瞰画像と前記路面地図とを照合する請求項1に記載の地図変化点検出装置。
Obstacle removal that removes obstacles included in the bird's-eye view image by designating the color of the object included in the road surface map for the bird's-eye view image and converting the colors other than the specified color to black. Equipped with a processing unit (S7)
The map change point detection device according to claim 1, wherein the collation processing unit collates the bird's-eye view image after the obstacle is removed with the road surface map.
車両に備えられ、前記車両の周辺を撮像するカメラ(110)と、
前記カメラが撮像した画像を俯瞰画像に変換する俯瞰変換部(S6)と、
路面地図を含んだ道路地図(151)を記憶する地図記憶部(150)と、
前記俯瞰画像と前記路面地図とを照合して、前記路面地図に対して、実際の路面に変化が生じた位置である変化点が存在するか否かを決定する照合処理部(164)と、
前記俯瞰画像に対して、前記路面地図に含まれている物体の色を指定し、指定した色以外は黒に変換することで、前記俯瞰画像に含まれている障害物を除去する障害物除去処理部(S7)とを備え、
前記照合処理部は、前記障害物が除去された後の前記俯瞰画像と前記路面地図とを照合する地図変化点検出装置。
A camera (110) provided in the vehicle that captures the surroundings of the vehicle,
A bird's-eye view conversion unit (S6) that converts an image captured by the camera into a bird's-eye view image, and
A map storage unit (150) that stores a road map (151) including a road surface map, and
A collation processing unit (164) that collates the bird's-eye view image with the road surface map to determine whether or not there is a change point at a position where the actual road surface has changed with respect to the road surface map.
Obstacle removal that removes obstacles included in the bird's-eye view image by designating the color of the object included in the road surface map for the bird's-eye view image and converting the colors other than the specified color to black. Equipped with a processing unit (S7)
The collation processing unit is a map change point detection device that collates the bird's-eye view image after the obstacle is removed with the road surface map.
前記照合処理部は、前記路面地図を距離変換し、距離変換した後の前記路面地図を前記俯瞰画像と照合する請求項1または2に記載の地図変化点検出装置。 The map change point detection device according to claim 1 or 2, wherein the collation processing unit converts the distance of the road surface map and collates the road surface map after the distance conversion with the bird's-eye view image. 請求項1において、
前記照合領域特定部は、前記俯瞰画像から検出できる道路区画線の本数に基づいて、照合に用いる前記俯瞰画像から、照合に用いる領域である照合領域を抽出するとともに、前記路面地図から、現在位置を基準として定まる一定領域をマッチング対象領域に特定し、
前記照合処理部は、
前記路面地図の前記マッチング対象領域に対する、照合に用いる前記俯瞰画像の前記照合領域の相関値を、前記照合領域の位置を変化させつつ算出することで、前記マッチング対象領域に対する前記照合領域の相対位置と前記相関値との関係である相関値マップを作成する相関値マップ作成部(S22、S54)と、
現在位置が最も確からしさが高く前記現在位置から離れるほど係数が低くなるスコアリングマップと前記相関値マップとを掛け合わせて得られるスコアを、前記マッチング対象領域に対する前記照合領域の位置別に算出し、前記スコアが最も高い前記照合領域の位置をマッチング位置に決定するマッチング位置決定部(S23、S55)を備え、
前記照合領域の位置を前記マッチング位置として、照合用の前記俯瞰画像と前記路面地図の前記路面地図とを照合する地図変化点検出装置。
In claim 1,
The collation area specifying unit extracts a collation area, which is an area used for collation, from the bird's-eye view image used for collation based on the number of road marking lines that can be detected from the bird's-eye view image, and also extracts a collation area that is an area used for collation from the road surface map. Specify a certain area determined based on the above as the matching target area,
The collation processing unit
By calculating the correlation value of the matching area of the bird's-eye view image used for matching with respect to the matching target area of the road surface map while changing the position of the matching area, the relative position of the matching area with respect to the matching target area is calculated. And the correlation value map creation unit (S22, S54) that creates a correlation value map that is the relationship between the above and the correlation value.
A score obtained by multiplying the scoring map, which has the highest probability at the current position and the coefficient decreases as the distance from the current position increases, and the correlation value map is calculated for each position of the collation area with respect to the matching target area. A matching position determining unit (S23, S55) for determining the position of the matching region having the highest score as the matching position is provided.
A map change point detection device that collates the bird's-eye view image for collation with the road surface map of the road surface map, using the position of the collation region as the matching position.
請求項において、
前記照合処理部は、
前記カメラにより撮像された複数のフレームを合成して最初の照合領域(401)を生成し、
前記相関値マップ作成部(S54)による前記相関値マップの作成および前記マッチング位置決定部(S55)によるマッチング位置の決定を、前記最初の照合領域から開始し、
前記マッチング位置決定部による前記マッチング位置の決定後、1つの前記照合領域に含まれるフレーム数が最終フレーム数よりも大きい場合には、前記照合領域から部分領域(402)を決定し、
決定した前記部分領域を前記照合領域として、前記相関値マップ作成部による前記相関値マップの作成および前記マッチング位置決定部による前記マッチング位置の決定を、前記照合領域に含まれるフレーム数が前記最終フレーム数になるまで繰り返す地図変化点検出装置。
In claim 5 ,
The collation processing unit
A plurality of frames captured by the camera are combined to generate the first collation area (401).
The creation of the correlation value map by the correlation value map creation unit (S54) and the determination of the matching position by the matching position determination unit (S55) are started from the first collation area.
After the matching position is determined by the matching position determining unit, if the number of frames included in one matching area is larger than the final number of frames, a partial area (402) is determined from the matching area.
With the determined partial area as the collation area, the correlation value map creation unit creates the correlation value map and the matching position determination unit determines the matching position, and the number of frames included in the collation area is the final frame. A map change point detection device that repeats until the number is reached.
前記カメラが撮像した画像に対して、ディストーション補正およびボリューム歪補正を行う歪補正処理部(S2)と、
前記歪補正処理部により補正された後の画像から消失点を検出する消失点検出部(S4)と、
前記消失点検出部が検出した前記消失点と画像中心との位置の差に基づいて前記カメラの光軸の向きを検出するカメラ向き検出部(S5、S5A)とを備え、
前記俯瞰変換部は、前記カメラ向き検出部が検出した前記カメラの光軸の向きを、上方から下方に向かう変換をすることで、前記カメラが撮像した画像を前記俯瞰画像に変換する請求項1〜のいずれか1項に記載の地図変化点検出装置。
A distortion correction processing unit (S2) that performs distortion correction and volume distortion correction on the image captured by the camera, and
A vanishing point detection unit (S4) that detects a vanishing point from the image after correction by the distortion correction processing unit, and
A camera orientation detection unit (S5, S5A) that detects the direction of the optical axis of the camera based on the difference in position between the vanishing point and the image center detected by the vanishing point detection unit is provided.
The bird's-eye view conversion unit converts the image captured by the camera into the bird's-eye view image by converting the direction of the optical axis of the camera detected by the camera orientation detection unit from upward to downward. The map change point detection device according to any one of 5 to 5 .
請求項において、
前記歪補正処理部により補正された後の画像の一部であって、前記消失点検出部により検出された前記消失点に基づいて定まる領域の画像である消失点領域画像を逐次決定し、時間的に連続する2つの前記消失点領域画像をマッチングさせる際、2つの前記消失点領域画像のうち前の時間の前記消失点領域画像を基準として、後の時間の前記消失点領域画像を画像上下方向へ移動させる移動量を算出する移動量算出部(S41、S42、S43)と、
前記移動量算出部が算出した画像上下方向への移動量の積分値である位置ずれ積分値を算出する積分値算出部(S44)と、
前記積分値算出部が算出した前記位置ずれ積分値の移動平均値を逐次算出し、前記移動平均値と、前記移動量算出部が算出した前記移動量との差であるピッチ変動量(δy)を算出するピッチ変動量算出部(S45、S46)とを備え、
前記カメラ向き検出部(S5A)は、前記消失点検出部が検出した前記消失点と画像中心との位置の差と、前記ピッチ変動量とに基づいて、前記カメラの光軸の向きを検出する地図変化点検出装置
In claim 7 ,
A vanishing point region image, which is a part of the image corrected by the distortion correction processing unit and is an image of a region determined based on the vanishing point detected by the vanishing point detection unit, is sequentially determined and time is determined. When matching two consecutive vanishing point region images, the vanishing point region image of the later time is imaged above and below the image of the vanishing point region image of the previous time as a reference. A movement amount calculation unit (S41, S42, S43) that calculates a movement amount to be moved in a direction, and
An integral value calculation unit (S44) that calculates a position shift integral value that is an integral value of the movement amount in the vertical direction of the image calculated by the movement amount calculation unit, and
The moving average value of the positional deviation integrated value calculated by the integrated value calculation unit is sequentially calculated, and the pitch fluctuation amount (δy) which is the difference between the moving average value and the moving amount calculated by the moving amount calculating unit. With a pitch fluctuation amount calculation unit (S45, S46) for calculating
The camera orientation detection unit (S5A) detects the orientation of the optical axis of the camera based on the difference in position between the vanishing point and the image center detected by the vanishing point detection unit and the pitch fluctuation amount. Map vanishing point detector .
JP2018021191A 2017-06-09 2018-02-08 Map change point detector Active JP6822427B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/018296 WO2018225446A1 (en) 2017-06-09 2018-05-11 Map points-of-change detection device
US16/682,538 US11270131B2 (en) 2017-06-09 2019-11-13 Map points-of-change detection device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017114572 2017-06-09
JP2017114572 2017-06-09

Publications (3)

Publication Number Publication Date
JP2019003606A JP2019003606A (en) 2019-01-10
JP2019003606A5 JP2019003606A5 (en) 2019-05-30
JP6822427B2 true JP6822427B2 (en) 2021-01-27

Family

ID=65004889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018021191A Active JP6822427B2 (en) 2017-06-09 2018-02-08 Map change point detector

Country Status (1)

Country Link
JP (1) JP6822427B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7153889B2 (en) * 2019-03-01 2022-10-17 パナソニックIpマネジメント株式会社 Image correction device, image generation device, camera system and vehicle
KR20210076440A (en) * 2019-12-16 2021-06-24 삼성전자주식회사 Method and apparatus for regeneration and prediction of tree map
KR102327185B1 (en) 2019-12-24 2021-11-17 한국도로공사 Object change detection system for high definition map update and method thereof
JP7173062B2 (en) * 2020-01-23 2022-11-16 トヨタ自動車株式会社 Change point detection device and map information distribution system
CN111597987B (en) * 2020-05-15 2023-09-01 阿波罗智能技术(北京)有限公司 Method, apparatus, device and storage medium for generating information
JP7380443B2 (en) 2020-06-22 2023-11-15 トヨタ自動車株式会社 Partial image generation device and computer program for partial image generation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230834A (en) * 1999-02-10 2000-08-22 Daihatsu Motor Co Ltd Updating equipment of road map information and its control method
JP3496567B2 (en) * 1999-03-30 2004-02-16 トヨタ自動車株式会社 Photographed image matching device, map updating device, and map creating device
JP2009069900A (en) * 2007-09-10 2009-04-02 Denso Corp Vehicular navigation device
JP5193148B2 (en) * 2009-09-03 2013-05-08 本田技研工業株式会社 Vehicle imaging device
CN103547747A (en) * 2011-05-13 2014-01-29 日立建机株式会社 Device for monitoring area around working machine
JP6528515B2 (en) * 2015-04-02 2019-06-12 アイシン精機株式会社 Peripheral monitoring device

Also Published As

Publication number Publication date
JP2019003606A (en) 2019-01-10

Similar Documents

Publication Publication Date Title
WO2018225446A1 (en) Map points-of-change detection device
JP6822427B2 (en) Map change point detector
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
CN109086650B (en) Calibration method and calibration apparatus
JP5962771B2 (en) Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
KR101241651B1 (en) Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method
JP4433887B2 (en) Vehicle external recognition device
JP5966747B2 (en) Vehicle travel control apparatus and method
JP6560355B2 (en) Landmark recognition apparatus and recognition method
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
EP3032818B1 (en) Image processing device
EP3842751B1 (en) System and method of generating high-definition map based on camera
WO2016178335A1 (en) Lane detection apparatus and lane detection method
JP4761156B2 (en) Feature position recognition apparatus and feature position recognition method
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP5310027B2 (en) Lane recognition device and lane recognition method
JP2018147393A (en) Sign recognition system
JP5539250B2 (en) Approaching object detection device and approaching object detection method
KR102022402B1 (en) Calibration method and apparatus thereof
JP2017117105A (en) Visibility determination device
JP2012159470A (en) Vehicle image recognition device
US11403770B2 (en) Road surface area detection device
JP7380443B2 (en) Partial image generation device and computer program for partial image generation
JP6611334B2 (en) Lane marking recognition system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R151 Written notification of patent or utility model registration

Ref document number: 6822427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250