JP2019003606A - Map change point detection device - Google Patents

Map change point detection device Download PDF

Info

Publication number
JP2019003606A
JP2019003606A JP2018021191A JP2018021191A JP2019003606A JP 2019003606 A JP2019003606 A JP 2019003606A JP 2018021191 A JP2018021191 A JP 2018021191A JP 2018021191 A JP2018021191 A JP 2018021191A JP 2019003606 A JP2019003606 A JP 2019003606A
Authority
JP
Japan
Prior art keywords
image
map
area
unit
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018021191A
Other languages
Japanese (ja)
Other versions
JP6822427B2 (en
JP2019003606A5 (en
Inventor
舞子 杉江
Maiko Sugie
舞子 杉江
伊藤 靖之
Yasuyuki Ito
靖之 伊藤
弘之 北川
Hiroyuki Kitagawa
弘之 北川
悟 野村
Satoru Nomura
悟 野村
知晴 村手
Tomoharu MURATE
知晴 村手
美代 浜田
Miyo Hamada
美代 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to PCT/JP2018/018296 priority Critical patent/WO2018225446A1/en
Publication of JP2019003606A publication Critical patent/JP2019003606A/en
Publication of JP2019003606A5 publication Critical patent/JP2019003606A5/ja
Priority to US16/682,538 priority patent/US11270131B2/en
Application granted granted Critical
Publication of JP6822427B2 publication Critical patent/JP6822427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

To provide a map change point detection device which can accurately detect the change point even using a camera with the low resolution.SOLUTION: A map change point detection device includes: a camera 110 which images the periphery of a vehicle 1; an overhead view conversion unit which converts the image photographed by the camera 110 into an overhead view image; a map storage unit 150 which stores a highly accurate map 151 including a road surface map; and a collation processing unit 164 which decides whether or not the change point being position where the change occurs on the actual road surface exists with respect to the road surface map by collating the overhead view image with the road surface map. The map change point detection device can have the image in which the road width is the constant width like the actual road regardless of the distance from a vehicle 1 by converting the image photographed by the camera 110 into the overhead view image, remove various objects such as buildings and trees that exist in the place which is not the road surface, and accurately detect the change point by making the white line intensity image generated from the overhead view image the image to be collated with the road surface map being a portion of the highly accurate map 151.SELECTED DRAWING: Figure 1

Description

道路地図の変化点を検出する地図変化点検出装置に関する。   The present invention relates to a map change point detection device for detecting a change point of a road map.

計測台車を走行させて、高精度に白線位置を計測する技術が知られている。特許文献1に記載の計測台車は、オドメトリ装置、3台のGPS(Global Positioning System)、3台のジャイロセンサ、レーザレーダ、カメラ、計算機を備えている。計測台車により計測された白線位置は、高精度地図に用いられる。高精度地図には、白線などの道路標示が正確に描かれる。特許文献2は、トップビュー変換処理を開示した文献である。   A technique for measuring a white line position with high accuracy by running a measurement carriage is known. The measurement cart described in Patent Literature 1 includes an odometry device, three GPS (Global Positioning System), three gyro sensors, a laser radar, a camera, and a computer. The white line position measured by the measuring carriage is used for a high-precision map. On the high-precision map, road markings such as white lines are accurately drawn. Patent Document 2 is a document disclosing a top view conversion process.

特開2007−218705号公報JP 2007-218705 A 特開2009−212734号公報JP 2009-212734 A

新規道路が開通することがある。新規道路が開通すれば、高精度地図も更新する必要がある。また、既存の道路でも、高精度地図を更新する必要が生じる変更が行われることがある。たとえば、一番右の車線が右折専用レーンに変更になるなどが、その例である。   New roads may be opened. If a new road opens, the high-precision map will need to be updated. In addition, even on existing roads, there may be changes that require updating the high-precision map. For example, the rightmost lane is changed to a right turn lane.

高精度地図は、実際の道路の変化に対応して速やかに更新されることが好ましい。以下では、高精度地図に示されている道路に対して、実際の道路に変化が生じた位置を変化点とする。   The high-precision map is preferably updated promptly in response to actual road changes. In the following, a change point is a position where a change has occurred in an actual road with respect to the road shown in the high-precision map.

計測台車を頻繁に走行させて、作成済みの高精度地図と、計測台車が計測して得た地図とを比較すれば、変化点を検出できる。しかし、計測台車は、上述した種々の装置を備えているので高価であり、多くの台数を用意して、頻繁に種々の道路を走行させることは困難である。つまり、計測台車により変化点を迅速に検出することは困難である。   A change point can be detected by frequently running the measurement truck and comparing the prepared high-accuracy map with the map obtained by the measurement truck. However, the measurement cart is expensive because it includes the various devices described above, and it is difficult to prepare a large number of vehicles and frequently travel on various roads. That is, it is difficult to quickly detect the change point using the measurement carriage.

一般の車両には、ドライブレコーダーなど、カメラを備えた機器が搭載されることが増えてきている。そこで、一般の車両に搭載されているカメラにより撮像された画像を用いて変化点を検出することが考えられる。しかし、一般の車両に搭載されているカメラで撮像した画像を用いて変化点を検出することは容易ではない。この理由は次の通りである。   In general vehicles, devices equipped with cameras such as drive recorders are increasingly installed. Therefore, it is conceivable to detect a change point using an image captured by a camera mounted on a general vehicle. However, it is not easy to detect a change point using an image captured by a camera mounted on a general vehicle. The reason is as follows.

カメラが撮像した画像に写る道路は、実際には同じ道路幅であっても、遠方ほど狭幅に写る。そのため、カメラが撮像した画像を、単純に、高精度地図に描かれている道路部分の画像と照合することができない。   Even if the road shown in the image captured by the camera is actually the same road width, it will appear narrower as the distance increases. Therefore, the image captured by the camera cannot be simply compared with the image of the road portion drawn on the high-precision map.

また、一般の車両に搭載されているカメラは、他車両など、カメラが搭載された車両の周辺に存在する障害物を撮像するために設けられており、当然、カメラにより撮像された画像には、路面上にない種々の障害物が写っている。変化点を精度よく検出するためには、カメラにより撮像された画像から、変化点の検出に不要な障害物を除去することが好ましい。   In addition, a camera mounted on a general vehicle is provided to capture an obstacle existing around the vehicle on which the camera is mounted, such as another vehicle. Various obstacles that are not on the road are shown. In order to detect the change point with high accuracy, it is preferable to remove an obstacle unnecessary for detection of the change point from the image captured by the camera.

しかし、一般の車両に搭載されているカメラは計測車両に搭載されているものよりも解像度が高くない。そのため、画像から精度よく障害物を検出して除去できない恐れもある。   However, the resolution of a camera mounted on a general vehicle is not higher than that mounted on a measurement vehicle. For this reason, there is a possibility that the obstacle cannot be detected and removed from the image with high accuracy.

これらの理由により、一般の車両に搭載されている解像度が低いカメラで撮像した画像を用いて、変化点を精度よく検出することは容易ではなかったのである。   For these reasons, it has not been easy to accurately detect a change point using an image captured by a low resolution camera mounted on a general vehicle.

本開示は、この事情に基づいて成されたものであり、その目的とするところは、解像度が低いカメラを用いても精度よく変化点を検出することができる地図変化点検出装置を提供することにある。   The present disclosure has been made based on this situation, and an object of the present disclosure is to provide a map change point detection device that can detect a change point with high accuracy even when a camera with low resolution is used. It is in.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、技術的範囲を限定するものではない。   The above object is achieved by a combination of the features described in the independent claims, and the subclaims define further advantageous embodiments. Reference numerals in parentheses described in the claims indicate a correspondence relationship with specific means described in the embodiments described later as one aspect, and do not limit the technical scope.

上記目的を達成するための開示の一つは、
車両に備えられ、車両の周辺を撮像するカメラ(110)と、
カメラが撮像した画像を俯瞰画像に変換する俯瞰変換部(S6)と、
路面地図を含んだ道路地図(151)を記憶する地図記憶部(150)と、
俯瞰画像と路面地図とを照合して、路面地図に対して、実際の路面に変化が生じた位置である変化点が存在するか否かを決定する照合処理部(164)とを備える地図変化点検出装置である。
One of the disclosures for achieving the above object is:
A camera (110) provided in the vehicle for imaging the periphery of the vehicle;
An overhead conversion unit (S6) that converts an image captured by the camera into an overhead image;
A map storage unit (150) for storing a road map (151) including a road surface map;
A map change provided with a matching processing unit (164) that collates the bird's-eye view image with the road surface map and determines whether or not there is a changing point that is a position where the actual road surface has changed with respect to the road surface map. It is a point detection device.

この地図変化点検出装置は、カメラが撮像した車両周辺の画像を俯瞰画像に変換する。俯瞰画像に変換することで、車両からの距離によらず、道路幅が、実際の道路と同様に一定幅の画像になる。また、俯瞰画像に変換することで、建物、樹木など、路面ではない場所に存在している種々の物体を除去することができる。この俯瞰画像を路面地図と照合する画像として用いるので、解像度が低くても、精度よく変化点を検出することができる。   This map change point detection device converts an image around a vehicle imaged by a camera into an overhead image. By converting to a bird's-eye view image, the road width becomes an image having a constant width as with an actual road regardless of the distance from the vehicle. Also, by converting to a bird's-eye view image, it is possible to remove various objects such as buildings and trees that exist in places other than the road surface. Since this bird's-eye view image is used as an image to be checked against a road map, a change point can be detected with high accuracy even if the resolution is low.

第1実施形態の道路地図情報更新システム100の構成を示すブロック図である。It is a block diagram which shows the structure of the road map information update system 100 of 1st Embodiment. 図1の画像処理部162が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the image process part 162 of FIG. 1 performs. カメラ110が撮像する前方画像180を示す図である。It is a figure which shows the front image 180 which the camera 110 images. 図2のS2で生成する補正後前方画像181を示す図である。It is a figure which shows the corrected front image 181 produced | generated by S2 of FIG. 実像高Y、理想像高Y0、入射角θ、焦点距離fの関係を示す図である。It is a figure which shows the relationship between real image height Y, ideal image height Y0, incident angle (theta), and the focal distance f. 補正前画像の各点(u、v)と、理想像の直交座標(u0、v0)の関係を示す図である。It is a figure which shows the relationship between each point (u, v) of the image before correction | amendment, and the orthogonal coordinate (u0, v0) of an ideal image. 前方画像180を示す図である。It is a figure which shows the front image. ディストーション補正画像185を示す図である。It is a figure which shows the distortion correction image 185. FIG. ディストーション補正前の画像を説明する図である。It is a figure explaining the image before distortion correction. ボリューム歪補正後の画像を説明する図である。It is a figure explaining the image after volume distortion correction. 区画線182と消失点183の関係を示す図である。It is a figure which shows the relationship between the division line 182 and the vanishing point 183. FIG. 障害物を除去する前の俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image before removing an obstruction. 障害物を除去した後の俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image after removing an obstruction. 照合領域特定部163が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the collation area | region specific | specification part 163 performs. 白線強度Gを算出する方法を説明する図である。It is a figure explaining the method of calculating the white line intensity | strength G. FIG. 白線強度Gから白線中心を検出する方法を説明する図である。It is a figure explaining the method of detecting the white line center from the white line intensity | strength G. FIG. 検出した線分のパターンと走行レーンとの関係を示す図である。It is a figure which shows the relationship between the pattern of the detected line segment, and a travel lane. 照合処理部164が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the collation process part 164 performs. 距離変換する前の高精度地図を示す図である。It is a figure which shows the high precision map before carrying out distance conversion. 距離変換した後の高精度地図を示す図である。It is a figure which shows the high precision map after carrying out distance conversion. 図18のS22において実行する拡大縮小処理を示す図である。It is a figure which shows the expansion / contraction process performed in S22 of FIG. 図18のS22において実行する射影変換を示す図である。It is a figure which shows the projective transformation performed in S22 of FIG. 図15のS23で実行するスコアリングを説明する図である。It is a figure explaining the scoring performed by S23 of FIG. 第2実施形態の道路地図情報更新システム200の構成を示すブロック図である。It is a block diagram which shows the structure of the road map information update system 200 of 2nd Embodiment. 図20の地図生成部265が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the map production | generation part 265 of FIG. 20 performs. 画像処理部162で生成した照合処理用の俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image for collation processing produced | generated by the image process part. 図25から、図21のS31で抽出する画像を説明する図である。It is a figure explaining the image extracted by S31 of FIG. 21 from FIG. 第3実施形態で画像処理部162が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the image process part 162 performs in 3rd Embodiment. 図28のS4Aの詳細処理を示すフローチャートである。It is a flowchart which shows the detailed process of S4A of FIG. 1フレーム前の消失点領域画像386である。It is a vanishing point region image 386 one frame before. 最新のフレームで得た消失点領域画像386である。It is the vanishing point region image 386 obtained in the latest frame. ピッチ変動量δyを説明する図である。It is a figure explaining pitch variation | change_quantity (delta) y. ピッチ補正をしていない俯瞰画像である。It is a bird's-eye view image without pitch correction. ピッチ補正をした俯瞰画像である。It is the bird's-eye view image which performed pitch correction. 第4実施形態で照合処理部164が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the collation process part 164 performs in 4th Embodiment. 最初の照合領域401と1回目の部分領域402との関係を示す図である。It is a figure which shows the relationship between the first collation area | region 401 and the partial area 402 of the 1st time. 1回目の部分領域402aと2回目の部分領域403との関係を示す図である。It is a figure which shows the relationship between the partial area 402a of the 1st time, and the partial area 403 of the 2nd time.

以下、実施形態を図面に基づいて説明する。図1は、地図変化点検出装置としての機能を備えた道路地図情報更新システム100の構成を示すブロック図である。   Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a road map information update system 100 having a function as a map change point detection device.

[全体構成]
道路地図情報更新システム100は、カメラ110、パラメータ記憶部120、GPS受信機130、挙動検出センサ140、地図記憶部150、演算部160、蓄積データ記憶部170を備えている。この道路地図情報更新システム100は車両1に搭載される。
[overall structure]
The road map information update system 100 includes a camera 110, a parameter storage unit 120, a GPS receiver 130, a behavior detection sensor 140, a map storage unit 150, a calculation unit 160, and an accumulated data storage unit 170. The road map information update system 100 is mounted on the vehicle 1.

カメラ110は、車両1の前方を撮像できる向きに取り付けられており、車両1の周辺のうち車両1の前方を撮像する。以下では、カメラ110が撮像した画像を前方画像180とする。図3に前方画像180の一例を示している。   The camera 110 is attached in such a direction that the front of the vehicle 1 can be imaged, and images the front of the vehicle 1 in the periphery of the vehicle 1. Hereinafter, an image captured by the camera 110 is referred to as a front image 180. FIG. 3 shows an example of the front image 180.

本実施形態では、このカメラ110は、ドライブレコーダーが備えるカメラである。車両1にドライブレコーダーが搭載されていれば、道路地図情報更新システム100が別途、カメラ110を備える必要はない。ドライブレコーダーが備えるカメラ110であるので、カメラ110は広角レンズを備え、画角が広角になっている。   In the present embodiment, the camera 110 is a camera included in the drive recorder. If the vehicle 1 is equipped with a drive recorder, the road map information update system 100 does not need to include the camera 110 separately. Since the camera 110 is included in the drive recorder, the camera 110 includes a wide-angle lens and has a wide angle of view.

パラメータ記憶部120は、画像処理に必要なカメラ110のパラメータを記憶している。このパラメータは具体的には、カメラ110の焦点距離f、カメラ光軸のヨー角rxおよびチルト角ryである。カメラ110の焦点距離fは、製品により定まる値であり、パラメータ記憶部120に予め記憶されている。   The parameter storage unit 120 stores parameters of the camera 110 necessary for image processing. Specifically, the parameters are the focal length f of the camera 110, the yaw angle rx and the tilt angle ry of the camera optical axis. The focal length f of the camera 110 is a value determined by the product and is stored in the parameter storage unit 120 in advance.

一方、カメラ光軸のヨー角rxおよびチルト角ryは、カメラ110の取り付け姿勢により変化する。そこで本実施形態では、前方画像180を解析して、これらヨー角rxおよびチルト角ryを計算する。そして、計算結果をパラメータ記憶部120に記憶する。パラメータ記憶部120には、計算結果を記憶できるようにするために、書込み可能な記憶部が用いられる。   On the other hand, the yaw angle rx and tilt angle ry of the camera optical axis vary depending on the mounting posture of the camera 110. Therefore, in the present embodiment, the front image 180 is analyzed, and the yaw angle rx and the tilt angle ry are calculated. Then, the calculation result is stored in the parameter storage unit 120. In the parameter storage unit 120, a writable storage unit is used so that the calculation result can be stored.

GPS受信機130は、衛星航法システムの一つであるGPS(Global Positioning System)が備える航法衛星が送信する航法信号を受信し、受信した航法信号に基づいて現在位置を逐次算出する。   The GPS receiver 130 receives a navigation signal transmitted from a navigation satellite provided in a GPS (Global Positioning System) which is one of satellite navigation systems, and sequentially calculates a current position based on the received navigation signal.

挙動検出センサ140は、車両1の挙動を検出するセンサである。加速度センサ、車速センサ、ジャイロセンサが、挙動検出センサ140の具体例である。   The behavior detection sensor 140 is a sensor that detects the behavior of the vehicle 1. An acceleration sensor, a vehicle speed sensor, and a gyro sensor are specific examples of the behavior detection sensor 140.

地図記憶部150には高精度地図151が記憶されている。高精度地図151は、計測台車を走行させて計測した地図であり、道路区画線などの路面標示が画像のような詳細な状態で表されている。また、高精度地図151には、路面よりも上方の立体物、たとえば電柱、ガードレール、道路標識も詳細に表されている。以降の説明の便宜上、この高精度地図151のうち路面部分を路面地図とする。また、路面地図を含んでいる高精度地図151は道路地図に相当する。   The map storage unit 150 stores a high-precision map 151. The high-accuracy map 151 is a map measured by running a measurement carriage, and road markings such as road lane markings are shown in a detailed state like an image. The high-precision map 151 also shows details of three-dimensional objects above the road surface, such as utility poles, guardrails, and road signs. For convenience of the following description, the road surface portion of the high-precision map 151 is referred to as a road surface map. The high-accuracy map 151 including a road surface map corresponds to a road map.

演算部160は、CPU、ROM、RAM等を備えたコンピュータであり、CPUが、RAMの一時記憶機能を利用しつつ、ROMなどの非遷移的実体的記録媒体(non-transitory tangible storage medium)に記憶されているプログラムを実行する。これにより、演算部160は、車両位置検出部161、画像処理部162、照合領域特定部163、照合処理部164として機能する。これらの機能を実行すると、プログラムに対応する方法が実行される。   The arithmetic unit 160 is a computer including a CPU, a ROM, a RAM, and the like. The CPU uses a temporary storage function of the RAM, and the non-transitory tangible storage medium such as a ROM. Run the stored program. Accordingly, the calculation unit 160 functions as a vehicle position detection unit 161, an image processing unit 162, a collation area specifying unit 163, and a collation processing unit 164. When these functions are executed, a method corresponding to the program is executed.

なお、演算部160が備える機能ブロックの一部または全部は、一つあるいは複数のIC等を用いて(換言すればハードウェアとして)実現してもよい。また、演算部160が備える機能ブロックの一部又は全部は、CPUによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。   Note that some or all of the functional blocks included in the arithmetic unit 160 may be realized using one or a plurality of ICs (in other words, as hardware). In addition, some or all of the functional blocks included in the calculation unit 160 may be realized by a combination of execution of software by the CPU and hardware members.

蓄積データ記憶部170は、照合処理部164の処理により検出した変化点および変化点に関する道路情報を蓄積しておく記憶部である。変化点は、高精度地図151に示されている道路に対して、実際の道路に変化が生じた位置である。変化点に関する道路情報は、変化点において、具体的に、道路にどのような変化が生じたのかを示す情報である。たとえば、道路に新たに追加された道路標示の文字などが、変化点に関する道路情報である。   The accumulated data storage unit 170 is a storage unit that accumulates the change points detected by the processing of the matching processing unit 164 and road information regarding the change points. The change point is a position where a change has occurred in an actual road with respect to the road shown in the high-accuracy map 151. The road information regarding the change point is information indicating what kind of change has occurred in the road at the change point. For example, a road marking character newly added to the road is road information regarding the change point.

次に、演算部160が備える各部の処理を説明する。   Next, the process of each part with which the calculating part 160 is provided is demonstrated.

[車両位置検出部161の処理]
車両位置検出部161は、衛星航法と自立航法とを組み合わせたハイブリッド航法により、車両1の現在位置を逐次検出する。衛星航法は、GPS受信機130から供給される信号に基づいて現在位置を推定する方法であり、自立航法は、挙動検出センサ140が検出する車両挙動に基づいて車両位置の相対軌跡を検出する方法である。なお、これに限られず、衛星航法のみで車両1の現在位置を逐次検出してもよい。車両位置検出部161は、検出した現在位置を画像処理部162に出力する。
[Processing of Vehicle Position Detection Unit 161]
The vehicle position detection unit 161 sequentially detects the current position of the vehicle 1 by hybrid navigation combining satellite navigation and self-contained navigation. The satellite navigation is a method of estimating the current position based on a signal supplied from the GPS receiver 130, and the self-contained navigation is a method of detecting a relative locus of the vehicle position based on the vehicle behavior detected by the behavior detection sensor 140. It is. However, the present invention is not limited to this, and the current position of the vehicle 1 may be sequentially detected only by satellite navigation. The vehicle position detection unit 161 outputs the detected current position to the image processing unit 162.

[画像処理部162の処理]
画像処理部162は、カメラ110が逐次撮像した前方画像180を処理して俯瞰画像を生成する。この画像処理部162が実行する処理を、図2に示すフローチャートを用いて説明する。画像処理部162は、図2に示す処理を、道路地図情報更新システム100の起動状態において周期的に実行する。
[Processing of Image Processing Unit 162]
The image processing unit 162 processes the front image 180 sequentially captured by the camera 110 to generate an overhead image. The processing executed by the image processing unit 162 will be described with reference to the flowchart shown in FIG. The image processing unit 162 periodically executes the process shown in FIG. 2 in the activated state of the road map information update system 100.

ステップ(以下、ステップを省略する)S1ではカメラ110が撮像した前方画像180が入力される。S2では、S1で入力された前方画像180の歪みを補正する処理を行って、図4に例示する補正後前方画像181を生成する。S2は歪補正処理部に相当する。   In step (hereinafter, step is omitted) S1, the front image 180 captured by the camera 110 is input. In S2, a process of correcting the distortion of the front image 180 input in S1 is performed to generate a corrected front image 181 illustrated in FIG. S2 corresponds to a distortion correction processing unit.

前方画像180は、広角レンズで撮像されているため大きく歪みが生じる。歪みが大きい場合、変化点の検出精度が低下する。そのため、前方画像180の歪みを補正する。ここでの歪みはカメラ110への入射角に応じて画像の中心に引き寄せられて撮像される現象であり、ディストーションと呼ばれる。広角レンズの場合、ディストーションにより画像隅部ほど画像の上下中心あるいは左右中心に引き寄せられた樽型画像となる。   Since the front image 180 is captured by a wide-angle lens, a large distortion occurs. When the distortion is large, the detection accuracy of the change point is lowered. Therefore, the distortion of the front image 180 is corrected. The distortion here is a phenomenon in which the image is attracted to the center of the image in accordance with the incident angle to the camera 110 and is called distortion. In the case of a wide-angle lens, a barrel-shaped image is drawn toward the vertical center or the horizontal center of the image as the image corners are distorted.

画像の射影方式には正射影、等距離射影などがあり、射影方式に対応した歪み補正処理を行う。本実施形態では、等距離射影に対応する歪み補正処理を行う。等距離射影関係式は、式1で表される。式1において、Yは実像高、Y0は理想像、fは焦点距離、θは入射角である。図5に、これら実像高Y、理想像高Y0、入射角θ、焦点距離fの関係を図示する。
Image projection methods include orthographic projection and equidistant projection, and distortion correction processing corresponding to the projection method is performed. In this embodiment, distortion correction processing corresponding to equidistant projection is performed. The equidistant projection relational expression is expressed by Expression 1. In Equation 1, Y is the real image height, Y0 is the ideal image, f is the focal length, and θ is the incident angle. FIG. 5 illustrates the relationship among these real image height Y, ideal image height Y0, incident angle θ, and focal length f.

補正前画像の各点の直交座標(u、v)を、実像高Yと極座標系における角度φとを用いて表現すると式2になる。
When the orthogonal coordinates (u, v) of each point of the pre-correction image are expressed using the real image height Y and the angle φ in the polar coordinate system, Expression 2 is obtained.

また、理想像の直交座標(u0、v0)は式3で示される。
Further, the orthogonal coordinates (u0, v0) of the ideal image are expressed by Equation 3.

図6に、補正前画像の各点(u、v)と、理想像の直交座標(u0、v0)と、極座標との関係を示す。歪み補正処理では、まず、(u、v)を式2により極座標(Y、φ)に変換する。次いで、極座標のYを、式1から得た理想像高Y0に置き換える。その後、式3から、直交座標(u0、v0)を得る。   FIG. 6 shows the relationship between each point (u, v) of the pre-correction image, orthogonal coordinates (u0, v0) of the ideal image, and polar coordinates. In the distortion correction process, first, (u, v) is converted into polar coordinates (Y, φ) by Equation 2. Next, the polar coordinate Y is replaced with the ideal image height Y0 obtained from Equation 1. Thereafter, the orthogonal coordinates (u0, v0) are obtained from Equation 3.

ここまでの処理で得た画像をディストーション補正画像185とする。図7には、図3とは別の前方画像180を示しており、図8には、図7の前方画像180を補正して得られたディストーション補正画像185を示している。   The image obtained by the processing so far is set as a distortion corrected image 185. FIG. 7 shows a front image 180 different from FIG. 3, and FIG. 8 shows a distortion corrected image 185 obtained by correcting the front image 180 of FIG.

図6におけるYとY0の関係からも分かるように、図8に示すディストーション補正画像185は、画像の端部に写し出された立体物が画像の端方向に引っ張られたような像になる。これをボリューム歪像という。   As can be seen from the relationship between Y and Y0 in FIG. 6, the distortion-corrected image 185 shown in FIG. 8 is an image in which a three-dimensional object projected at the end of the image is pulled in the end direction of the image. This is called a volume distortion image.

歪み補正処理では、ボリューム歪像を補正する処理も行う。ボリューム歪像を補正するため、図10に示すように、画像の周縁部ほど画像の中心に向かって近づける非線形の変換を行う。この変換をボリューム歪像補正という。ボリューム歪像補正は、図9に示す直線を、図10の式48に示す曲線に変換する補正である。また、この補正により、画像左右方向の大きさは、図10に示す破線まで縮められることになり、縮み率は画像の左右端ほど高くなっている。   In the distortion correction process, a process for correcting the volume distortion image is also performed. In order to correct the volume distortion image, as shown in FIG. 10, nonlinear transformation is performed so that the peripheral portion of the image is closer to the center of the image. This conversion is called volume distortion image correction. The volume distortion image correction is a correction for converting the straight line shown in FIG. 9 into a curve shown in Expression 48 of FIG. Further, by this correction, the size in the left-right direction of the image is reduced to the broken line shown in FIG. 10, and the reduction rate is higher at the left and right ends of the image.

ボリューム歪像補正を行った後の画像が、図4に示した補正後前方画像181である。補正後前方画像181では、道路や橋梁はほぼ直線となり、また、画像の周縁部に写し出されたビルもまっすぐに立っている。   The image after the volume distortion image correction is the corrected forward image 181 shown in FIG. In the corrected front image 181, the roads and bridges are almost straight, and the building projected on the periphery of the image stands straight.

S3では、補正後前方画像181から直線を検出する。直線を検出するために、画像の濃淡を検出するエッジ検出処理を行う。検出したエッジは、点の集合で示される。このエッジの点の集合をハフ変換することで道路の区画線等の直線を検出する。   In S3, a straight line is detected from the corrected front image 181. In order to detect a straight line, an edge detection process for detecting the density of the image is performed. The detected edge is indicated by a set of points. A straight line such as a road lane marking is detected by Hough transforming the set of edge points.

S4では補正後前方画像181の消失点183を検出する。S4は消失点検出部に相当する。消失点183を検出するために、まず、S3で検出した直線から、補正後前方画像181内の中心付近に延びている平行線を抽出する。図4に示すように、直線として4本の区画線182が検出できた場合、たとえば、車両1が走行する車線を区画する2本の区画線182を用いる。これら2本の区画線182が交差する点を消失点183とする。図11には、区画線182と消失点183の関係を図示している。   In S4, the vanishing point 183 of the corrected forward image 181 is detected. S4 corresponds to a vanishing point detector. In order to detect the vanishing point 183, first, parallel lines extending near the center in the corrected front image 181 are extracted from the straight line detected in S3. As shown in FIG. 4, when four lane lines 182 can be detected as straight lines, for example, two lane lines 182 that divide the lane in which the vehicle 1 travels are used. A point where these two lane markings 182 intersect is defined as a vanishing point 183. FIG. 11 illustrates the relationship between the partition line 182 and the vanishing point 183.

S5ではカメラ110の向きを検出する。S5はカメラ向き検出部に相当する。カメラ110の向きとは、カメラ110の光軸の向きを意味する。カメラ110は、ドライブレコーダーが備えるカメラであるので、車両購入後に取り付ける場合が多く、かつ、取り付け後も、カメラ110の向きを変えることができる場合が多い。したがって、カメラ110の向きは、車両1ごとに異なる。そこで、このS5で、カメラ110の向きを検出する。   In S5, the orientation of the camera 110 is detected. S5 corresponds to a camera orientation detection unit. The direction of the camera 110 means the direction of the optical axis of the camera 110. Since the camera 110 is a camera included in the drive recorder, it is often attached after purchasing the vehicle, and the orientation of the camera 110 can be changed after the attachment. Therefore, the orientation of the camera 110 is different for each vehicle 1. Therefore, in S5, the orientation of the camera 110 is detected.

カメラ110の向きは、具体的には、ヨー角rxとチルト角ryである。ヨー角rxとチルト角ryは、それぞれ、式4、式5で表すことができる。式4において、Δxは、図11に示すように、補正後前方画像181における画像中心184と消失点183とのx方向の距離である。式5において、Δyは、図11に示すように、補正後前方画像181における画像中心184と消失点183とのy方向の距離である。
Specifically, the orientation of the camera 110 is a yaw angle rx and a tilt angle ry. The yaw angle rx and the tilt angle ry can be expressed by Expression 4 and Expression 5, respectively. In Expression 4, Δx is a distance in the x direction between the image center 184 and the vanishing point 183 in the corrected forward image 181 as shown in FIG. In Expression 5, Δy is the distance in the y direction between the image center 184 and the vanishing point 183 in the corrected forward image 181 as shown in FIG.

S5においてカメラ110の向きが検出できたら、次に、S6において、補正後前方画像181に対してトップビュー変換処理(すなわち俯瞰変換)を行い、車両1の上方に視点がある俯瞰画像を生成する。S6は俯瞰変換部に相当する。   If the orientation of the camera 110 can be detected in S5, next, in S6, a top view conversion process (that is, a bird's eye conversion) is performed on the corrected forward image 181 to generate an overhead image with a viewpoint above the vehicle 1. . S6 corresponds to an overhead conversion unit.

トップビュー変換処理は、カメラ110の光軸を、上方から下方へ向かう方向に変換する処理である。トップビュー変換処理は、特許文献2などに記載されている。   The top view conversion process is a process of converting the optical axis of the camera 110 in a direction from above to below. The top view conversion process is described in Patent Document 2 and the like.

補正後前方画像181を俯瞰画像に変換する際には、補正後前方画像181のうち、車両1の上方から見たときにも見える部分を俯瞰画像に変換することになる。つまり、補正後前方画像181のうち路面およびその周囲を俯瞰画像に変換する。俯瞰画像に変換する範囲は、消失点183およびカメラ110の画角に基づいて定める。   When the corrected front image 181 is converted into a bird's-eye view image, a portion of the corrected front image 181 that can be seen when viewed from above the vehicle 1 is converted into a bird's-eye view image. That is, the road surface and its surroundings in the corrected front image 181 are converted into an overhead image. The range to be converted into the overhead image is determined based on the vanishing point 183 and the angle of view of the camera 110.

S7では、S6で生成した俯瞰画像から、障害物を除去する。S7は障害物除去処理部に相当する。俯瞰画像にすることで、補正後前方画像181に写っていた障害物のうち、俯瞰画像に変換する範囲の外に写っていた障害物は除去される。これによって、変化点の検出精度の低下原因となる障害物の多くは除去できる。しかし、俯瞰画像にも、先行車両や落下物など、道路設置物以外のものが写っている場合がある。そこで、俯瞰画像から障害物を除去する処理を行う。   In S7, the obstacle is removed from the overhead image generated in S6. S7 corresponds to an obstacle removal processing unit. By making the bird's-eye view image, of the obstacles that appear in the corrected front image 181, the obstacles that appear outside the range to be converted into the bird's-eye view image are removed. As a result, many of the obstacles that cause a decrease in detection accuracy of change points can be removed. However, there are cases where the bird's-eye view image includes objects other than road installations such as preceding vehicles and falling objects. Therefore, a process of removing the obstacle from the overhead image is performed.

障害物を除去する方法は、指定した色を抽出し、その他の色は黒にする方法である。指定する色は、除去したくない路面標示や、道路区画線に対応する色である白やオレンジ色である。   The method of removing the obstacle is a method of extracting a specified color and making the other colors black. The specified colors are road markings that you do not want to remove and white and orange colors that correspond to road markings.

図12に、障害物である先行車両が写っている俯瞰画像を示し、図13に、S7を実行して障害物を除去した後の画像を示す。先行車両の部分が黒に変換されることで、図13の画像では、先行車両が除去されている。なお、一定の大きさよりも小さい障害物は、その後の処理に支障がないとみなして、元の色に復元してよい。   FIG. 12 shows a bird's-eye view image of a preceding vehicle that is an obstacle, and FIG. 13 shows an image after the obstacle is removed by executing S7. By converting the preceding vehicle portion to black, the preceding vehicle is removed in the image of FIG. Obstacles smaller than a certain size may be regarded as having no hindrance in subsequent processing, and may be restored to the original color.

S8では、俯瞰画像内で最も輝度の高い部分が白の輝度となるように、俯瞰画像の全体の輝度を調整する。輝度調整をする理由は、俯瞰画像の輝度は、天候や時間帯、トンネル内など、カメラ撮像時の周辺環境の影響を受けるため、輝度調整をしないと、変化点を誤検出する恐れが高くなるからである。このS8における輝度調整を行った後の俯瞰画像が、照合処理用の俯瞰画像である。   In S8, the overall luminance of the overhead image is adjusted so that the highest luminance portion in the overhead image has white luminance. The reason for adjusting the brightness is that the brightness of the bird's-eye view image is affected by the surrounding environment during camera imaging, such as the weather, time zone, and tunnels. Because. The bird's-eye view image after the luminance adjustment in S8 is a bird's-eye view image for collation processing.

S9では、車両位置検出部161から供給された現在位置と、S8の処理により得られた照合処理用の俯瞰画像を、照合領域特定部163に出力する。   In S <b> 9, the current position supplied from the vehicle position detection unit 161 and the overhead view image for verification processing obtained by the processing in S <b> 8 are output to the verification region specifying unit 163.

[照合領域特定部163の処理]
照合領域特定部163は、画像処理部162が生成した照合処理用の俯瞰画像から、照合領域を特定する。照合領域特定部163は、照合処理用の俯瞰画像から道路区画線を検出し、その道路区画線の本数に基づいて、照合領域の車両幅方向の範囲を決定する。
[Processing of collation area specifying unit 163]
The collation area specifying unit 163 specifies a collation area from the overhead image for the collation process generated by the image processing unit 162. The collation area specifying unit 163 detects road lane markings from the overhead image for collation processing, and determines the range of the collation area in the vehicle width direction based on the number of road lane markings.

照合領域特定部163が実行する処理を図14に示す。照合領域特定部163の詳しい処理は図14を用いて説明する。照合領域特定部163は、照合処理用の俯瞰画像が生成された場合に、図14に示す処理を実行する。   FIG. 14 shows processing executed by the matching area specifying unit 163. Detailed processing of the collation area specifying unit 163 will be described with reference to FIG. The collation area specifying unit 163 executes the process shown in FIG. 14 when a bird's-eye view image for collation processing is generated.

図14において、S11では白線検出処理を実行する。白線検出処理は、俯瞰画像の各画素に対して、次に示すフィルタ処理を行って白線らしさを数値化する。この値を白線強度Gとする。   In FIG. 14, white line detection processing is executed in S11. In the white line detection processing, the following filter processing is performed on each pixel of the overhead image to digitize the white line likelihood. This value is the white line intensity G.

白線強度Gは、注目画素(m、n)を中心として、想定白線幅Sの範囲内の画素値を合計したものを、その面積で割った値である。注目画素(m、n)は、白線強度Gを算出する画素であり、全画素について白線強度Gを順番に算出する。   The white line intensity G is a value obtained by dividing the sum of the pixel values within the range of the assumed white line width S around the target pixel (m, n) by the area. The target pixel (m, n) is a pixel for calculating the white line intensity G, and the white line intensity G is sequentially calculated for all the pixels.

白線強度Gは、式6、式7、式8により表される。式6は左側白線強度Gを示している。式6の右辺第1項の分子は、想定白線幅Sの範囲内の画素値の合計であり、式6の右辺第2項の分子は、想定白線幅Sの左側の範囲外画素値の合計である。 The white line intensity G is expressed by Equation 6, Equation 7, and Equation 8. Equation 6 shows the left white line intensity GL . The numerator of the first term on the right side of Equation 6 is the sum of the pixel values within the range of the assumed white line width S, and the numerator of the second term on the right side of Equation 6 is the sum of the out-of-range pixel values on the left side of the assumed white line width S. It is.

式7は右側白線強度Gを示している。式7の右辺第1項の分子は、式6の右辺第1項と同じく想定白線幅Sの範囲内の画素値の合計である。式7の右辺第2項の分子は、想定白線幅Sの右側の範囲外画素値の合計である。式6、式7の右辺第1項、第2項の分子がそれぞれ算出している画素値合計の範囲を図15に示している。 Equation 7 shows a right side white line intensity G R. The numerator of the first term on the right side of Equation 7 is the sum of the pixel values within the range of the assumed white line width S as in the first term on the right side of Equation 6. The numerator of the second term on the right side of Equation 7 is the sum of out-of-range pixel values on the right side of the assumed white line width S. FIG. 15 shows the range of total pixel values calculated by the first and second numerators on the right side of Equations 6 and 7.

画像上の白線が明確であるほど、式6および式7において、右辺第1項の値は大きくなり、かつ、右辺第2項の値は小さくなる。したがって、式6、式7は、白線強度Gを示しているのである。   The clearer the white line on the image, the larger the value of the first term on the right side and the smaller the value of the second term on the right side in Equations 6 and 7. Therefore, Expression 6 and Expression 7 indicate the white line intensity G.

式8は、左側白線強度Gと右側白線強度Gとを一つの値にまとめるために二乗和平方根を算出している。画像処理においてエッジ強度の算出方法として二乗和平方根を用いる手法は一般的である。
Equation 8, calculates the square root of sum of squares to put together a left white line intensity G L and the right white line intensity G R into a single value. In image processing, a method that uses the square sum of squares as a method of calculating edge strength is common.

なお、図15は、画面横方向の白線強度Gである。S11では、画面横方向の白線強度Gに加えて画面縦方向の白線強度Gも算出する。   FIG. 15 shows the white line intensity G in the horizontal direction of the screen. In S11, in addition to the white line intensity G in the horizontal direction of the screen, the white line intensity G in the vertical direction of the screen is also calculated.

白線強度Gを算出したら、次いで、白線中心を検出する。白線中心を検出するために、横方向の白線強度Gは縦方向に1ラインずつ強度の強い部分を探し、横方向の白線強度Gは縦方向に1ラインずつ強度の強い部分を探し、白線中心とする。図16には、横方向の白線強度Gの大きさを1ラインずつ示している。図16に示すピークを白線中心とする。   After calculating the white line intensity G, the center of the white line is then detected. To detect the center of the white line, the white line strength G in the horizontal direction is searched for a portion where the intensity is one line in the vertical direction, and the white line strength G in the horizontal direction is searched for a portion where the intensity is one line in the vertical direction And FIG. 16 shows the white line intensity G in the horizontal direction line by line. The peak shown in FIG. 16 is the center of the white line.

S12では、走行レーンを認識する。走行レーンの認識処理においては、S11で検出した白線中心が縦、横、斜め方向に連続している部分をグルーピングして(すなわちマージして)1つの線分とする。グルーピング後の画像を白線強度画像とする。また、マージした線分に含まれる白線強度Gの累積値をマージした線分の白線強度Gとし、マージした白線強度Gが最も強い線分を基準線とする。   In S12, the travel lane is recognized. In the travel lane recognition process, a portion in which the white line center detected in S11 is continuous in the vertical, horizontal, and diagonal directions is grouped (that is, merged) into one line segment. Let the image after grouping be a white line intensity image. Further, the accumulated value of the white line intensities G included in the merged line segment is set as the merged line white line intensity G, and the line segment having the strongest merged white line intensity G is defined as the reference line.

この基準線から左右それぞれの想定レーン幅位置付近に線分を探索する。線分は、自車位置を基準として左右2本目まで探索をする。また、線分の長さから、実線と破線を区別する。   A line segment is searched in the vicinity of the assumed lane width positions on the left and right sides from the reference line. Line segments are searched up to the second on the left and right with reference to the vehicle position. Also, a solid line and a broken line are distinguished from each other by the length of the line segment.

そして、検出した線分のパターンから、図17に示す関係に従い、走行レーンを認識する。認識する情報は、走行している道路が、何車線の道路であるか、および、車両1がどの走行レーンを走行しているかである。   Then, the traveling lane is recognized from the detected line segment pattern according to the relationship shown in FIG. The information to be recognized is how many lanes the road on which the vehicle is traveling is, and on which travel lane the vehicle 1 is traveling.

S13では、S12で生成した白線強度画像から照合領域を抽出する。抽出する領域は、縦方向すなわち自車の前後方向の領域は固定し、横方向を可変とする。照合領域の縦方向の範囲は、白線強度画像の自車両側の端から一定範囲である。   In S13, a collation area is extracted from the white line intensity image generated in S12. The region to be extracted is fixed in the vertical direction, that is, in the front-rear direction of the host vehicle, and the horizontal direction is variable. The range in the vertical direction of the matching area is a certain range from the end of the white line intensity image on the own vehicle side.

照合領域の横方向の範囲は、S12で認識した走行レーンに対応している。たとえば、S12で認識した走行レーンの数が3車線の場合には、白線強度画像の全体を照合領域の横幅とする。S12で認識した走行レーンの数が2車線の場合には、両端の線分の中心を抽出領域の中心として、2車線分の想定車線幅+αを抽出領域の横方向の範囲とする。このS13で抽出される画像は矩形の画像になる。これにより、俯瞰画像から検出できる道路区画線の本数に応じた適切な大きさの俯瞰画像を照合領域とすることができる。なお、前方車両、並走車両が写っている部分など、S7の障害物除去により除去された部分は照合領域として使わないようにしてもよい。   The range in the horizontal direction of the verification area corresponds to the travel lane recognized in S12. For example, when the number of travel lanes recognized in S12 is three lanes, the entire white line intensity image is set as the width of the collation area. When the number of travel lanes recognized in S12 is two lanes, the center of the line segment at both ends is set as the center of the extraction region, and the assumed lane width + α for two lanes is set as the lateral range of the extraction region. The image extracted in S13 is a rectangular image. As a result, an overhead image having an appropriate size according to the number of road lane markings that can be detected from the overhead image can be used as the verification region. In addition, you may make it not use the part removed by the obstruction removal of S7, such as the part which the front vehicle and the parallel running vehicle are reflected, as a collation area | region.

S14では、高精度地図151の路面地図から、マッチング対象領域を特定する。マッチング対象領域は、現在位置を基準として定まる一定領域である。マッチング対象領域の縦横の大きさは、白線強度画像の照合領域をマッチング対象領域に対してずらしつつ、照合判定が行えるようにするために、白線強度画像の照合領域よりも大きい大きさに設定されている。   In S14, a matching target area is specified from the road surface map of the high-precision map 151. The matching target area is a fixed area determined with the current position as a reference. The vertical and horizontal sizes of the matching target area are set to be larger than the matching area of the white line intensity image so that the collation determination can be performed while shifting the matching area of the white line intensity image with respect to the matching target area. ing.

[照合処理部164の処理]
照合処理部164は、S13で抽出した照合領域の白線強度画像と、S14で特定したマッチング対象領域の高精度地図151の路面地図とを照合することで、変化点を検出する。照合処理部164の詳しい処理は図18を用いて説明する。照合処理部164は、照合領域とマッチング対象領域が決定された場合に、図18に示す処理を実行する。
[Processing of collation processing unit 164]
The matching processing unit 164 detects a change point by matching the white line intensity image of the matching area extracted in S13 with the road surface map of the high-accuracy map 151 of the matching target area specified in S14. Detailed processing of the verification processing unit 164 will be described with reference to FIG. The collation processing unit 164 executes the process shown in FIG. 18 when the collation area and the matching target area are determined.

図18において、S21では、S14で特定したマッチング対象領域の高精度地図151に対して距離変換を行う。ここでの距離変換は、画像処理において広く用いられている距離変換と同じであり、0画素から、最も近い非0画素までの距離を、全ての0画素に対して計算し、0画素の画素値をその距離に置き換える変換である。   In FIG. 18, in S21, distance conversion is performed on the high-accuracy map 151 of the matching target area specified in S14. The distance conversion here is the same as the distance conversion widely used in image processing, and the distance from 0 pixel to the nearest non-zero pixel is calculated for all 0 pixels, and the pixel of 0 pixel is calculated. A transformation that replaces a value with its distance.

高精度地図151と白線強度画像をそのままマッチングすると、レーンの幅が少し相違しているだけでも相関値が低くなってしまう。そこで、マッチング対象領域の高精度地図151に対して距離変換を行う。   If the high-accuracy map 151 and the white line intensity image are matched as they are, the correlation value becomes low even if the lane widths are slightly different. Therefore, distance conversion is performed on the high-precision map 151 of the matching target area.

式9に距離変換の式を示す。式9において、左辺が置き換える距離、xは非0ピクセルまでの水平距離、yは非ゼロピクセルまでの垂直距離、Nは予め設定した係数である。
Equation 9 shows the equation for distance conversion. In Equation 9, the distance replaced by the left side, x is the horizontal distance to the non-zero pixel, y is the vertical distance to the non-zero pixel, and N is a preset coefficient.

図19、図20に距離変換前後の地図を示す。図19が距離変換前の地図、すなわち、高精度地図151である。距離変換を行うと、図20に示すように、白線がぼやけた状態になる。   19 and 20 show maps before and after distance conversion. FIG. 19 shows a map before distance conversion, that is, a high-precision map 151. When the distance conversion is performed, the white line is blurred as shown in FIG.

S22では、白線強度画像の照合領域の位置を所定値ずつ変化させつつ、S21で距離変換を行った後の高精度地図151のマッチング対象領域と白線強度画像の照合領域との相関値を算出する。白線強度画像の照合領域の位置を所定値ずつ変化させつつ相関値を算出することで、相関値マップが作成できる。相関値マップは、マッチング対象領域に対する照合領域の相対位置と相関値との関係を表している。   In S22, while changing the position of the matching area of the white line intensity image by a predetermined value, the correlation value between the matching target area of the high-accuracy map 151 after the distance conversion in S21 and the matching area of the white line intensity image is calculated. . A correlation value map can be created by calculating the correlation value while changing the position of the collation region of the white line intensity image by a predetermined value. The correlation value map represents the relationship between the relative position of the matching area with respect to the matching target area and the correlation value.

相関値の算出においては、白線強度画像に描かれている道路区画線の間隔と、距離変換後の高精度地図151に描かれている道路区画線の間隔とが合わない場合には、白線強度画像を拡大縮小したり、白線強度画像を射影変換したりする。図21に、白線強度画像を拡大縮小する図を示し、図22に、白線強度画像を射影変換する図を示している。これら拡大縮小や射影変換などにより、高精度地図151の区画線と、白線強度画像の区画線とが一致するように、白線強度画像の全体の大きさを調整する。S22は相関値マップ作成部に相当する。   In the calculation of the correlation value, if the interval between the road lane markings drawn on the white line intensity image does not match the interval between the road lane markings drawn on the high-precision map 151 after the distance conversion, the white line intensity Enlarge / reduce the image or projective transform the white line intensity image. FIG. 21 shows a diagram for enlarging and reducing the white line intensity image, and FIG. 22 shows a diagram for projective transformation of the white line intensity image. The overall size of the white line intensity image is adjusted so that the lane markings of the high-precision map 151 and the lane markings of the white line intensity image coincide with each other by such enlargement / reduction or projective transformation. S22 corresponds to a correlation value map creation unit.

S23では、スコアリングを行う。スコアリングは、白線強度画像の照合領域の位置の確からしさを数値化することである。具体的には、S23では、まず、スコアリングマップを作成する。スコアリングマップは、車両位置検出部161が検出した車両1の現在位置が最も確からしさが高いとして係数を1とし、そこから離れるほど係数が低くなるマップである。   In S23, scoring is performed. Scoring is to quantify the probability of the position of the collation region of the white line intensity image. Specifically, in S23, first, a scoring map is created. The scoring map is a map in which the coefficient is set to 1 assuming that the current position of the vehicle 1 detected by the vehicle position detection unit 161 is most likely, and the coefficient decreases as the distance from the current position increases.

図23に示すように、このスコアリングマップと、S22で作成した相関値マップを掛け合わせることでスコアリングを行う。そして、スコアが最も高い位置を、マッチング位置とする。S23はマッチング位置決定部に相当する。   As shown in FIG. 23, scoring is performed by multiplying this scoring map and the correlation value map created in S22. The position with the highest score is set as the matching position. S23 corresponds to a matching position determination unit.

S24では、白線強度画像をグレースケールに変換し、S23で決定した白線強度画像の位置に対応する高精度地図151と、白線強度画像との差分の絶対値を求める。この絶対値が所定値以上であれば、変化点に決定する。   In S24, the white line intensity image is converted to gray scale, and the absolute value of the difference between the high accuracy map 151 corresponding to the position of the white line intensity image determined in S23 and the white line intensity image is obtained. If this absolute value is greater than or equal to a predetermined value, the change point is determined.

また、高精度地図151と白線強度画像との差分の絶対値をHSV色空間に置き換えて出力する。具体的には、HSV空間に置き換える際、S(彩度)、V(明度)は固定にし、H(色相)の値を変換する。また、上記差分の絶対値を0〜255に正規化する。この正規化した値をHの値とする。そして、Hの赤と青を入れ替えて、青が0、赤が255になるように割り当てる。これにより、道路情報としてペイントの増減等の変化点が色の違いで表される。   Further, the absolute value of the difference between the high-precision map 151 and the white line intensity image is replaced with the HSV color space and output. Specifically, when replacing with the HSV space, S (saturation) and V (lightness) are fixed, and the value of H (hue) is converted. Also, the absolute value of the difference is normalized to 0-255. Let this normalized value be the value of H. Then, red and blue of H are exchanged so that blue is 0 and red is 255. As a result, a change point such as an increase or decrease in paint is represented by a color difference as road information.

このようにして検出された変化点は、蓄積データ記憶部170に蓄積される。また、変化点の位置は、外部のシステムである更新情報活用システム2に提供される。更新情報活用システム2では、変化点を地図上にプロットしたり、リストを生成し、変化点すなわち道路が更新されたことを意味する道路更新情報を管理したりする。また、道路更新情報を期間別に比較できるようにして、どの期間に新しい道路が開通したかを確認できるようにしてもよい。   The change points detected in this way are accumulated in the accumulated data storage unit 170. The position of the change point is provided to the update information utilization system 2 that is an external system. The update information utilization system 2 plots change points on a map, generates a list, and manages change points, that is, road update information indicating that a road has been updated. Further, the road update information may be compared by period so that it can be confirmed in which period a new road is opened.

[実施形態の効果]
以上、説明したように、道路地図情報更新システム100は、カメラ110が撮像した前方画像180を俯瞰画像に変換する。俯瞰画像に変換することで、車両1からの距離によらず、道路幅が、実際の道路と同様に一定幅の画像になる。また、俯瞰画像に変換することで、建物、樹木など、路面ではない場所に存在している種々の物体を除去することができる。
[Effect of the embodiment]
As described above, the road map information update system 100 converts the front image 180 captured by the camera 110 into an overhead image. By converting to a bird's-eye view image, the road width becomes an image having a constant width, similar to an actual road, regardless of the distance from the vehicle 1. Also, by converting to a bird's-eye view image, it is possible to remove various objects such as buildings and trees that exist in places other than the road surface.

この俯瞰画像から生成した白線強度画像を、高精度地図151の一部である路面地図と照合する画像として用いるので、カメラ110の解像度が低くても、精度よく変化点を検出することができる。   Since the white line intensity image generated from the bird's-eye view image is used as an image to be compared with a road surface map that is a part of the high-accuracy map 151, the change point can be detected with high accuracy even when the resolution of the camera 110 is low.

また、本実施形態では、S7の処理を実行することで俯瞰画像から障害物を除去している。これにより、より精度よく変化点を検出することができる。   In the present embodiment, the obstacle is removed from the overhead image by executing the process of S7. Thereby, a change point can be detected more accurately.

また、本実施形態では、マッチング処理での相関値が最も高くなる白線強度画像の位置を、そのままマッチング位置とはせずに、車両位置検出部161が計測した現在位置に基づいて定まるスコアリングマップで相関値を補正している。これにより、より変化点の検出精度が向上する。   Further, in this embodiment, the scoring map determined based on the current position measured by the vehicle position detection unit 161 without directly setting the position of the white line intensity image having the highest correlation value in the matching process as the matching position. The correlation value is corrected by Thereby, the change point detection accuracy is further improved.

<第2実施形態>
次に、第2実施形態を説明する。この第2実施形態以下の説明において、それまでに使用した符号と同一番号の符号を有する要素は、特に言及する場合を除き、それ以前の実施形態における同一符号の要素と同一である。また、構成の一部のみを説明している場合、構成の他の部分については先に説明した実施形態を適用できる。
Second Embodiment
Next, a second embodiment will be described. In the following description of the second embodiment, elements having the same reference numerals as those used so far are the same as elements having the same reference numerals in the previous embodiments unless otherwise specified. Further, when only a part of the configuration is described, the above-described embodiment can be applied to the other parts of the configuration.

図24に、第2実施形態の道路地図情報更新システム200の構成を示す。第2実施形態の道路地図情報更新システム200は、演算部260が地図生成部265を備えている点が、第1実施形態の道路地図情報更新システム100と相違する。また、蓄積データ記憶部170には、生成地図画像171が記憶されている。生成地図画像171は、俯瞰画像を合成した地図である。   In FIG. 24, the structure of the road map information update system 200 of 2nd Embodiment is shown. The road map information update system 200 of the second embodiment is different from the road map information update system 100 of the first embodiment in that the calculation unit 260 includes a map generation unit 265. The accumulated data storage unit 170 stores a generated map image 171. The generated map image 171 is a map obtained by combining overhead images.

地図生成部265は、照合処理部164が変化点を検出した場合に、変化点の情報を反映した地図を生成する。地図生成部265の詳しい処理は図25を用いて説明する。   When the collation processing unit 164 detects a change point, the map generation unit 265 generates a map reflecting the change point information. Detailed processing of the map generation unit 265 will be described with reference to FIG.

図25において、S31では、重ね合わせ用の俯瞰画像を抽出する。具体的には、画像処理部162で生成した照合処理用の俯瞰画像から、S13で抽出した白線強度画像の照合領域に対応した領域を抽出する。図26に、画像処理部162で生成した照合処理用の俯瞰画像を示し、図27に、S31で抽出する重ね合わせ用の俯瞰画像を示す。なお、抽出した俯瞰画像に路面情報以外の物体が写っている箇所は使用領域から除く。S31で抽出する画像が地図画像である。   In FIG. 25, in S31, an overhead image for superimposition is extracted. Specifically, an area corresponding to the collation area of the white line intensity image extracted in S13 is extracted from the overhead image for collation processing generated by the image processing unit 162. FIG. 26 shows a bird's-eye view image for collation processing generated by the image processing unit 162, and FIG. 27 shows a bird's-eye view image for superposition extracted in S31. Note that a portion where an object other than road surface information is reflected in the extracted overhead image is excluded from the use area. The image extracted in S31 is a map image.

S32では、生成地図画像171に対して、S31で抽出した俯瞰画像を追加する位置を決定する。この位置は、S23で決定したマッチング位置である。   In S32, the position where the overhead image extracted in S31 is added to the generated map image 171 is determined. This position is the matching position determined in S23.

S33では、S32で決定した追加位置のうち、すでに生成地図画像171に画像が存在している部分について平均化画像を生成する。平均化画像は、すでにある画像と、今回追加する画像とを平均化した画像である。平均化することで、車両1の影等の路面以外の物体により生じる一時的な変化の影響を低減することができる。   In S33, an averaged image is generated for a portion where the image already exists in the generated map image 171 among the additional positions determined in S32. The averaged image is an image obtained by averaging an existing image and an image to be added this time. By averaging, the influence of a temporary change caused by an object other than the road surface such as a shadow of the vehicle 1 can be reduced.

また、平均化の際、図27にも示すように、カメラ110に近い側ほどウェイトを高くして、すでに存在している画像と平均化処理を行う。俯瞰画像の特性上、カメラ110に近いほど画像の解像度が高いからである。   Further, at the time of averaging, as shown in FIG. 27, the weight is increased toward the side closer to the camera 110, and the averaging process is performed with the existing image. This is because the resolution of the image is higher as it is closer to the camera 110 due to the characteristics of the overhead view image.

S34では、画像の重ね合わせを行い、生成地図画像171を更新する。重ね合わせの際、すでに生成地図画像171に画像が存在している部分については、S33で生成した平均化画像を、生成地図画像171に重ね合わせる。まだ生成地図画像171に画像が存在していない部分については、S31で抽出した俯瞰画像をそのまま生成地図画像171に重ね合わせる。   In S34, images are superimposed and the generated map image 171 is updated. At the time of superimposition, the averaged image generated in S33 is superimposed on the generated map image 171 for the portion where the image already exists in the generated map image 171. For portions where the image does not yet exist in the generated map image 171, the overhead image extracted in S31 is directly superimposed on the generated map image 171.

このようにして逐次更新する生成地図画像171は、変化点の画像を含むので、変化点における変化を画像により認識できる。そのため、計測台車を走行させることなく変化点を認識できるので、高精度地図151の更新コストを低減できる。また、更新内容を、一時的な情報として自動運転など車両制御に利用することもできる。   Since the generated map image 171 that is sequentially updated in this way includes the image of the change point, the change at the change point can be recognized from the image. For this reason, since the change point can be recognized without running the measurement carriage, the update cost of the high-accuracy map 151 can be reduced. In addition, the updated content can be used as temporary information for vehicle control such as automatic driving.

<第3実施形態>
第3実施形態では、画像処理部162は図28に示す処理を実行する。図28に示す処理は、図2に示す処理に対して、S4とS5の間にS4Aが追加されている。また、S5に代えてS5Aを実行する。
<Third Embodiment>
In the third embodiment, the image processing unit 162 executes the process shown in FIG. In the process shown in FIG. 28, S4A is added between S4 and S5 with respect to the process shown in FIG. Further, S5A is executed instead of S5.

S4Aでは、補正後前方画像181のピッチ変動量を算出する。S4Aの詳細処理は図29に示す。図29において、S41では、消失点領域画像386を決定する。図30、図31に例示しているように、消失点領域画像386は、補正後前方画像181において消失点を基準として定まる領域の画像である。図30および図31に示している消失点領域画像386は、消失点183(図11参照)を中心とし、1対の短辺が垂直、1対の長辺が水平な横長の矩形領域である。   In S4A, the pitch fluctuation amount of the corrected forward image 181 is calculated. The detailed process of S4A is shown in FIG. In FIG. 29, the vanishing point region image 386 is determined in S41. As illustrated in FIGS. 30 and 31, the vanishing point region image 386 is an image of a region that is determined based on the vanishing point in the corrected forward image 181. The vanishing point region image 386 shown in FIGS. 30 and 31 is a horizontally long rectangular region centered on the vanishing point 183 (see FIG. 11), with a pair of short sides being vertical and a pair of long sides being horizontal. .

S42では、前回のフレームで得た消失点領域画像386、すなわち前回の図28の実行において決定した消失点領域画像386と、このS42の直前に実行したS41で得た消失点領域画像386とをマッチングさせるマッチング処理を行う。図30は前回のフレームで得た消失点領域画像386であり、図31は今回のフレームで得た消失点領域画像386である。マッチング処理では、前回のフレームで得た消失点領域画像386を基準として、今回のフレームで得た消失点領域画像386を移動させて、2つの消失点領域画像386が最も一致するように今回のフレームで得た消失点領域画像386を移動させる。   In S42, the vanishing point region image 386 obtained in the previous frame, that is, the vanishing point region image 386 determined in the previous execution of FIG. 28, and the vanishing point region image 386 obtained in S41 executed immediately before S42 are obtained. A matching process for matching is performed. 30 is a vanishing point region image 386 obtained in the previous frame, and FIG. 31 is a vanishing point region image 386 obtained in the current frame. In the matching process, the vanishing point region image 386 obtained in the current frame is moved on the basis of the vanishing point region image 386 obtained in the previous frame, and the two vanishing point region images 386 are most closely matched. The vanishing point region image 386 obtained in the frame is moved.

S43では、今回のフレームで得た消失点領域画像386のS42における移動量を算出する。この移動量は、1フレームの間に車両1に生じたピッチ変動を意味する値として利用する。ここまでのS41〜S43が移動量算出部に相当する。   In S43, the movement amount in S42 of the vanishing point region image 386 obtained in the current frame is calculated. This amount of movement is used as a value that means pitch fluctuation that has occurred in the vehicle 1 during one frame. S41 to S43 so far correspond to a movement amount calculation unit.

S44では、前方画像180が入力される毎に繰り返し実行する図28、図29の処理において逐次S43で算出した移動量を積分する。以下、積分した値を位置ずれ積分値とする。この位置ずれ積分値は、ピッチ変動による消失点領域画像386の位置ずれと、ピッチ変動以外の静的な理由による消失点領域画像386の位置の変化を含む。ピッチ変動以外の静的な理由は、たとえば、車両1が上り坂を走行していることによるカメラ光軸の変化である。このS44が積分値算出部に相当する。   In S44, the movement amounts calculated in S43 are sequentially integrated in the processes of FIGS. 28 and 29 that are repeatedly executed each time the front image 180 is input. Hereinafter, the integrated value is referred to as a positional deviation integrated value. The integrated value of the position shift includes a position shift of the vanishing point region image 386 due to pitch variation and a change in the position of the vanishing point region image 386 due to a static reason other than the pitch variation. The static reason other than the pitch fluctuation is, for example, a change in the camera optical axis due to the vehicle 1 traveling uphill. S44 corresponds to an integral value calculation unit.

S45では、S44で算出した位置ずれ積分値の移動平均値を算出する。移動平均する区間は予め設定されている。移動平均値は、車両の静止状態での消失点領域画像386の位置を示すものとして用いる。位置ずれ積分値には、ピッチ変動以外の静的な理由に起因した値の変化も含まれている。移動平均値は、この静的な理由に起因する値を算出するものであり、移動平均区間は、この静的な理由に起因する値を算出できる区間に設定される。   In S45, a moving average value of the positional deviation integrated value calculated in S44 is calculated. The section for moving average is set in advance. The moving average value is used to indicate the position of the vanishing point region image 386 when the vehicle is stationary. The positional deviation integrated value includes a change in value due to a static reason other than pitch fluctuation. The moving average value is used to calculate a value resulting from this static reason, and the moving average section is set to a section in which a value resulting from this static reason can be calculated.

S46では、S44で算出した位置ずれ積分値と、S45で算出した移動平均値との差を算出する。この差をピッチ変動量δyとする。ピッチ変動量δyを、位置ずれ積分値−移動平均値とするか、移動平均値−位置ずれ積分値とするかは、予め定められていれば、いずれでもよい。S45、S46がピッチ変動量算出部に相当する。図32には、位置ずれ積分値、移動平均値、ピッチ変動量δyを示している。   In S46, the difference between the displacement integrated value calculated in S44 and the moving average value calculated in S45 is calculated. This difference is defined as a pitch fluctuation amount δy. Whether the pitch fluctuation amount δy is set to the positional deviation integral value−moving average value or the moving average value−position deviation integral value may be any as long as it is determined in advance. S45 and S46 correspond to the pitch fluctuation amount calculation unit. FIG. 32 shows the positional deviation integrated value, moving average value, and pitch fluctuation amount δy.

S46を実行後は、図28のS5Aに進む。S5Aではカメラ110の向きを検出する。カメラ110の向きは、第1実施形態で説明したように、具体的には、ヨー角rxとチルト角ryである。ヨー角rxは、第1実施形態で説明した式4から求める。チルト角ryは、式10から求める。式10に示すように、ヨー角rxは、画像中心184と消失点183とのy方向の距離Δyと、ピッチ変動量δyから算出する。
After executing S46, the process proceeds to S5A in FIG. In S5A, the orientation of the camera 110 is detected. The direction of the camera 110 is specifically the yaw angle rx and the tilt angle ry as described in the first embodiment. The yaw angle rx is obtained from Equation 4 described in the first embodiment. The tilt angle ry is obtained from Equation 10. As shown in Expression 10, the yaw angle rx is calculated from the distance Δy in the y direction between the image center 184 and the vanishing point 183 and the pitch fluctuation amount δy.

S5Aを実行した後の処理は第1実施形態と同じである。S6〜S9までを実行して、照合処理用の俯瞰画像と現在位置とを照合領域特定部163に出力する。   The processing after executing S5A is the same as in the first embodiment. Steps S <b> 6 to S <b> 9 are executed, and the bird's-eye view image for matching processing and the current position are output to the matching region specifying unit 163.

[ピッチ補正の効果]
図33にピッチ補正をしていない俯瞰画像を示し、図34にピッチ補正をした俯瞰画像を示している。ピッチ補正をした俯瞰画像が図28を実行して得られた俯瞰画像である。ピッチ補正をしていない俯瞰画像では下側から上側に向かうに従い、白線の間隔が広がっている。一方、ピッチ補正をした俯瞰画像では、白線の間隔は、ほぼ平行になっている。
[Effect of pitch correction]
FIG. 33 shows an overhead image without pitch correction, and FIG. 34 shows an overhead image with pitch correction. The bird's-eye view image after the pitch correction is the bird's-eye view image obtained by executing FIG. In the bird's-eye view image that has not been pitch-corrected, the interval between the white lines increases from the lower side toward the upper side. On the other hand, in the bird's-eye view image that has been subjected to pitch correction, the white line intervals are substantially parallel.

このようにピッチ補正をすることで、俯瞰画像内での白線の間隔を平行に近づけることができる。したがって、この俯瞰画像に基づいて行うその後の処理の精度が向上する。   By correcting the pitch in this way, the white line intervals in the overhead image can be made parallel. Therefore, the accuracy of subsequent processing performed based on this overhead view image is improved.

<第4実施形態>
次に第4実施形態を説明する。第1実施形態では、照合処理部164は、1フレームごとにマッチング位置を別々に決定していた。これに対して、第4実施形態では、最終的には1フレームごとにマッチング位置を決定するが、その前処理として、複数フレームを結合させた画像に対してマッチング位置を決定する。その後、順次、マッチング位置を決定する画像を小さくする。以下、詳しく説明する。
<Fourth embodiment>
Next, a fourth embodiment will be described. In the first embodiment, the matching processing unit 164 separately determines the matching position for each frame. On the other hand, in the fourth embodiment, the matching position is finally determined for each frame, but as the preprocessing, the matching position is determined for an image obtained by combining a plurality of frames. Thereafter, the image for determining the matching position is sequentially reduced. This will be described in detail below.

第4実施形態では、上述したように、複数フレームを結合させた画像に対してマッチング位置を決定する。したがって、画像処理部162は、複数フレーム分の前方画像180が入力された場合に処理を実行する。第4実施形態において画像処理部162が実行する処理の内容は、処理対象とする前方画像180が複数フレーム分である以外は、これまでの実施形態と同じである。   In the fourth embodiment, as described above, a matching position is determined for an image obtained by combining a plurality of frames. Therefore, the image processing unit 162 executes the process when the front image 180 for a plurality of frames is input. The contents of the processing executed by the image processing unit 162 in the fourth embodiment are the same as those in the previous embodiments, except that the front image 180 to be processed is for a plurality of frames.

複数フレームの数は、適宜設定することができる。たとえば、ドライブレコーダーにおいて1イベントで録画された総フレームとすることができる。   The number of the plurality of frames can be set as appropriate. For example, it can be the total number of frames recorded in one event in the drive recorder.

照合領域特定部163は、画像処理部162が生成した照合処理用の俯瞰画像の全部に対して照合処理領域を特定する。第4実施形態において照合処理部164が実行する処理の内容は、処理対象とする俯瞰画像が複数フレームである以外は、これまでの実施形態と同じである。   The collation area specifying unit 163 specifies a collation processing area for all of the collation processing overhead images generated by the image processing unit 162. In the fourth embodiment, the contents of the processing executed by the matching processing unit 164 are the same as those in the previous embodiments except that the overhead image to be processed is a plurality of frames.

第4実施形態では、照合処理部164は図35に示す処理を実行する。照合処理部164は、照合領域特定部163が照合領域を特定した場合に、図35に示す処理を実行する。   In the fourth embodiment, the collation processing unit 164 executes the process shown in FIG. The collation processing unit 164 executes the process shown in FIG. 35 when the collation area specifying unit 163 specifies the collation area.

S51では、最初の照合領域401(図36参照)を決定する。最初の照合領域401は、複数フレーム分の白線強度画像の照合領域を結合させて得られる領域である。図36に示した最初の照合領域401は、ドライブレコーダーの1イベント分の画像データに含まれる全部のフレームからそれぞれ決定した白線強度画像の照合領域を結合させて得られる領域である。   In S51, the first collation area 401 (see FIG. 36) is determined. The first matching area 401 is an area obtained by combining matching areas of white line intensity images for a plurality of frames. The first collation area 401 shown in FIG. 36 is an area obtained by combining the collation areas of the white line intensity images respectively determined from all the frames included in the image data for one event of the drive recorder.

S52では、S51で決定した最初の照合領域401に基づいて定まる、高精度地図のマッチング対象領域に対して、図18のS21と同じ処理を行う。照合領域特定部163は、図14のS14で説明したように、照合領域をもとにして高精度地図151の路面地図からマッチング対象領域を決定している。つまり、照合領域特定部163が1フレーム分の照合領域に対する路面地図のマッチング対象領域を決定している。したがって、このS52では、照合領域特定部163が決定した1フレーム分の照合領域に対する路面地図のマッチング対象領域を、S51で決定した最初の照合領域401に含まれる全フレーム分、足し合わせた領域に対して距離変換を行う。   In S52, the same processing as S21 of FIG. 18 is performed on the matching target area of the high-precision map determined based on the first matching area 401 determined in S51. As described in S <b> 14 of FIG. 14, the matching area specifying unit 163 determines a matching target area from the road map of the high-precision map 151 based on the matching area. That is, the matching area specifying unit 163 determines the matching target area of the road map for the matching area for one frame. Therefore, in S52, the matching target area of the road surface map for the matching area for one frame determined by the matching area specifying unit 163 is added to all frames included in the first matching area 401 determined in S51. The distance conversion is performed on it.

S53では、S51で決定した最初の照合領域401に含まれる全部の白線強度画像の照合領域を重ね合わせる。重ね合わせる処理は、第2実施形態で説明した地図生成部265と同じ処理である。   In S53, the collation areas of all the white line intensity images included in the first collation area 401 determined in S51 are overlaid. The process of superimposing is the same process as the map generation unit 265 described in the second embodiment.

S54では、照合領域に対してマッチング処理を行い、相関値マップを作成する。照合領域は、S51〜S53を実行した後の初回のS54の実行であれば、S51で決定した最初の照合領域401である。その後の照合領域は、後述するS59が実行されて決定される。S54の処理は、領域が異なる以外は、図18のS22の処理と同じである。したがって、S54は相関値マップ作成部に相当する。   In S54, matching processing is performed on the collation region, and a correlation value map is created. The collation area is the first collation area 401 determined in S51 if it is the first execution of S54 after the execution of S51 to S53. The subsequent collation area is determined by executing S59 described later. The process of S54 is the same as the process of S22 of FIG. 18 except that the areas are different. Therefore, S54 corresponds to a correlation value map creation unit.

S55では、スコアリングおよびマッチング位置の決定を行う。このS55の処理は、図18のS23と同じである。したがって、S55はマッチング位置決定部に相当する。   In S55, scoring and matching position determination are performed. The process of S55 is the same as S23 of FIG. Therefore, S55 corresponds to a matching position determination unit.

S56では、全部の照合領域のマッチング位置の決定が終了したか否かを判断する。最初の照合領域401は1つであるが、後述するS59を実行することで、1つの照合領域から複数の部分領域が決定される。そして、各部分領域が次の照合領域になる。したがって、照合領域が複数存在することがある。照合領域が複数存在している場合、順次、マッチング位置を決定することになる。そこで、このS56では、全部の照合領域に対するマッチング位置の決定が終了したか否かを判断する。   In S56, it is determined whether or not the determination of the matching positions of all the collation areas has been completed. Although the initial collation area 401 is one, a plurality of partial areas are determined from one collation area by executing S59 described later. Each partial area becomes the next collation area. Therefore, there may be a plurality of collation areas. When there are a plurality of collation areas, the matching positions are sequentially determined. Therefore, in S56, it is determined whether or not the determination of the matching position for all the collation regions has been completed.

S56の判断がNOである場合には、S57において、マッチング位置を決定する照合領域を、まだマッチング位置を決定していない照合領域に変更する。その後、S54、S55を実行して、マッチング位置を決定する。   If the determination in S56 is NO, in S57, the matching area for determining the matching position is changed to a matching area for which the matching position has not yet been determined. Thereafter, S54 and S55 are executed to determine the matching position.

S56の判断がYESであればS58に進む。S58では、マッチング位置を決定した照合領域が1フレーム分であるか否かを判断する。1フレームは最終フレーム数に相当している。本実施形態では、最終フレーム数を1フレームとしているが、それよりも多いフレーム数(たとえば2フレーム)を最終フレーム数とすることもできる。S58の判断がNOであればS59に進む。   If judgment of S56 is YES, it will progress to S58. In S58, it is determined whether or not the collation region for which the matching position has been determined is for one frame. One frame corresponds to the final number of frames. In the present embodiment, the final frame number is one frame, but a larger frame number (for example, two frames) may be the final frame number. If judgment of S58 is NO, it will progress to S59.

S59では、各照合領域を分割して部分領域を作成する。図36には、最初の照合領域401と、部分領域402a、402b、402c、402d、402eが示されている。また、図36には、高精度地図151の路面地図も示されている。部分領域402a、402b、402c、402d、402eを区別しないときは、部分領域402と記載する。部分領域402は、2回目の照合領域になる部分である。   In S59, each verification area is divided to create a partial area. FIG. 36 shows an initial collation area 401 and partial areas 402a, 402b, 402c, 402d, and 402e. FIG. 36 also shows a road map of the high accuracy map 151. When the partial areas 402a, 402b, 402c, 402d, and 402e are not distinguished, they are described as partial areas 402. The partial area 402 is a part that becomes the second verification area.

部分領域402は、最初の照合領域401に含まれる領域であって、最初の照合領域401の一部の領域である。また、部分領域402は、最初の照合領域401から区画線である可能性がある部分を含む範囲である。区画線である可能性は、たとえば、エッジ強度の変化から決定する。   The partial area 402 is an area included in the first collation area 401 and is a partial area of the first collation area 401. The partial area 402 is a range including a portion that may be a lane marking from the first collation area 401. The possibility of being a lane marking is determined from, for example, a change in edge strength.

最初の照合領域401に対する部分領域402の大きさは、たとえば、半分あるいはそれ以上である。最初の照合領域401に対して部分領域402が小さすぎると、少しずつ位置合わせをすることで誤ったマッチング位置を決定してしまうことを抑制する効果が得られにくくなるからである。部分領域402の数は、1または複数であり、任意に設定できる。ただし、複数に設定することが好ましい。図36の例では、部分領域402の数は5である。   The size of the partial area 402 with respect to the first collation area 401 is, for example, half or more. This is because if the partial area 402 is too small with respect to the first collation area 401, it is difficult to obtain an effect of suppressing the erroneous matching position by performing the positioning little by little. The number of partial areas 402 is one or more, and can be set arbitrarily. However, it is preferable to set a plurality. In the example of FIG. 36, the number of partial areas 402 is five.

また、部分領域402の数を複数に設定している場合、それぞれの部分領域402は、互いに一部が重なるようにすることが好ましい。ある部分領域402の一部が他の部分領域402の一部にもなっていると、部分領域402に対するマッチング位置が誤った位置になってしまうことを抑制できるからである。   In the case where the number of partial areas 402 is set to a plurality, it is preferable that the partial areas 402 partially overlap each other. This is because if a part of a certain partial region 402 is also a part of another partial region 402, it is possible to suppress the matching position with respect to the partial region 402 from being an incorrect position.

作成した部分領域は次の照合領域となる。次の照合領域を決定した後、S54以下を実行する。2回目以降のS55の実行においては、マッチング対象領域は、直前のS59で部分領域を作成する対象とした照合領域である。S54〜S59を実行することで、照合領域が1フレームになるまで、照合領域を順次小さくしつつ、照合領域のマッチング位置を決定する。   The created partial area becomes the next collation area. After determining the next collation area, S54 and subsequent steps are executed. In the second and subsequent executions of S55, the matching target area is a collation area that is a target for creating a partial area in the immediately preceding S59. By executing S54 to S59, the matching position of the matching area is determined while sequentially reducing the matching area until the matching area reaches one frame.

図37には、1回目の部分領域402aから作成した2回目の部分領域403a、403b、403c、403d、403eを例示している。部分領域403a、403b、403c、403d、403eを区別しないときは、部分領域403と記載する。部分領域403は、3回目の照合領域になる部分である。   FIG. 37 illustrates second partial areas 403a, 403b, 403c, 403d, and 403e created from the first partial area 402a. When the partial areas 403a, 403b, 403c, 403d, and 403e are not distinguished, they are described as partial areas 403. The partial area 403 is a part that becomes the third collation area.

部分領域403a、403b、403c、403d、403eは、部分領域402aの一部の領域である。また、各部分領域403a、403b、403c、403d、403eは区画線である可能性がある部分を含む範囲である。なお、区画線である可能性がある部分が、部分領域403を決定しようとしている照合領域の縁部付近にある場合、部分領域403の一部が照合領域の外に位置するように、部分領域403を決定してもよい。つまり、照合領域から決定する部分領域は、その一部が照合領域の外に位置していてもよい。区画線が縁部よりも中央寄りに位置するようにすることで、部分領域403の縁部に区画線が位置している場合と比較して、マッチング位置の精度が向上するからである。なお、図37を例にして、部分領域403a、403b、403c、403d、403eに対するマッチング対象領域は、部分領域402aになる。   The partial areas 403a, 403b, 403c, 403d, and 403e are partial areas of the partial area 402a. Each of the partial areas 403a, 403b, 403c, 403d, and 403e is a range including a portion that may be a lane marking. In addition, when the part that may be a lane marking is near the edge of the collation area for which the partial area 403 is to be determined, the partial area is so that a part of the partial area 403 is located outside the collation area. 403 may be determined. That is, a part of the partial area determined from the collation area may be located outside the collation area. This is because by making the lane marking closer to the center than the edge, the accuracy of the matching position is improved as compared with the case where the lane marking is positioned at the edge of the partial region 403. 37, the matching target area for the partial areas 403a, 403b, 403c, 403d, and 403e is the partial area 402a.

2回目の部分領域403は、1回目の部分領域402と同様、5つ作成されており、互いに一部が重複するように作成されている。3回目以降の部分領域(すなわち4回目以降の照合領域)の作成も、1回目、2回目の部分領域402、403と同様にして作成する。   As with the first partial area 402, five second partial areas 403 are created so that some of them overlap each other. The third and subsequent partial areas (that is, the fourth and subsequent collation areas) are also created in the same manner as the first and second partial areas 402 and 403.

S59で複数の照合領域が作成され、かつ、照合領域の一部が互いに重複している場合、重複領域については、その重複領域を持つ複数の照合領域から、それぞれマッチング位置が得られる。つまり、重複領域については、複数のマッチング位置が得られる。重複領域の位置は、複数のマッチング位置を平均するなど、複数のマッチング位置を両方とも考慮して決定する。照合領域のうち重複領域以外の領域も、重複領域の位置に合わせて、位置を決定する。このように重複領域の位置を、複数の照合領域のマッチング位置を考慮して決定することで、重複領域がないように照合領域を決定する場合に比較して、照合領域のマッチング位置を誤った位置に決定してしまうことを抑制できる。   When a plurality of collation areas are created in S59 and some of the collation areas overlap each other, for the overlapping area, the matching positions are obtained from the plurality of collation areas having the overlap areas. That is, a plurality of matching positions are obtained for the overlapping region. The position of the overlapping region is determined in consideration of both of the plurality of matching positions, such as averaging the plurality of matching positions. Among the verification areas, the areas other than the overlapping area are determined in accordance with the position of the overlapping area. In this way, the position of the overlapping area is determined in consideration of the matching positions of a plurality of matching areas, and the matching position of the matching area is incorrect compared to the case where the matching area is determined so that there is no overlapping area. It can suppress determining to a position.

照合領域が1フレーム分になると、S58の判断がYESになりS60に進む。S60では、変化点を抽出する。S60の処理は図18のS24と同じである。   When the collation area is one frame, the determination in S58 is YES and the process proceeds to S60. In S60, a change point is extracted. The process of S60 is the same as S24 of FIG.

第4実施形態の照合処理部164は、上述したように、大きな照合領域でマッチング位置を決定し、順次、その照合領域を小さくしつつマッチング位置を決定する。これにより、小さい領域では、ある照合領域の画像に類似する画像がその照合領域の本来の位置とは異なる位置にも存在していたとしても、マッチング位置を誤った位置に決定してしまうことが抑制できる。   As described above, the matching processing unit 164 of the fourth embodiment determines a matching position in a large matching area, and sequentially determines a matching position while reducing the matching area. As a result, in a small area, even if an image similar to an image in a certain collation area exists at a position different from the original position of the collation area, the matching position may be determined as an incorrect position. Can be suppressed.

以上、本実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、次の変形例も開示範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施できる。   Although the present embodiment has been described above, the present disclosure is not limited to the above-described embodiment, and the following modified examples are also included in the disclosure range, and various modifications can be made without departing from the scope other than the following. Can be changed and implemented.

<変形例1>
第2実施形態の地図生成部265が行う処理の一部を、車両1の外部にあるセンタが行ってもよい。この場合には、S31で抽出した画像をセンタへ送信する。そして、センタで、S32以降の処理を行う。
<Modification 1>
A part of the processing performed by the map generation unit 265 of the second embodiment may be performed by a center outside the vehicle 1. In this case, the image extracted in S31 is transmitted to the center. Then, the processing after S32 is performed at the center.

<変形例2>
第2実施形態の生成地図画像171は、照合処理用の俯瞰画像を、生成地図画像171を生成する画像としていた。しかし、生成地図画像171を生成する画像として白線強度画像を用いてもよい。
<Modification 2>
The generated map image 171 of the second embodiment uses a bird's-eye view image for matching processing as an image for generating the generated map image 171. However, a white line intensity image may be used as an image for generating the generated map image 171.

<変形例3>
画像処理部162、照合領域特定部163、照合処理部164の機能をセンタが備え、車両1は、前方画像180と、車両位置検出部161が検出した車両1の現在位置を、逐次センタに送信するようにしてもよい。また、画像処理部162の処理までを車両1で行い、照合領域特定部163および照合処理部164の処理をセンタで行ってもよい。また、照合領域特定部163の処理までを車両1で行い、照合処理部164の処理をセンタで行ってもよい。これらの場合には、車両1は、センタと通信するための通信部を備える。
<Modification 3>
The center includes the functions of the image processing unit 162, the collation region specifying unit 163, and the collation processing unit 164, and the vehicle 1 sequentially transmits the front image 180 and the current position of the vehicle 1 detected by the vehicle position detection unit 161 to the center. You may make it do. Alternatively, the processing up to the image processing unit 162 may be performed by the vehicle 1, and the processing of the matching area specifying unit 163 and the matching processing unit 164 may be performed at the center. Further, the processing up to the collation area specifying unit 163 may be performed by the vehicle 1, and the processing of the collation processing unit 164 may be performed at the center. In these cases, the vehicle 1 includes a communication unit for communicating with the center.

なお、照合領域特定部163の処理を車両1で行う場合、センタは車両1へ、処理を行うエリアを指定することもできる。そして、指定したエリアについての高精度地図151のみを車両1へ送信してもよい。これにより、車両1は、高精度地図151を記憶するための容量および通信量を削減でき、また、センタも処理負荷を軽減できる。   In addition, when the process of the collation area | region specific | specification part 163 is performed with the vehicle 1, the center can also designate the area which processes to the vehicle 1. FIG. Then, only the high-precision map 151 for the designated area may be transmitted to the vehicle 1. Thereby, the vehicle 1 can reduce the capacity | capacitance and communication amount for memorize | storing the high precision map 151, and the center can also reduce processing load.

<変形例4>
カメラ110として、車両の後方を撮像するカメラを用いてもよい。
<Modification 4>
A camera that captures the rear of the vehicle may be used as the camera 110.

1:車両 2:更新情報活用システム 100:道路地図情報更新システム 110:カメラ 120:パラメータ記憶部 130:GPS受信機 140:挙動検出センサ 150:地図記憶部 151:高精度地図 160:演算部 161:車両位置検出部 162:画像処理部 163:照合領域特定部 164:照合処理部 170:蓄積データ記憶部 171:生成地図画像 180:前方画像 181:補正後前方画像 182:区画線 183:消失点 184:画像中心 185:ディストーション補正画像 200:道路地図情報更新システム 260:演算部 265:地図生成部 386:消失点領域画像 401:最初の照合領域 402:部分領域 S2:歪補正処理部 S4:消失点検出部 S5:カメラ向き検出部 S6 俯瞰変換部、 S7 障害物除去処理部 S22、S54:相関値マップ作成部 S23、S55:マッチング位置決定部 S41、S42、S43:移動量算出部 S44:積分値算出部 S45、S46:ピッチ変動量算出部 δy:ピッチ変動量 1: Vehicle 2: Update information utilization system 100: Road map information update system 110: Camera 120: Parameter storage unit 130: GPS receiver 140: Behavior detection sensor 150: Map storage unit 151: High-precision map 160: Calculation unit 161: Vehicle position detection unit 162: Image processing unit 163: Collation area specifying unit 164: Collation processing unit 170: Accumulated data storage unit 171: Generated map image 180: Front image 181: Front image after correction 182: Grading line 183: Vanishing point 184 : Image center 185: Distortion correction image 200: Road map information update system 260: Calculation unit 265: Map generation unit 386: Vanishing point region image 401: First collation region 402: Partial region S2: Distortion correction processing unit S4: Disappearance inspection Unit S5: Camera orientation detection unit S6 Overhead conversion unit, S7 Obstacle removal processing unit S22, S54: Correlation value map creation unit S23, S55: Matching position determination unit S41, S42, S43: Movement amount calculation unit S44: Integration value calculation Part S45, S46: Pitch fluctuation amount calculation part δy: Pitch fluctuation quantity

Claims (9)

車両に備えられ、前記車両の周辺を撮像するカメラ(110)と、
前記カメラが撮像した画像を俯瞰画像に変換する俯瞰変換部(S6)と、
路面地図を含んだ道路地図(151)を記憶する地図記憶部(150)と、
前記俯瞰画像と前記路面地図とを照合して、前記路面地図に対して、実際の路面に変化が生じた位置である変化点が存在するか否かを決定する照合処理部(164)とを備える地図変化点検出装置。
A camera (110) provided in the vehicle for imaging the periphery of the vehicle;
An overhead conversion unit (S6) that converts an image captured by the camera into an overhead image;
A map storage unit (150) for storing a road map (151) including a road surface map;
A collation processing unit (164) that collates the bird's-eye view image with the road surface map and determines whether or not there is a change point that is a position where the actual road surface has changed with respect to the road surface map; Map change point detection device provided.
前記俯瞰画像から検出できる道路区画線の本数に基づいて、前記俯瞰画像から照合に用いる車両幅方向の領域を決定する照合領域特定部(163)を備える請求項1に記載の地図変化点検出装置。   The map change point detection device according to claim 1, further comprising a collation area specifying unit (163) that determines a region in a vehicle width direction used for collation from the overhead image based on the number of road lane markings that can be detected from the overhead image. . 前記俯瞰画像に対して、前記路面地図に含まれている物体の色を指定し、指定した色以外は黒に変換することで、前記俯瞰画像に含まれている障害物を除去する障害物除去処理部(S7)を備え、
前記照合処理部は、前記障害物が除去された後の前記俯瞰画像と前記路面地図とを照合する請求項1または2に記載の地図変化点検出装置。
Obstacle removal that removes obstacles included in the overhead image by specifying the color of the object included in the road map for the overhead image and converting the color other than the specified color to black A processing unit (S7),
The map change point detection device according to claim 1 or 2, wherein the collation processing unit collates the overhead image after the obstacle is removed with the road map.
前記照合処理部は、前記路面地図を距離変換し、距離変換した後の前記路面地図を前記俯瞰画像と照合する請求項1〜3のいずれか1項に記載の地図変化点検出装置。   The map change point detection device according to claim 1, wherein the collation processing unit performs distance conversion on the road map, and collates the road map after the distance conversion with the overhead image. 請求項2において、
前記照合領域特定部は、前記俯瞰画像から検出できる道路区画線の本数に基づいて、照合に用いる前記俯瞰画像から、照合に用いる領域である照合領域を抽出するとともに、前記路面地図から、現在位置を基準として定まる一定領域をマッチング対象領域に特定し、
前記照合処理部は、
前記路面地図の前記マッチング対象領域に対する、照合に用いる前記俯瞰画像の前記照合領域の相関値を、前記照合領域の位置を変化させつつ算出することで、前記マッチング対象領域に対する前記照合領域の相対位置と前記相関値との関係である相関値マップを作成する相関値マップ作成部(S22、S54)と、
現在位置が最も確からしさが高く前記現在位置から離れるほど係数が低くなるスコアリングマップと前記相関値マップとを掛け合わせて得られるスコアを、前記マッチング対象領域に対する前記照合領域の位置別に算出し、前記スコアが最も高い前記照合領域の位置をマッチング位置に決定するマッチング位置決定部(S23、S55)を備え、
前記照合領域の位置を前記マッチング位置として、照合用の前記俯瞰画像と前記路面地図の前記路面地図とを照合する地図変化点検出装置。
In claim 2,
The collation area specifying unit extracts a collation area that is an area used for collation from the bird's-eye view image used for collation based on the number of road lane markings that can be detected from the bird's-eye view image. A certain area determined based on the
The collation processing unit
Relative position of the matching area with respect to the matching target area by calculating the correlation value of the matching area of the overhead image used for matching with the matching target area of the road map while changing the position of the matching area A correlation value map creating unit (S22, S54) for creating a correlation value map that is a relationship between the correlation value and the correlation value;
A score obtained by multiplying the correlation map and the scoring map in which the current position is most likely and the coefficient decreases as the distance from the current position increases, is calculated for each position of the matching area with respect to the matching target area, A matching position determining unit (S23, S55) that determines the position of the matching region having the highest score as a matching position;
The map change point detection apparatus which collates the bird's-eye view image for collation and the road surface map of the road surface map by using the position of the collation area as the matching position.
請求項5において、
前記照合処理部は、
前記カメラにより撮像された複数のフレームを合成して最初の照合領域(401)を生成し、
前記相関値マップ作成部(S54)による前記相関値マップの作成および前記マッチング位置決定部(S55)によるマッチング位置の決定を、前記最初の照合領域から開始し、
前記マッチング位置決定部による前記マッチング位置の決定後、1つの前記照合領域に含まれるフレーム数が最終フレーム数よりも大きい場合には、前記照合領域から部分領域(402)を決定し、
決定した前記部分領域を前記照合領域として、前記相関値マップ作成部による前記相関値マップの作成および前記マッチング位置決定部による前記マッチング位置の決定を、前記照合領域に含まれるフレーム数が前記最終フレーム数になるまで繰り返す地図変化点検出装置。
In claim 5,
The collation processing unit
A plurality of frames captured by the camera are combined to generate an initial collation area (401),
The creation of the correlation value map by the correlation value map creation unit (S54) and the determination of the matching position by the matching position determination unit (S55) are started from the first collation region,
After the determination of the matching position by the matching position determination unit, if the number of frames included in one verification area is larger than the final frame number, a partial area (402) is determined from the verification area,
Using the determined partial area as the collation area, the correlation value map creation unit creates the correlation value map and the matching position decision unit decides the matching position. The number of frames included in the collation area is the final frame. Map change point detection device that repeats until the number is reached.
前記カメラが撮像した画像に対して、ディストーション補正およびボリューム歪補正を行う歪補正処理部(S2)と、
前記歪補正処理部により補正された後の画像から消失点を検出する消失点検出部(S4)と、
前記消失点検出部が検出した前記消失点と画像中心との位置の差に基づいて前記カメラの光軸の向きを検出するカメラ向き検出部(S5、S5A)とを備え、
前記俯瞰変換部は、前記カメラ向き検出部が検出した前記カメラの光軸の向きを、上方から下方に向かう変換をすることで、前記カメラが撮像した画像を前記俯瞰画像に変換する請求項1〜5のいずれか1項に記載の地図変化点検出装置。
A distortion correction processing unit (S2) that performs distortion correction and volume distortion correction on an image captured by the camera;
A vanishing point detection unit (S4) for detecting a vanishing point from the image after being corrected by the distortion correction processing unit;
A camera direction detection unit (S5, S5A) for detecting the direction of the optical axis of the camera based on the difference in position between the vanishing point and the image center detected by the vanishing point detection unit;
The overhead view conversion unit converts an image captured by the camera into the overhead view image by converting the direction of the optical axis of the camera detected by the camera direction detection unit from the upper side to the lower side. The map change point detection apparatus of any one of -5.
請求項7において、
前記歪補正処理部により補正された後の画像の一部であって、前記消失点検出部により検出された前記消失点に基づいて定まる領域の画像である消失点領域画像を逐次決定し、時間的に連続する2つの前記消失点領域画像をマッチングさせる際、2つの前記消失点領域画像のうち前の時間の前記消失点領域画像を基準として、後の時間の前記消失点領域画像を画像上下方向へ移動させる移動量を算出する移動量算出部(S41、S42、S43)と、
前記移動量算出部が算出した画像上下方向への移動量の積分値である位置ずれ積分値を算出する積分値算出部(S44)と、
前記積分値算出部が算出した前記位置ずれ積分値の移動平均値を逐次算出し、前記移動平均値と、前記移動量算出部が算出した前記移動量との差であるピッチ変動量(δy)を算出するピッチ変動量算出部(S45、S46)とを備え、
前記カメラ向き検出部(S5A)は、前記消失点検出部が検出した前記消失点と画像中心との位置の差と、前記ピッチ変動量とに基づいて、前記カメラの光軸の向きを検出する地図変化点検出装置。
In claim 7,
A vanishing point region image which is a part of an image after being corrected by the distortion correction processing unit and is an image of a region determined based on the vanishing point detected by the vanishing point detection unit is sequentially determined, and time When matching two vanishing point region images that are consecutive in succession, the vanishing point region image at a later time is taken up and down with respect to the vanishing point region image at the previous time among the two vanishing point region images. A movement amount calculation unit (S41, S42, S43) for calculating a movement amount to be moved in the direction;
An integral value calculation unit (S44) for calculating a position shift integral value that is an integral value of the movement amount in the vertical direction of the image calculated by the movement amount calculation unit;
A pitch fluctuation amount (δy) that is a difference between the moving average value and the moving amount calculated by the moving amount calculating unit is sequentially calculated as a moving average value of the positional deviation integrated value calculated by the integral value calculating unit. And a pitch fluctuation amount calculation unit (S45, S46) for calculating
The camera orientation detection unit (S5A) detects the orientation of the optical axis of the camera based on the position difference between the vanishing point and the image center detected by the vanishing point detection unit and the pitch fluctuation amount. Map change point detection device.
前記車両の位置を検出する車両位置検出部(161)と、
前記俯瞰画像に基づいて定まる地図画像を、前記俯瞰画像を生成した画像が撮像されたときの前記車両の位置の前記地図画像とすることで、前記俯瞰画像から地図を生成する地図生成部(265)を備える請求項1〜6のいずれか1項に記載の地図変化点検出装置。
A vehicle position detector (161) for detecting the position of the vehicle;
A map generation unit (265) that generates a map from the overhead image by setting the map image determined based on the overhead image as the map image at the position of the vehicle when the image that generated the overhead image is captured. The map change point detection apparatus of any one of Claims 1-6 provided with this.
JP2018021191A 2017-06-09 2018-02-08 Map change point detector Active JP6822427B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/018296 WO2018225446A1 (en) 2017-06-09 2018-05-11 Map points-of-change detection device
US16/682,538 US11270131B2 (en) 2017-06-09 2019-11-13 Map points-of-change detection device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017114572 2017-06-09
JP2017114572 2017-06-09

Publications (3)

Publication Number Publication Date
JP2019003606A true JP2019003606A (en) 2019-01-10
JP2019003606A5 JP2019003606A5 (en) 2019-05-30
JP6822427B2 JP6822427B2 (en) 2021-01-27

Family

ID=65004889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018021191A Active JP6822427B2 (en) 2017-06-09 2018-02-08 Map change point detector

Country Status (1)

Country Link
JP (1) JP6822427B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597987A (en) * 2020-05-15 2020-08-28 北京百度网讯科技有限公司 Method, apparatus, device and storage medium for generating information
JP2020140662A (en) * 2019-03-01 2020-09-03 パナソニックIpマネジメント株式会社 Image correction device, image generation device, camera system and vehicle
WO2021125796A1 (en) * 2019-12-16 2021-06-24 Samsung Electronics Co., Ltd. Method and apparatus for regeneration and prediction of tree map
JP2021103284A (en) * 2019-12-24 2021-07-15 コリア エクスプレスウェイ コーポレーション Object change detection system and method thereof for updating high-precision road map
CN113160594A (en) * 2020-01-23 2021-07-23 丰田自动车株式会社 Change point detection device and map information distribution system
US11477371B2 (en) 2020-06-22 2022-10-18 Toyota Jidosha Kabushiki Kaisha Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230834A (en) * 1999-02-10 2000-08-22 Daihatsu Motor Co Ltd Updating equipment of road map information and its control method
JP2000284686A (en) * 1999-03-30 2000-10-13 Toyota Motor Corp Method of matching photographed images, map updating device utilizing same method, and updating method therefor
JP2009069900A (en) * 2007-09-10 2009-04-02 Denso Corp Vehicular navigation device
JP2011055342A (en) * 2009-09-03 2011-03-17 Honda Motor Co Ltd Imaging apparatus for vehicle
WO2012157379A1 (en) * 2011-05-13 2012-11-22 日立建機株式会社 Device for monitoring area around working machine
JP2016196217A (en) * 2015-04-02 2016-11-24 アイシン精機株式会社 Periphery monitoring device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230834A (en) * 1999-02-10 2000-08-22 Daihatsu Motor Co Ltd Updating equipment of road map information and its control method
JP2000284686A (en) * 1999-03-30 2000-10-13 Toyota Motor Corp Method of matching photographed images, map updating device utilizing same method, and updating method therefor
JP2009069900A (en) * 2007-09-10 2009-04-02 Denso Corp Vehicular navigation device
JP2011055342A (en) * 2009-09-03 2011-03-17 Honda Motor Co Ltd Imaging apparatus for vehicle
WO2012157379A1 (en) * 2011-05-13 2012-11-22 日立建機株式会社 Device for monitoring area around working machine
JP2016196217A (en) * 2015-04-02 2016-11-24 アイシン精機株式会社 Periphery monitoring device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
村井 陽介 外4名: "弱識別器の応答に基づく類似シルエット画像選択によるChamfer Matchingを用いた人領域のセ", 電子情報通信学会論文誌 (J94−D) 第4号 情報・システム, vol. 第J94-D巻 第4号, JPN6020022073, 1 April 2011 (2011-04-01), JP, pages 730 - 741, ISSN: 0004294120 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7153889B2 (en) 2019-03-01 2022-10-17 パナソニックIpマネジメント株式会社 Image correction device, image generation device, camera system and vehicle
JP2020140662A (en) * 2019-03-01 2020-09-03 パナソニックIpマネジメント株式会社 Image correction device, image generation device, camera system and vehicle
WO2020179165A1 (en) * 2019-03-01 2020-09-10 パナソニックIpマネジメント株式会社 Image correction device, image generation device, camera system, and vehicle
WO2021125796A1 (en) * 2019-12-16 2021-06-24 Samsung Electronics Co., Ltd. Method and apparatus for regeneration and prediction of tree map
US11551415B2 (en) 2019-12-16 2023-01-10 Samsung Electronics Co., Ltd. Method and apparatus for regeneration and prediction of tree map
JP2021103284A (en) * 2019-12-24 2021-07-15 コリア エクスプレスウェイ コーポレーション Object change detection system and method thereof for updating high-precision road map
US11619496B2 (en) 2019-12-24 2023-04-04 Korea Expressway Corp. System and method of detecting change in object for updating high-definition map
JP2021117048A (en) * 2020-01-23 2021-08-10 トヨタ自動車株式会社 Change point detector and map information delivery system
JP7173062B2 (en) 2020-01-23 2022-11-16 トヨタ自動車株式会社 Change point detection device and map information distribution system
CN113160594A (en) * 2020-01-23 2021-07-23 丰田自动车株式会社 Change point detection device and map information distribution system
US11662221B2 (en) 2020-01-23 2023-05-30 Toyota Jidosha Kabushiki Kaisha Change point detection device and map information distribution system
CN111597987A (en) * 2020-05-15 2020-08-28 北京百度网讯科技有限公司 Method, apparatus, device and storage medium for generating information
CN111597987B (en) * 2020-05-15 2023-09-01 阿波罗智能技术(北京)有限公司 Method, apparatus, device and storage medium for generating information
US11477371B2 (en) 2020-06-22 2022-10-18 Toyota Jidosha Kabushiki Kaisha Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method

Also Published As

Publication number Publication date
JP6822427B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
WO2018225446A1 (en) Map points-of-change detection device
JP6822427B2 (en) Map change point detector
CN109086650B (en) Calibration method and calibration apparatus
JP5962771B2 (en) Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
JP4433887B2 (en) Vehicle external recognition device
JP2020042831A (en) Road vertical contour detection
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
EP3032818B1 (en) Image processing device
EP3842751B1 (en) System and method of generating high-definition map based on camera
JP6567659B2 (en) Lane detection device and lane detection method
JP6560355B2 (en) Landmark recognition apparatus and recognition method
JP6708730B2 (en) Mobile
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP5310027B2 (en) Lane recognition device and lane recognition method
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP6620175B2 (en) Distance calculation device and vehicle control device
JP2001076128A (en) Device and method for detecting obstacle
US11403770B2 (en) Road surface area detection device
JP7380443B2 (en) Partial image generation device and computer program for partial image generation
JP6507590B2 (en) Image conversion apparatus and image conversion method
JP3951734B2 (en) Vehicle external recognition device
JP6992344B2 (en) Landmark selection method and landmark selection device
JP2020042716A (en) Abnormality detection device and abnormality detection method
JP7293931B2 (en) Position measurement data generation device, position measurement data generation method, and position measurement data generation program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R151 Written notification of patent or utility model registration

Ref document number: 6822427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250