JP7453008B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7453008B2
JP7453008B2 JP2020018480A JP2020018480A JP7453008B2 JP 7453008 B2 JP7453008 B2 JP 7453008B2 JP 2020018480 A JP2020018480 A JP 2020018480A JP 2020018480 A JP2020018480 A JP 2020018480A JP 7453008 B2 JP7453008 B2 JP 7453008B2
Authority
JP
Japan
Prior art keywords
edge
distance
edges
image processing
end point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020018480A
Other languages
Japanese (ja)
Other versions
JP2021124996A (en
Inventor
貴之 金子
俊輔 近藤
守 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2020018480A priority Critical patent/JP7453008B2/en
Priority to CN202110097136.9A priority patent/CN113212352B/en
Priority to EP21155274.0A priority patent/EP3862920A1/en
Priority to US17/168,874 priority patent/US11610317B2/en
Publication of JP2021124996A publication Critical patent/JP2021124996A/en
Application granted granted Critical
Publication of JP7453008B2 publication Critical patent/JP7453008B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車両の周囲の路面を撮像する撮像装置から出力される画像信号に基づいて、この路面に設けられた駐車枠や走行車線を推定する画像処理装置及び画像処理方法に関するものである。 The present invention relates to an image processing device and an image processing method that estimate parking spaces and driving lanes provided on a road surface based on image signals output from an imaging device that images the road surface around a vehicle.

昨今、車両を所定の駐車区画に駐車する際に、駐車目標とする駐車スペースを自動的に検出して、車両を自動駐車させる車両用駐車支援装置が実用化されている。駐車スペースを検出する際には、車両に搭載したカメラで車両周辺を撮影した画像に基づいて、駐車区画線を検出し、駐車区画線で囲まれた領域を駐車スペースとして検出する。また、車両の走行の際に、車両周辺を撮影した画像に基づいて、走行車線(走行レーン)を区画する車線境界線を自動的に検出して、車両を自動運転させる走行支援装置も実用化されている。 2. Description of the Related Art Recently, vehicle parking support devices have been put into practical use that automatically detect a target parking space and park the vehicle automatically when the vehicle is parked in a predetermined parking lot. When detecting a parking space, parking lot lines are detected based on an image taken around the vehicle using a camera mounted on the vehicle, and an area surrounded by the parking lot lines is detected as a parking space. In addition, a driving support device has also been put into practical use that automatically detects the lane boundary lines that separate driving lanes based on images taken of the surrounding area of the vehicle while the vehicle is driving, and allows the vehicle to drive automatically. has been done.

このような駐車区画線や車線境界線等としての白線を検出する技術として、車両周辺を撮影した画像からエッジを検出し、検出したエッジに基づいて白線を検出する白線検出装置や白線検出方法が開示されている(例えば、特許文献1、2参照)。 Technologies for detecting white lines such as parking lot lines and lane boundary lines include white line detection devices and white line detection methods that detect edges from images taken around the vehicle and detect white lines based on the detected edges. It has been disclosed (for example, see Patent Documents 1 and 2).

特開平8-167023号公報Japanese Patent Application Publication No. 8-167023 特開2007-179386号公報Japanese Patent Application Publication No. 2007-179386

しかしながら、上記従来技術では、自車両、他車両、壁、フェンス等の比較的大きな影や、木漏れ日、道路照明灯等による光の反射等によって、駐車区画線等が不検出となることがある。特に、影と影以外の領域とでは、駐車区画線の輝度や輝度差が異なるため、駐車区画線のエッジが検出されないことがあった。このため、駐車区画線等の検出精度、さらには駐車スペースや走行車線の検出精度を向上させるべく、エッジの誤検出や不検出を抑制できる技術の開発が望まれていた。 However, in the above-mentioned conventional technology, parking lot lines and the like may not be detected due to relatively large shadows of the own vehicle, other vehicles, walls, fences, etc., sunlight filtering through trees, reflection of light from road lights, etc. In particular, because the brightness and brightness difference of the parking lot line differ between the shadow and the area other than the shadow, the edge of the parking lot line may not be detected. Therefore, in order to improve the accuracy of detecting parking lot lines and the like, as well as the accuracy of detecting parking spaces and driving lanes, it has been desired to develop a technology that can suppress erroneous edge detection and non-detection.

そこで、本発明は、駐車区画線や車線境界線等、路面に描かれたマーカーの検出を、高精度に行うことが可能な画像処理装置及び画像処理方法を提供することを目的としている。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an image processing device and an image processing method that can detect markers drawn on a road surface, such as parking lot lines and lane boundary lines, with high precision.

前記目的を達成するために、本発明の画像処理装置は、路面に描かれたマーカーを検出する画像処理装置であって、車両の周囲の前記路面を撮像する撮像装置から出力される画像信号に基づく画像を所定方向に走査して、複数のエッジを検出するエッジ検出部と、前記複数のエッジの各々に対して、当該エッジとの距離が最短となるエッジを検出し、当該エッジと前記当該エッジとの距離が最短となるエッジの端点間の距離が閾値以下であるとき、2つのエッジを接続して一のエッジとするエッジ接続部と、前記複数のエッジに基づいて、前記マーカーを検出するマーカー検出部と、を備えたことを特徴とする。 In order to achieve the above object, an image processing device of the present invention is an image processing device that detects markers drawn on a road surface, and includes an image signal output from an imaging device that captures an image of the road surface around a vehicle. an edge detection unit that scans a base image in a predetermined direction and detects a plurality of edges; and for each of the plurality of edges, detects an edge having the shortest distance from the edge, and When the distance between the end points of the edge with the shortest distance to the edge is less than or equal to a threshold, the marker is detected based on the edge connection part where two edges are connected to form one edge, and the plurality of edges. The present invention is characterized by comprising a marker detection section that performs the following steps.

このように構成された本発明の画像処理装置では、撮影された画像から検出された複数のエッジについて、当該エッジとの距離が最短となるエッジを検出し、当該エッジと当該エッジとの距離が最短となるエッジの端点間の距離が閾値以下であるとき、2つのエッジを接続して一のエッジとする。これにより、影や照明等によるマーカーのエッジの途切れを抑制し、エッジの端点及びエッジの角度を、より高精度に検出できる。 The image processing device of the present invention configured as described above detects the edge having the shortest distance from a plurality of edges detected from a captured image, and determines the distance between the edges. When the distance between the end points of the shortest edge is less than or equal to a threshold, the two edges are connected to form one edge. As a result, discontinuation of the edge of the marker due to shadows, illumination, etc. can be suppressed, and the end point of the edge and the angle of the edge can be detected with higher precision.

このことにより、駐車区画線や車線境界線等、路面に描かれたマーカーの検出を、高精度に行うことが可能となる。この結果、駐車場等の路面に設けられた駐車枠の検出や、車線境界線によって区画された走行車線の検出等を、高精度に行うことが可能となる。 This makes it possible to detect markers drawn on the road surface, such as parking lot lines and lane boundary lines, with high precision. As a result, it becomes possible to detect parking spaces provided on the road surface of a parking lot or the like, detect driving lanes divided by lane boundary lines, etc. with high precision.

本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a parking assistance device to which an image processing device according to an embodiment of the present invention is applied. 実施の形態である駐車支援装置の撮像装置の配置位置の一例を示す図である。It is a figure showing an example of the arrangement position of the imaging device of the parking assistance device which is an embodiment. 実施の形態である画像処理装置の概略構成を示す機能ブロック図である。1 is a functional block diagram showing a schematic configuration of an image processing device according to an embodiment. FIG. 実施の形態である画像処理装置の動作の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of the operation of the image processing apparatus according to the embodiment. エッジ接続部の動作の一例を説明するためのフローチャートである。7 is a flowchart for explaining an example of the operation of the edge connection section. 実施の形態である画像処理装置の動作の一例を説明するための図であり、車両と、駐車場の路面上に描かれた駐車区画線の一例を示す。FIG. 2 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, and shows an example of a vehicle and a parking lot line drawn on the road surface of a parking lot. 実施の形態である画像処理装置の動作の一例を説明するための図であり、俯瞰画像及び俯瞰画像から検出されたエッジを模式的に示した図である。FIG. 2 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, and is a diagram schematically showing an overhead view image and edges detected from the overhead view image. 実施の形態である画像処理装置の動作の一例を説明するための図であり、影によって途切れたエッジが接続されたイメージを示す。FIG. 2 is a diagram for explaining an example of the operation of the image processing apparatus according to the embodiment, and shows an image in which edges interrupted by shadows are connected. 実施の形態である画像処理装置の動作の一例を説明するための図であり、(a)は影によって途切れた駐車区画線のエッジを示し、(b)は木漏れ日の影響によって検出されたエッジを示す。FIG. 4 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, in which (a) shows an edge of a parking lot line interrupted by a shadow, and (b) shows an edge detected due to the influence of sunlight filtering through trees. show. 実施の形態である画像処理装置の動作の一例を説明するための図であり、(a)はエッジAと所定距離の範囲内で抽出されたエッジBの概略図であり、(b)は2つのエッジA、Bの端点間の走査手順を説明するための図である。2 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, in which (a) is a schematic diagram of edge B extracted within a predetermined distance from edge A; FIG. FIG. 3 is a diagram for explaining a scanning procedure between the end points of two edges A and B. FIG. 実施の形態である画像処理装置の動作の一例を説明するための図であり、(a)は短エッジA1と長エッジB1との組を示す図であり、(b)は長エッジA2と短エッジB2との組を示す図である。2A and 2B are diagrams for explaining an example of the operation of the image processing device according to the embodiment, in which (a) is a diagram showing a set of a short edge A1 and a long edge B1, and (b) is a diagram showing a set of a long edge A2 and a short edge B1. It is a figure which shows a set with edge B2. 実施の形態である画像処理装置の動作の一例を説明するための図であり、(a)は長エッジA3と短エッジB3との組を示す図であり、(b)は短エッジA4と長エッジB4との組を示す図である。2A and 2B are diagrams for explaining an example of the operation of the image processing apparatus according to the embodiment, in which (a) is a diagram showing a set of a long edge A3 and a short edge B3, and (b) is a diagram showing a set of a short edge A4 and a long edge B3. It is a figure showing a set with edge B4.

(駐車支援装置の概略構成)
以下、この発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。図2は駐車支援装置の撮像装置の配置位置の一例を示す図である。なお、以下では、駐車支援装置について説明するが、本発明の実施の形態である画像処理装置が適用される装置は駐車支援装置に限定されることはなく、走行車線を走行する車両の走行を支援する走行支援装置等にも適用できる。
(Schematic configuration of parking assist device)
Embodiments of the present invention will be described below based on the drawings. FIG. 1 is a block diagram showing a schematic configuration of a parking assistance device to which an image processing device according to an embodiment of the present invention is applied. FIG. 2 is a diagram showing an example of the arrangement position of the imaging device of the parking assist device. Note that although a parking assistance device will be described below, the device to which the image processing device according to the embodiment of the present invention is applied is not limited to the parking assistance device; It can also be applied to driving support devices and the like.

図1に示すように、駐車支援装置1は、車両V(図2参照)に搭載され、駐車支援動作を行う。具体的には、駐車支援装置1は、この車両Vが駐車可能な駐車枠を認識する。そして、駐車支援装置1は、認識した駐車枠に車両Vを駐車させるようにこの車両Vを制御する。 As shown in FIG. 1, the parking assistance device 1 is mounted on a vehicle V (see FIG. 2) and performs a parking assistance operation. Specifically, the parking support device 1 recognizes a parking slot in which this vehicle V can park. Then, the parking support device 1 controls the vehicle V to park the vehicle V in the recognized parking slot.

車両Vの前後左右には、図2に示すように複数の小型カメラ(撮像装置)が備えられている。 As shown in FIG. 2, a plurality of small cameras (imaging devices) are provided at the front, rear, left and right sides of the vehicle V.

具体的には、車両Vのフロントバンパまたはフロントグリルには、車両Vの前方に向けて前方カメラ20aが装着されている。車両Vのリアバンパまたはリアガーニッシュには、車両Vの後方に向けて後方カメラ20bが装着されている。車両Vの左ドアミラーには、車両Vの左側方に向けて左側方カメラ20cが装着されている。車両Vの右ドアミラーには、車両Vの右側方に向けて右側方カメラ20dが装着されている。 Specifically, a front camera 20a is mounted on the front bumper or front grill of the vehicle V so as to face the front of the vehicle V. A rear camera 20b is attached to the rear bumper or rear garnish of the vehicle V, facing toward the rear of the vehicle V. A left side camera 20c is mounted on the left door mirror of the vehicle V to face the left side of the vehicle V. A right side camera 20d is mounted on the right door mirror of the vehicle V, facing toward the right side of the vehicle V.

前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dには、それぞれ、広範囲を観測可能な広角レンズや魚眼レンズが装着されており、4台のカメラ20a~20dで車両Vの周囲の路面を含む領域を漏れなく観測できるようになっている。これらカメラ20a~20dにより、車両Vの周囲の路面を撮像する撮像装置が構成されている。なお、以下の説明において、個々のカメラ(撮像装置)20a~20dを区別せずに説明する場合は単にカメラ20として説明する。 The front camera 20a, the rear camera 20b, the left side camera 20c, and the right side camera 20d are each equipped with a wide-angle lens or a fisheye lens that can observe a wide range. It is now possible to observe the entire area including the road surface. These cameras 20a to 20d constitute an imaging device that images the road surface around the vehicle V. In the following description, when the individual cameras (imaging devices) 20a to 20d are described without distinction, they will be simply referred to as the camera 20.

図1に戻って、駐車支援装置1は、前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dと、カメラECU21と、ナビゲーション装置30と、車輪速センサ32と、操舵角センサ33とを有する。 Returning to FIG. 1, the parking assist device 1 includes a front camera 20a, a rear camera 20b, a left camera 20c, a right camera 20d, a camera ECU 21, a navigation device 30, a wheel speed sensor 32, and a steering angle sensor 33. and has.

カメラECU21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。カメラECU21は、カメラ20を制御するとともに、カメラ20が検知した情報を用いて、俯瞰画像の生成処理や、駐車枠を検出する検出処理や、検出した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行う。 The camera ECU 21 is mainly composed of a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like. The camera ECU 21 controls the camera 20, and uses information detected by the camera 20 to perform processes for generating an overhead image, detection processing for detecting a parking frame, and determining whether the vehicle V can be parked in the detected parking frame. Performs judgment processing etc. to judge.

ナビゲーション装置(表示装置)30は画像表示機能を有するモニター31を有する。ナビゲーション装置30は、経路案内用の地図データ等が格納された記憶部を有する。ナビゲーション装置30は、この地図データ等及び図略のGPS装置等により検出された車両Vの現在位置に基づいて、ナビゲーション装置30の操作者が設定した目標地点までの経路案内を行う。経路案内動作中の各種画像はモニター31に表示される。 The navigation device (display device) 30 has a monitor 31 having an image display function. The navigation device 30 has a storage unit that stores map data for route guidance and the like. The navigation device 30 provides route guidance to the target point set by the operator of the navigation device 30 based on the map data and the current position of the vehicle V detected by a GPS device (not shown) or the like. Various images during the route guidance operation are displayed on the monitor 31.

車輪速センサ32は、車両Vの車輪速を検知するセンサである。車輪速センサ32で検知された検知情報(車輪速)は、車両制御ECU40に入力される。 The wheel speed sensor 32 is a sensor that detects the wheel speed of the vehicle V. Detection information (wheel speed) detected by the wheel speed sensor 32 is input to the vehicle control ECU 40.

操舵角センサ33は、車両Vのステアリングの操舵角を検知する。車両Vが直進状態で走行するときの操舵角を中立位置(0度)とし、その中立位置からの回転角度を操舵角として出力する。操舵角センサ33で検知された検知情報(操舵角)は、車両制御ECU40に入力される。 The steering angle sensor 33 detects the steering angle of the steering wheel of the vehicle V. The steering angle when the vehicle V runs straight is set as a neutral position (0 degrees), and the rotation angle from the neutral position is output as the steering angle. Detection information (steering angle) detected by the steering angle sensor 33 is input to the vehicle control ECU 40.

さらに、駐車支援装置1は、車両制御ECU40と、ステアリング制御ユニット50と、スロットル制御ユニット60と、ブレーキ制御ユニット70とを有する。 Further, the parking assist device 1 includes a vehicle control ECU 40, a steering control unit 50, a throttle control unit 60, and a brake control unit 70.

車両制御ECU40は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。車両制御ECU40は、カメラECU21、車輪速センサ32及び操舵角センサ33から入力された各検知情報に基づいて、車両Vの駐車を支援する各種処理を実行する。 The vehicle control ECU 40 is mainly composed of a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like. The vehicle control ECU 40 executes various processes to support parking of the vehicle V based on each detection information input from the camera ECU 21, the wheel speed sensor 32, and the steering angle sensor 33.

すなわち、例えば図略の自動駐車開始スイッチを運転手がオン操作して駐車支援装置1を作動させると、車両制御ECU40は、カメラECU21が駐車可と判定した駐車枠に車両Vを自動で駐車させる自動駐車処理を実行する。 That is, for example, when the driver turns on an automatic parking start switch (not shown) to activate the parking support device 1, the vehicle control ECU 40 automatically parks the vehicle V in the parking slot that the camera ECU 21 determines is available for parking. Executes automatic parking processing.

ステアリング制御ユニット50は、車両制御ECU40で決定した車両制御情報に基づいて、パワステアクチュエータ51を駆動して、車両Vの操舵角を制御する。 The steering control unit 50 controls the steering angle of the vehicle V by driving the power steering actuator 51 based on vehicle control information determined by the vehicle control ECU 40.

スロットル制御ユニット60は、車両制御ECU40で決定した車両制御情報に基づいて、スロットルアクチュエータ61を駆動して、車両Vのスロットルを制御する。 The throttle control unit 60 controls the throttle of the vehicle V by driving the throttle actuator 61 based on vehicle control information determined by the vehicle control ECU 40.

ブレーキ制御ユニット70は、車両制御ECU40で決定した車両制御情報に基づいて、ブレーキアクチュエータ71を駆動して、車両Vのブレーキを制御する。 The brake control unit 70 controls the brakes of the vehicle V by driving the brake actuator 71 based on vehicle control information determined by the vehicle control ECU 40.

なお、カメラECU21、車輪速センサ32及び操舵角センサ33と、車両制御ECU40との間は、車内LAN(Local Area Network)であるセンサ情報CAN(Controller Area Network)80によって接続される(「CAN」は登録商標)。 The camera ECU 21, wheel speed sensor 32, and steering angle sensor 33 are connected to the vehicle control ECU 40 by a sensor information CAN (Controller Area Network) 80, which is an in-vehicle LAN (Local Area Network) ("CAN"). is a registered trademark).

また、ステアリング制御ユニット50、スロットル制御ユニット60及びブレーキ制御ユニット70と、車両制御ECU40との間は、車内LANである車両情報CAN81によって接続される。 Furthermore, the steering control unit 50, throttle control unit 60, and brake control unit 70 are connected to the vehicle control ECU 40 by a vehicle information CAN 81, which is an in-vehicle LAN.

以上の構成を有する駐車支援装置1において、本実施の形態の画像処理装置100は、カメラECU21により主に構成されている。 In the parking assist device 1 having the above configuration, the image processing device 100 of this embodiment is mainly configured by the camera ECU 21.

(画像処理装置の機能構成)
図3は、本実施の形態である画像処理装置100の概略構成を示す機能ブロック図である。本実施の形態である画像処理装置100は、制御部110及び記憶部120を有する。制御部110は、カメラECU21のCPUから主に構成されており、記憶部120は、カメラECU21のROM、RAM、フラッシュメモリ等から主に構成されている。
(Functional configuration of image processing device)
FIG. 3 is a functional block diagram showing a schematic configuration of image processing apparatus 100 according to this embodiment. Image processing apparatus 100 according to this embodiment includes a control section 110 and a storage section 120. The control unit 110 is mainly composed of the CPU of the camera ECU 21, and the storage unit 120 is mainly composed of the ROM, RAM, flash memory, etc. of the camera ECU 21.

制御部110は、画像処理装置100全体の制御を行う。加えて、制御部110は、後述するエッジ検出部111、エッジ接続部112、マーカー検出部113、及び駐車枠検出部114により検出、推定された駐車スペースを区画する駐車区画線や駐車スペースに基づいて、車両Vが駐車可と判定した駐車枠にこの車両Vを自動で駐車させる自動駐車処理を車両制御ECU40に実行させるために、自動駐車処理に必要な情報(駐車スペース、駐車枠の位置、形状など)をこの車両制御ECU40に送出する。 The control unit 110 controls the entire image processing apparatus 100. In addition, the control unit 110 is configured based on parking lot lines and parking spaces that demarcate parking spaces detected and estimated by an edge detection unit 111, an edge connection unit 112, a marker detection unit 113, and a parking space detection unit 114, which will be described later. In order to have the vehicle control ECU 40 execute automatic parking processing in which the vehicle V is automatically parked in a parking space determined to be available for parking, information necessary for the automatic parking processing (parking space, position of the parking space, shape, etc.) is sent to this vehicle control ECU 40.

車両制御ECU40は、制御部110から提供された情報に基づいて、さらに、車輪速センサ32及び操舵角センサ33(図3ではセンサとのみ図示している)が検知した検知情報に基づいて、パワステアクチュエータ51、スロットルアクチュエータ61及びブレーキアクチュエータ71(図3ではアクチュエータとのみ図示している)を駆動制御する。 The vehicle control ECU 40 controls the power steering based on the information provided from the control unit 110 and further based on the detection information detected by the wheel speed sensor 32 and the steering angle sensor 33 (only sensors are shown in FIG. 3). The actuator 51, the throttle actuator 61, and the brake actuator 71 (only the actuator is shown in FIG. 3) are drive-controlled.

制御部110はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。 The control unit 110 includes arithmetic elements such as a CPU, a programmable logic device such as an FPGA, and an integrated circuit such as an ASIC.

画像処理装置100の記憶部120には図略の制御用プログラムが格納されており、この制御用プログラムが画像処理装置100の起動時に制御部110により実行されて、画像処理装置100は図3に示すような機能構成を備えたものとなる。特に、本実施形態の画像処理装置100は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。 A control program (not shown) is stored in the storage unit 120 of the image processing device 100, and this control program is executed by the control unit 110 when the image processing device 100 is started up, and the image processing device 100 operates as shown in FIG. It will have the functional configuration as shown. In particular, since the image processing apparatus 100 of this embodiment performs high-speed image processing as described later, it is preferable to include an arithmetic element capable of high-speed calculation, such as an FPGA.

この図3に示すように、制御部110は、エッジ検出部111、エッジ接続部112、マーカー検出部113、駐車枠検出部114、及び表示制御部115を有する。なお、画像処理装置100及び画像処理方法を、走行支援装置及び走行支援方法に適用する場合は、図3の駐車枠検出部114に代えて走行車線検出部を有する構成とすることで、走行車線を検出する画像処理装置及び画像処理方法が得られる。 As shown in FIG. 3, the control section 110 includes an edge detection section 111, an edge connection section 112, a marker detection section 113, a parking frame detection section 114, and a display control section 115. Note that when the image processing device 100 and the image processing method are applied to a driving support device and a driving support method, a driving lane detection unit can be used instead of the parking frame detection unit 114 in FIG. An image processing device and an image processing method for detecting are obtained.

エッジ検出部111は、車両Vの周囲の路面Rを撮像するカメラ20から出力される画像信号に基づいて、エッジ検出により駐車場等の路面上の駐車区画線のエッジを検出する。また、走行支援装置に適用されるときは、エッジ検出部111は、路面上の車線境界線等のマーカーのエッジを検出する。ここでいうマーカーとは、駐車区画線や走行車線等の境界線をいう。駐車区画線とは、主に路面R上に設けられた駐車領域を区画する境界線(直線)として描かれた線のことである。図5に、車両Vと、この車両Vが駐車を行おうとしている駐車場Pの路面R上に描かれた駐車区画線200の一例を示す。駐車区画線200の間が、駐車スペースを表す駐車枠201である。 The edge detection unit 111 detects edges of parking lot lines on the road surface of a parking lot or the like by edge detection based on an image signal output from the camera 20 that images the road surface R around the vehicle V. Furthermore, when applied to a driving support device, the edge detection unit 111 detects edges of markers such as lane boundary lines on the road surface. The marker here refers to a boundary line such as a parking lot line or a driving lane. A parking lot line is a line drawn as a boundary line (straight line) that mainly divides a parking area provided on the road surface R. FIG. 5 shows an example of a vehicle V and a parking lot line 200 drawn on the road surface R of the parking lot P where the vehicle V is attempting to park. Between the parking lot lines 200 is a parking frame 201 representing a parking space.

また、走行車線を検出する場合は、車線境界線は、主に路面上に設けられた走行車線(走行レーン)を区画する境界線として描かれ、途切れのない実線(直線又は曲線)、又は所定長さの短い線分が連続する破線(直線又は曲線)である。なお、マーカーは、駐車区画線や走行車線に限定されることはなく、例えば、駐停車禁止領域を表す斜線、横断歩道、車椅子マーク等も、マーカーとして挙げられる。 In addition, when detecting the driving lane, the lane boundary line is mainly drawn as a boundary line that divides the driving lane (driving lane) provided on the road surface, and is a continuous solid line (straight line or curved line) or a predetermined line. A broken line (straight line or curved line) is a series of short line segments. Note that markers are not limited to parking lot lines or driving lanes, and include, for example, diagonal lines indicating areas where parking is prohibited, crosswalks, wheelchair marks, etc.

駐車区画線及び車線区画線は、一般的には白線で示されるが、白線以外の、例えば黄色線等、白以外の色の線で描かれている場合もある。このため、エッジ検出部111によって検出される駐車区画線や車線境界線は、「白線」に限定されるものではなく、一般に、路面との間にコントラストを有する境界線を駐車区画線や車線境界線として検出すればよい。 Parking lane lines and lane lane lines are generally indicated by white lines, but may also be drawn by lines of a color other than white, such as yellow lines, for example. Therefore, the parking lot line or lane boundary line detected by the edge detection unit 111 is not limited to a "white line," but in general, a parking lot line or lane boundary line that has contrast with the road surface is used. It is sufficient to detect it as a line.

エッジ検出部111は、画像を所定方向に走査(スキャン)して、画像信号に含まれる輝度値又は色のパラメータ情報(例えば、RGB、RGBA等)が、閾値よりも大きく変化する画素を検出し、検出した画素の並びが所定以上の長さとなっている部分をエッジとして検出する。ここでいう走査とは、所定方向に向かって1つずつ画素を選択し、隣り合った画素間で、輝度又は色のパラメータを比較していくことをいう。 The edge detection unit 111 scans the image in a predetermined direction and detects pixels in which the luminance value or color parameter information (for example, RGB, RGBA, etc.) included in the image signal changes more than a threshold value. , a portion where the detected pixel arrangement has a length longer than a predetermined length is detected as an edge. Scanning here refers to selecting pixels one by one in a predetermined direction and comparing brightness or color parameters between adjacent pixels.

なお、走査の方向は、路面Rに描かれた駐車区画線に直交する方向に設定するのが望ましい。すなわち、図5に示すように、駐車区画線200が車両Vの進行方向と直交する方向に延在しているときには、俯瞰画像G上で進行方向に沿って走査するのが望ましい。これに対して、駐車区画線200が車両Vの進行方向に沿って延在しているときは、俯瞰画像G上で進行方向と直交する方向に走査するのが望ましい。一般には、駐車区画線200が延びている方向は未知であるため、エッジ検出部111は、俯瞰画像G上で車両Vの進行方向及びこれに直交する方向にそれぞれ沿って、2回に分けて走査することが望ましい。 Note that the scanning direction is preferably set in a direction perpendicular to the parking lot line drawn on the road surface R. That is, as shown in FIG. 5, when the parking lot line 200 extends in a direction perpendicular to the traveling direction of the vehicle V, it is desirable to scan the overhead image G along the traveling direction. On the other hand, when the parking lot line 200 extends along the traveling direction of the vehicle V, it is desirable to scan the overhead image G in a direction perpendicular to the traveling direction. Generally, since the direction in which the parking lot line 200 extends is unknown, the edge detection unit 111 detects the direction in which the parking lot line 200 extends in two steps, respectively along the traveling direction of the vehicle V and the direction perpendicular thereto on the overhead image G. It is desirable to scan.

輝度値に基づいてエッジを抽出する場合は、エッジ検出部111は、輝度が低く暗い画素(例えば黒い画素)から、閾値よりも大きな差を持って輝度が高く明るい画素(例えば白い画素)に変化するエッジ、つまり隣り合った画素の輝度差がプラス方向に所定値よりも大きくなるエッジを、プラスエッジ(「立上りエッジ」ともいう)として検出する。このプラスエッジの検出は、走査位置が路面Rから駐車区画線200と推定されるものに切替わったことを示す。 When extracting edges based on brightness values, the edge detection unit 111 detects a change from a dark pixel with low brightness (for example, a black pixel) to a bright pixel with high brightness (for example, a white pixel) with a difference greater than a threshold value. An edge where the luminance difference between adjacent pixels becomes greater than a predetermined value in the positive direction is detected as a plus edge (also referred to as a "rising edge"). Detection of this plus edge indicates that the scanning position has been switched from the road surface R to what is estimated to be the parking lot line 200.

また、エッジ検出部111は、輝度が高く明るい画素から、閾値よりも大きな差を持って輝度が低く暗い画素に変化したエッジ、つまり隣り合った画素の輝度差がマイナス方向に所定値よりも大きくなるエッジを、マイナスエッジ(「立下がりエッジ」ともいう)として検出する。このマイナスエッジの検出は、走査位置が駐車区画線200と推定されるものから路面Rに切替わったことを示す。 The edge detection unit 111 also detects an edge where a pixel with high brightness changes to a dark pixel with low brightness with a difference larger than a threshold value, that is, a brightness difference between adjacent pixels is larger than a predetermined value in the negative direction. This edge is detected as a negative edge (also referred to as a "falling edge"). Detection of this negative edge indicates that the scanning position has been switched from what is estimated to be the parking lot line 200 to the road surface R.

これに対して、色のパラメータに基づいてエッジを抽出する場合は、路面Rの色のパラメータと、駐車区画線200の色のパラメータとを比較する。エッジ検出部111は、色のパラメータの値が大きくなる方向に変化(マイナス方向に変化)した画素の並びをマイナスエッジとして検出し、色のパラメータの値が小さくなる方向に変化(プラス方向に変化)した画素の並びをプラスエッジとして検出する。また、路面よりも駐車区画線の輝度が低い(或いは色のパラメータが大きい)場合は、輝度値や色のパラメータの変化は逆転する。いずれの場合でも駐車区画線等のマーカーでは、その両側縁にプラスエッジとマイナスエッジが検出されるため、後述のペアの抽出が可能である。 On the other hand, when extracting edges based on color parameters, the color parameters of the road surface R and the color parameters of the parking lot line 200 are compared. The edge detection unit 111 detects as a negative edge the arrangement of pixels in which the value of the color parameter changes in the direction of increasing (changes in the negative direction), and detects as a negative edge the arrangement of pixels in which the value of the color parameter changes in the direction of decreasing (changes in the positive direction). ) is detected as a plus edge. Furthermore, when the brightness of the parking lot line is lower than that of the road surface (or the color parameter is larger), the changes in the brightness value and color parameter are reversed. In either case, a plus edge and a minus edge are detected on both sides of a marker such as a parking lot line, so it is possible to extract pairs as described below.

上記走査を複数ライン(行)分繰り返すことで、走査方向と交差する方向に連続するプラスエッジで構成される線分(画素列)を、プラスエッジの線分として抽出する。さらに連続するマイナスエッジで構成される線分(画素列)を、マイナスエッジの線分として抽出する。 By repeating the above scanning for a plurality of lines (rows), a line segment (pixel column) consisting of continuous plus edges in a direction intersecting the scanning direction is extracted as a plus edge line segment. Furthermore, a line segment (pixel row) composed of continuous negative edges is extracted as a line segment of negative edges.

図6Aに、俯瞰画像G及び俯瞰画像Gから検出されたエッジ(太直線と太破線)を模式的に示す。図6Aの例では、俯瞰画像GのX軸(ここでは車両Vの走行方向に沿う方向であって駐車区画線200の延在方向に直交する方向)を図中の左右方向に設定し、Y軸(ここでは駐車区画線200の延在方向)を図中の上下方向に設定する。エッジ検出部111は、俯瞰画像Gを、車両Vの走行方向に直交する方向であって図中の左から右(X軸正方向)に向けて走査し、プラスエッジ及びマイナスエッジを検出していく。なお、図中の右から左、つまりX軸負方向に画素を走査した場合、プラスエッジとマイナスエッジは逆転する。また、画像信号に含まれる色のパラメータ(例えば、RGB、RGBA等)の情報に基づいてプラスエッジ、マイナスエッジを検出してもよい。この場合、所定の色の大きさ(階調)の変化に基づいてこれらを検出する。 FIG. 6A schematically shows the bird's-eye view image G and edges (thick straight lines and thick broken lines) detected from the bird's-eye view image G. In the example of FIG. 6A, the X axis (here, the direction along the traveling direction of the vehicle V and orthogonal to the extending direction of the parking lot line 200) of the overhead image G is set in the left-right direction in the figure, and the Y The axis (in this case, the extending direction of the parking lot line 200) is set in the vertical direction in the figure. The edge detection unit 111 scans the overhead image G in a direction perpendicular to the traveling direction of the vehicle V, from left to right in the figure (X-axis positive direction), and detects positive edges and negative edges. go. Note that when pixels are scanned from right to left in the figure, that is, in the negative direction of the X axis, the plus edges and minus edges are reversed. Further, plus edges and minus edges may be detected based on information on color parameters (for example, RGB, RGBA, etc.) included in the image signal. In this case, these are detected based on changes in the size (gradation) of predetermined colors.

ところで、車両Vの影等の大きな影が駐車区画線200に重なると、俯瞰画像G上でエッジを検出したときに、図6Aに示すように、一の駐車区画線のエッジが路面Rと影との境界近傍で途切れてしまうことがある。これは、影になっていない日向部分と、影になった日陰部分とで、路面の輝度が互いに異なるとともに、駐車区画線の輝度も互いに異なることに起因する。 By the way, if a large shadow such as the shadow of the vehicle V overlaps with the parking lot line 200, when the edge is detected on the overhead image G, the edge of the first parking lot line will overlap the road surface R and the shadow, as shown in FIG. 6A. It may be cut off near the border. This is due to the fact that the brightness of the road surface is different between the sunny part that is not in the shadow and the shaded part that is the shaded part, and the brightness of the parking lot line is also different from each other.

このため、日向部分と日陰部分での路面と駐車区画線との輝度差の値や、エッジの角度(方向)が異なって検出され、連続性がないことから、日向部分のエッジと日陰部分とのエッジとが別々のエッジとして検出される。また日向と日陰の境界近傍のエッジが不検出となることもある。この結果、駐車区画線のエッジが途切れて検出され、駐車枠の検出や車線検出の精度に影響することがある。また、道路照明灯やヘッドライト等で駐車区画線の一部が強く照明された場合、この強い照明部分と非照明部分とで、画像中の路面や駐車区画線の輝度差の値等が異なったり、白飛びが生じたりするため、同様の現象が起こり得る。 For this reason, the values of the brightness difference between the road surface and the parking lot line in the sunny and shaded areas and the angles (directions) of the edges are detected differently, and there is no continuity between the edges of the sunny and shaded areas. are detected as separate edges. Furthermore, edges near the boundary between sunlight and shade may not be detected. As a result, the edges of parking lot lines are detected as being interrupted, which may affect the accuracy of parking frame detection and lane detection. In addition, when a part of the parking lot line is strongly illuminated by road lights or headlights, the luminance difference value of the road surface or parking lot line in the image will be different between this strongly illuminated part and the non-illuminated part. A similar phenomenon may occur, as it may cause overexposure or overexposure.

このような検出精度への影響を回避するため、エッジ接続部112によって、途切れたエッジ同士を接続する処理を行っている。本実施の形態では、エッジ接続部112は、エッジ検出部111によって検出された複数のエッジの各々に対して、当該エッジとの距離が最短となるエッジを検出し、当該エッジと当該エッジとの距離が最短となるエッジを、接続の候補となるエッジの組として検出する。また、当該エッジとは、複数のエッジから順に一つずつ選択し、所定距離の範囲内にある他のエッジを検出する対象となるエッジをいう。 In order to avoid such an influence on detection accuracy, the edge connection unit 112 performs a process of connecting disconnected edges. In this embodiment, the edge connection unit 112 detects the edge having the shortest distance from each of the plurality of edges detected by the edge detection unit 111, and connects the edge with the edge. Edges with the shortest distance are detected as a set of edges that are candidates for connection. Further, the edge refers to an edge that is selected one by one from a plurality of edges and is a target for detecting other edges within a predetermined distance.

エッジ接続部112は、検出された各エッジの組に対して、当該エッジと当該エッジとの距離が最短となるエッジの端点間の距離が閾値以下であるとき、2つのエッジを接続して一のエッジ(以下、「接続エッジ」ということがある。)とする。エッジ接続部112は、当該エッジと、当該エッジとの距離が最短となるエッジとの端点間を、当該エッジが延びる方向に応じた方向で走査して、当該エッジと当該エッジとの距離が最短となるエッジとの間に、マーカーと判定できる情報が含まれているか否かを判定する。エッジ接続部112はマーカーと判定できる情報が含まれていると判定した場合は、当該エッジと当該エッジとの距離が最短となるエッジとを接続するが、含まれていないと判定した場合は、これらを接続しない。 For each set of detected edges, the edge connection unit 112 connects two edges into one when the distance between the end points of the edges where the distance between the two edges is the shortest is equal to or less than a threshold value. edge (hereinafter sometimes referred to as "connection edge"). The edge connection unit 112 scans between the end points of the edge and the edge with the shortest distance in a direction corresponding to the direction in which the edge extends, and finds the edge with the shortest distance between the edges. It is determined whether information that can be determined as a marker is included between the edge and the edge. If the edge connecting unit 112 determines that information that can be determined as a marker is included, it connects the edge to the edge with the shortest distance to the edge, but if it determines that the edge is not included, Do not connect these.

本実施の形態のエッジ接続部112での処理を、より具体的に説明する。本明細書では、各エッジの線分の2つの端点のうち、エッジ検出で先に検出された端点(Y座標が原点に近い側)を「始点」といい、後に検出された端点(Y座標が原点から遠い側)を「終点」という。 The processing in the edge connection unit 112 of this embodiment will be described in more detail. In this specification, of the two endpoints of the line segment of each edge, the endpoint detected first by edge detection (the side whose Y coordinate is closer to the origin) is referred to as the "starting point," and the endpoint detected later (the side whose Y coordinate is closer to the origin) is referred to as the "starting point." The side farthest from the origin) is called the "end point."

当該エッジとの距離が最短となるエッジの検出手順について、図7を参照して説明する。図7(a)は図6Aの俯瞰画像Gにおいて、影によって途切れた駐車区画線のエッジを示し、図7(b)は木漏れ日の影響によって検出されたエッジを示す。この図7(b)及び図6Aに示すように、木漏れ日等の影響により、複数のエッジ(ノイズ)が密集して検出されることがある。このようなノイズとなるエッジを接続すると、駐車区画線以外の線が駐車区画線として検出され、検出効率や検出精度に影響する。 A procedure for detecting an edge having the shortest distance to the edge will be described with reference to FIG. 7. 7A shows an edge of a parking lot line interrupted by a shadow in the overhead image G of FIG. 6A, and FIG. 7B shows an edge detected due to the influence of sunlight filtering through trees. As shown in FIG. 7B and FIG. 6A, a plurality of edges (noise) may be detected densely due to the influence of sunlight filtering through trees and the like. If such noise-causing edges are connected, lines other than parking lot lines will be detected as parking lot lines, which will affect detection efficiency and accuracy.

これを抑制するため、エッジ接続部112は、複数のエッジの各々に対して、当該エッジから所定距離の範囲内にある他のエッジの数をカウントする。カウント数が所定数(閾値)以上のときは、当該エッジを他のエッジと接続しないようにしている。 In order to suppress this, the edge connection unit 112 counts, for each of the plurality of edges, the number of other edges within a predetermined distance from the edge. When the count is greater than or equal to a predetermined number (threshold), the edge is not connected to other edges.

例えば、図7(a)に示す例では、プラスエッジの線分Aの終点E1から、所定距離の範囲内(図中に円で示す範囲)にある他のプラスエッジを検索していくと、プラスエッジの線分Bが検出される。この場合、カウント数が1個(閾値未満)となり、プラスエッジの線分Aとプラスエッジの線分Bとが接続候補のエッジの組となる。なお、エッジの線分が複数個(ただし、閾値未満)検出された場合は、プラスエッジの線分Aとの距離が最短となるエッジの線分Bが、接続先のエッジの線分となる。 For example, in the example shown in FIG. 7(a), when searching for other plus edges within a predetermined distance (range indicated by a circle in the figure) from the end point E1 of the line segment A of the plus edge, A line segment B with a plus edge is detected. In this case, the count is 1 (less than the threshold), and the plus edge line segment A and the plus edge line segment B form a pair of edges that are connection candidates. Note that if multiple edge line segments (but less than the threshold) are detected, the edge line segment B that has the shortest distance from the plus edge line segment A becomes the connected edge line segment. .

これに対して、影等(建物の影や木漏れ日等)によりノイズのエッジが検出された場合は、図7(b)に示すように、プラスエッジの線分A’に対して、その終点E’から所定距離の範囲内にある他のエッジを検索していくと、多数のエッジが検出され、カウント数が所定数(閾値)以上となる。つまり、当該エッジの線分A’もノイズの一つであると判定でき、当該エッジの線分A’を他のエッジと接続しない。これにより、光の反射やゴミ等によるノイズのエッジが不測に接続されることはなく、その後のフィルタリング等でノイズが除去され、マーカーの検出効率及び検出精度の向上が図られる。 On the other hand, if a noise edge is detected due to shadows (shades of buildings, sunlight filtering through trees, etc.), as shown in FIG. When searching for other edges within a predetermined distance from ', a large number of edges are detected, and the count becomes greater than or equal to the predetermined number (threshold). In other words, the line segment A' of the edge can also be determined to be one of the noises, and the line segment A' of the edge is not connected to other edges. This prevents edges of noise due to light reflection, dust, etc. from being unexpectedly connected, and the noise is removed by subsequent filtering, etc., and marker detection efficiency and detection accuracy are improved.

また、エッジ接続部112は、当該エッジの線分Aと、抽出された当該エッジの線分Aから所定距離の範囲内にあるエッジの成分Bのすべての始点及び終点との距離を算出する。その算出手順を、図8(a)を参照して説明する。図8(a)には、当該エッジの線分A(以下、「エッジA」という。)と、所定距離の範囲内で抽出されたエッジの成分B(以下、「エッジB」という。)の概略図である。エッジAの始点をSaとし、終点をEaとし、エッジBの始点をSbとし、終点をEbとする。 Furthermore, the edge connection unit 112 calculates the distances between the line segment A of the edge and all the start points and end points of the edge component B that are within a predetermined distance from the extracted line segment A of the edge. The calculation procedure will be explained with reference to FIG. 8(a). FIG. 8(a) shows line segment A of the edge (hereinafter referred to as "edge A") and edge component B (hereinafter referred to as "edge B") extracted within a predetermined distance. It is a schematic diagram. The starting point of edge A is Sa, the ending point is Ea, and the starting point of edge B is Sb, and the ending point is Eb.

そして、エッジAを含む直線L(エッジAを延長した直線)の式を算出し、この式と、エッジBの始点Sb及び終点Ebの画像上での位置座標に基づいて、直線LとエッジBの始点Sbとの距離Dsと、直線LとエッジBの終点Ebとの距離Deとを算出する。この直線Lとの距離Ds、Deが、所定値(閾値)以下であるか否かを判定する。閾値を超えたと判定された場合は、このエッジBはノイズである可能性があるため破棄する。以上の距離の算出と判定とを、当該エッジAに対して抽出されたすべてのエッジBについて行う。 Then, an equation for a straight line L including edge A (a straight line extending edge A) is calculated, and based on this equation and the position coordinates of the starting point Sb and ending point Eb of edge B on the image, the equation for straight line L and edge B is calculated. The distance Ds from the starting point Sb of the edge B, and the distance De between the straight line L and the ending point Eb of the edge B are calculated. It is determined whether the distances Ds and De from the straight line L are equal to or less than a predetermined value (threshold value). If it is determined that the threshold value is exceeded, this edge B may be noise and is therefore discarded. The above distance calculation and determination are performed for all edges B extracted for the edge A.

そして、距離Ds、Deが、所定値(閾値)以下であるエッジBが存在する場合は、この条件を満たすエッジBの中から、エッジAとの距離が最短となるエッジBを取得し、エッジAとの接続の候補とする。 Then, if there is an edge B whose distances Ds and De are equal to or less than a predetermined value (threshold value), the edge B whose distance to edge A is the shortest is obtained from among the edges B that satisfy this condition, and the edge It is considered as a candidate for connection with A.

次に、エッジAと、エッジAとの距離が最短となるエッジBとの組の、互いに対向する端点間の走査手順について、図8(b)を参照して説明する。図8(b)は、2つのエッジAとエッジBの端点間の走査手順を説明するための図である。 Next, a scanning procedure between mutually opposing end points of a pair of edge A and edge B having the shortest distance from edge A will be described with reference to FIG. 8(b). FIG. 8(b) is a diagram for explaining the scanning procedure between the end points of two edges A and B.

エッジAの終点EaとエッジBの始点Sbとの間を、エッジA及びエッジBの延びる方向と交差する方向に、所定長さ分走査する。この「所定長さ」は、駐車区画線の幅の長さ(又は画素数)+閾値とすることで、途切れた部分の駐車区画線のエッジを、より精度よく検出できる。 A predetermined distance between the end point Ea of edge A and the start point Sb of edge B is scanned in a direction intersecting the direction in which edges A and B extend. By setting this "predetermined length" to the length of the width of the parking lot line (or the number of pixels) + a threshold value, the edge of the interrupted part of the parking lot line can be detected with higher accuracy.

このとき、終点Eaと始点Sbを含む画素のラインは、必ず走査することが望ましい。しかし、終点Ea1と始点Sb1との間は、必ずしもすべての画素のラインを走査する必要はなく、Y軸方向において所定間隔で複数ラインを走査すればよい。この走査での輝度差や方向の閾値は、エッジ検出部111がエッジを検出する際の輝度差や方向の閾値よりも小さくてよい。 At this time, it is desirable to always scan the pixel line including the end point Ea and the start point Sb. However, between the end point Ea1 and the start point Sb1, it is not necessary to scan all the pixel lines, and it is sufficient to scan a plurality of lines at predetermined intervals in the Y-axis direction. The brightness difference and direction thresholds in this scan may be smaller than the brightness differences and direction thresholds used when the edge detection unit 111 detects edges.

この走査によって、輝度の立上り(プラスエッジ)と立下がり(マイナスエッジ)が検出されたとき、マーカーと判定できる情報が検出されたと判定する。この図8(b)に、走査するラインと方向を矢印で示す。また、検出されたプラスエッジを白丸で示し、マイナスエッジを黒丸で示す。 When a rising edge (plus edge) and a falling edge (minus edge) of luminance are detected through this scanning, it is determined that information that can be determined as a marker has been detected. In FIG. 8(b), the lines and directions to be scanned are shown by arrows. Further, detected positive edges are shown as white circles, and detected negative edges are shown as black circles.

ここで、輝度の立上がりと立下りが、終点Ea、始点Sbをそれぞれ含む画素のライン及び他のすべてのラインでも検出された場合は、駐車区画線が検出されたと判定する。なお、他のラインの中で、1ライン程度が輝度の立上がりと立下りが検出されなかった場合でも、駐車区画線が検出されたと判定する。いずれの条件も満たさないときは、駐車区画線が検出されないと判定する。これにより、駐車区画線の検出精度が向上する。 Here, if the rise and fall of the brightness are also detected in the pixel line including the end point Ea and the start point Sb, respectively, and all other lines, it is determined that a parking lot line has been detected. Note that even if the rise and fall of luminance are not detected in about one line among the other lines, it is determined that a parking lot line has been detected. If neither condition is satisfied, it is determined that no parking lot line is detected. This improves the accuracy of parking lot line detection.

そして、2つのエッジの端点間に駐車区画線が検出され、かつ2つのエッジ間の距離が閾値以下である場合は、2つのエッジを接続して一のエッジ(接続エッジ)とする。つまり、図8(b)の例では、エッジAの始点を接続エッジの始点とし、エッジBの終点を接続エッジの終点とした接続エッジの情報を記憶部120に記憶する。よって、エッジAとエッジBの情報は記憶部120から削除される。 If a parking lot line is detected between the end points of the two edges and the distance between the two edges is less than or equal to the threshold, the two edges are connected to form one edge (connected edge). That is, in the example shown in FIG. 8B, information about connected edges in which the starting point of edge A is the starting point of the connecting edge and the ending point of edge B is the ending point of the connecting edge is stored in the storage unit 120. Therefore, the information on edge A and edge B is deleted from the storage unit 120.

これに対して、2つのエッジの端点間に線のエッジが検出されないか、2つのエッジ間の距離が閾値超である場合は、互いに異なる物体から検出されたエッジ、もともと分離したエッジであることから、接続を行わない。よって、エッジAとエッジBの情報(始点、終点の座標情報)は、そのまま記憶部120へ記憶される。 On the other hand, if no line edge is detected between the end points of the two edges, or if the distance between the two edges exceeds the threshold, the edges are detected from different objects or are originally separate edges. , no connection is made. Therefore, the information on edge A and edge B (coordinate information on the starting point and ending point) is stored in the storage unit 120 as is.

ところで、接続候補のエッジの組は、同じ駐車区画線のエッジであるため、2つのエッジの延びる方向(角度)は原則同じであるが、撮影画像のゆがみ補正や俯瞰画像への変換処理の影響で角度に差を生じる場合がある。この角度差が大きいと、2つのエッジを連結したときに、駐車区画線の検出精度に影響するため、接続しないほうがよい場合がある。 By the way, since the pair of edges that are connection candidates are the edges of the same parking lot line, the extending directions (angles) of the two edges are basically the same, but the effects of distortion correction of the captured image and conversion processing to an overhead image may be affected. There may be a difference in the angle. If this angular difference is large, the detection accuracy of the parking lot line will be affected when the two edges are connected, so it may be better not to connect them.

このため、本実施の形態では、接続候補とされたエッジの組の、当該エッジと、当該エッジとの距離が最短となるエッジの端点間の距離を算出し、その距離が閾値以下であるか否かを判定し、この判定結果に基づいて、両エッジを接続するか否かを判定している。両エッジの角度差が大きい程、これらの距離が大きくなる。 For this reason, in this embodiment, the distance between the edge and the end point of the edge with the shortest distance of a pair of edges that are considered connection candidates is calculated, and whether the distance is less than or equal to a threshold value is calculated. Based on this determination result, it is determined whether or not to connect both edges. The greater the angular difference between both edges, the greater these distances.

すなわち、エッジ接続部112は、接続の候補とされたエッジの組の2つのエッジのうち、長いエッジを長エッジとし、短いエッジを短エッジとし、長エッジが構成する直線の式を算出する。そして、下記(1)、(2)の条件の何れかを満たすときに、長エッジと短エッジとを接続して一のエッジとする。 That is, the edge connection unit 112 regards the longer edge as the long edge and the shorter edge as the short edge among the two edges of the set of edges that are candidates for connection, and calculates the equation of the straight line formed by the long edges. Then, when either of the following conditions (1) or (2) is satisfied, the long edge and the short edge are connected to form one edge.

(1)長エッジで構成される直線と短エッジの始点との距離が第1の閾値以下であり、かつ、この直線と短エッジの終点との距離が第2の閾値(ただし、第1の閾値<第2の閾値)以下である。
(2)長エッジの直線と短エッジの始点との距離が第2の閾値以下であり、かつ、この直線と短エッジの終点との距離が第1の閾値以下である。
(1) The distance between the straight line composed of long edges and the start point of the short edge is less than or equal to the first threshold, and the distance between this straight line and the end point of the short edge is equal to or less than the second threshold (however, (threshold value<second threshold value) or less.
(2) The distance between the straight line of the long edge and the start point of the short edge is less than or equal to the second threshold, and the distance between this straight line and the end point of the short edge is less than or equal to the first threshold.

図9(a)は、短エッジA1と長エッジB1の組において、上記(1)の条件を満たす場合の例である。長エッジB1を延長した直線(破線)L1と、短エッジA1の始点Sa1との距離D1が、第1の閾値(厳しめの閾値)以下であり、かつ、直線L1と短エッジA1の終点Ea1との距離D1が、第2の閾値(緩めの閾値)以下である。 FIG. 9A is an example of a case where the above condition (1) is satisfied in a pair of short edge A1 and long edge B1. The distance D1 between the straight line (broken line) L1 that is an extension of the long edge B1 and the starting point Sa1 of the short edge A1 is less than or equal to the first threshold (severe threshold), and the straight line L1 and the ending point Ea1 of the short edge A1 The distance D1 is less than or equal to the second threshold (relaxed threshold).

図9(b)は、短エッジA2と長エッジB2の組において、上記(2)の条件を満たす場合の例である。長エッジB2を延長した直線(破線)L2と、短エッジA2の始点Sa2との距離D3が、第2の閾値(緩めの閾値)以下であり、かつ、直線L2と短エッジA2の終点Ea2との距離D4が、第1の閾値(厳しめの閾値)以下である。 FIG. 9(b) is an example of a case where the above condition (2) is satisfied in a pair of short edge A2 and long edge B2. The distance D3 between the straight line (broken line) L2 that is an extension of the long edge B2 and the starting point Sa2 of the short edge A2 is less than or equal to the second threshold (loose threshold), and the straight line L2 and the end point Ea2 of the short edge A2 The distance D4 is less than or equal to the first threshold (severe threshold).

また、上記条件(1)又は(2)を満足する2つのエッジを接続する場合、実際の駐車区画線の端縁の角度により近づけるため、本実施形態のエッジ接続部112は、当該エッジとの距離が最短となるエッジに近い端点とは反対側にある当該エッジの端点を、一のエッジの始点の座標とする。また、当該エッジを延長した直線と、当該エッジに近い、当該エッジとの距離が最短となるエッジの端点とは反対側の端点のx座標との距離が閾値以内のとき、当該エッジとの距離が最短となるエッジの終点を、一のエッジの終点の座標とする。これに対して、当該エッジを延長した直線と、当該エッジとの距離が最短となるエッジの終点のx座標との距離が閾値より大きいときは、当該エッジとの距離が最短となるエッジの終点のx座標から当該エッジを延長した直線へ垂直に向かった交点を、一のエッジの終点の座標とする。より詳細には、以下の処理を行っている。 Furthermore, when connecting two edges that satisfy the above condition (1) or (2), in order to bring the angle closer to the edge of the actual parking lot line, the edge connecting portion 112 of this embodiment is connected to the edge of the actual parking lot line. The end point of the edge on the opposite side from the end point closest to the edge with the shortest distance is set as the coordinates of the starting point of one edge. In addition, if the distance between the straight line that is an extension of the edge and the x-coordinate of the end point on the opposite side of the end point of the edge that is close to the edge and has the shortest distance to the edge is within the threshold, the distance to the edge The end point of the edge where is the shortest is the coordinate of the end point of one edge. On the other hand, if the distance between the straight line that is an extension of the edge and the x-coordinate of the end point of the edge with the shortest distance to the edge is greater than the threshold, then the end point of the edge with the shortest distance to the edge The point of intersection perpendicular to the straight line extending the edge from the x-coordinate of is the coordinate of the end point of one edge. More specifically, the following processing is performed.

エッジ接続部112は、(3)長エッジの終点と短エッジの始点とが対向している場合は、長エッジの始点の座標を、接続した一のエッジの始点の座標とする。終点の座標は、以下の条件に応じて設定する。 (3) If the end point of the long edge and the start point of the short edge are opposite, the edge connection unit 112 sets the coordinates of the start point of the long edge to the coordinates of the start point of one connected edge. The coordinates of the end point are set according to the following conditions.

(3-1)長エッジを延長した直線と短エッジの終点のx座標との距離(差分)が第3の閾値(厳しめの閾値)以下であり、かつ直線と短エッジの終点との距離が第4の閾値(緩めの閾値)以下である条件を満たすとき、短エッジの終点の座標を、一のエッジの終点の座標とする。
(3-2)上記(3-1)の条件を満たさない場合は、短エッジの終点のx座標から直線へ垂直に向かった交点の座標を、一のエッジの終点の座標とする。
(3-1) The distance (difference) between the straight line that is an extension of the long edge and the x-coordinate of the end point of the short edge is less than or equal to the third threshold (stricter threshold), and the distance between the straight line and the end point of the short edge is less than or equal to the fourth threshold (relaxed threshold), the coordinates of the end point of the short edge are set as the coordinates of the end point of one edge.
(3-2) If the above condition (3-1) is not satisfied, the coordinates of the intersection perpendicular to the straight line from the x-coordinate of the end point of the short edge are set as the coordinates of the end point of one edge.

これに対して、(4)長エッジの始点と短エッジの終点とが対向している場合は、長エッジの終点座標を、一のエッジの終点座標とし、短エッジの始点座標を、一のエッジの始点座標とする。 On the other hand, (4) if the start point of the long edge and the end point of the short edge are opposite, the end point coordinates of the long edge are the end point coordinates of one edge, and the start point coordinates of the short edge are the end point coordinates of one edge. Use the start point coordinates of the edge.

図10に具体例を示す。図10(a)は、上記(3)の条件を満たす具体例である。当該エッジであるエッジA3が長エッジであり、エッジA3との距離が最短となるエッジB3が短エッジである。長エッジA3の終点Ea3と、短エッジB3の始点Sb3とが対向している。この場合において、長エッジA3が構成する直線L3と、短エッジB3の終点Eb3のX座標の差分をmとし、直線L3と短エッジB3の終点Eb3との距離をD5とする。 A specific example is shown in FIG. FIG. 10(a) is a specific example that satisfies the condition (3) above. The edge A3 is the long edge, and the edge B3 having the shortest distance from the edge A3 is the short edge. The end point Ea3 of the long edge A3 and the start point Sb3 of the short edge B3 are opposite to each other. In this case, the difference in the X coordinates of the straight line L3 formed by the long edge A3 and the end point Eb3 of the short edge B3 is defined as m, and the distance between the straight line L3 and the end point Eb3 of the short edge B3 is defined as D5.

長エッジA3と短エッジB3を接続した一のエッジ(接続エッジ)の始点の座標は、長エッジA3の始点Sa3の座標(x3,y3)となる。また、差分m、距離D5が、(3-1)の条件:差分m≦第3の閾値、かつ距離D5≦第4の閾値を満たす場合は、短エッジB3の終点Eb3の座標(x4,y4)が、接続エッジの終点の座標となる。これに対して、(3-2)場合、短エッジB3の終点Eb3からの垂線hと直線L3との交点の座標(x5,y5)が、接続エッジの終点の座標となり、終点の位置が補正される。 The coordinates of the starting point of one edge (connection edge) connecting the long edge A3 and the short edge B3 are the coordinates (x 3 , y 3 ) of the starting point Sa3 of the long edge A3. Further, if the difference m and the distance D5 satisfy the conditions (3-1): difference m≦third threshold and distance D5≦4th threshold, the coordinates (x 4 , y 4 ) is the coordinate of the end point of the connected edge. On the other hand, in case (3-2), the coordinates (x 5 , y 5 ) of the intersection of the perpendicular h from the end point Eb3 of the short edge B3 and the straight line L3 are the coordinates of the end point of the connecting edge, and the position of the end point is is corrected.

図10(b)は、上記(4)の条件を満たす具体例であり、当該エッジであるエッジA4が短エッジであり、エッジBが長エッジである。短エッジA4の終点Ea4と、長エッジB4(距離が最短となるエッジ)の始点Sb4とが対向している。この場合は、短エッジA4の始点Sa4の座標(x6,y6)が接続エッジの始点の座標となる。また、長エッジB4の終点Eb4の座標(x9,y9)が接続エッジの終点の座標となる。 FIG. 10B is a specific example that satisfies the condition (4) above, in which the edge A4 is a short edge, and the edge B is a long edge. The end point Ea4 of the short edge A4 and the start point Sb4 of the long edge B4 (the edge with the shortest distance) are opposite to each other. In this case, the coordinates (x 6 , y 6 ) of the starting point Sa4 of the short edge A4 are the coordinates of the starting point of the connecting edge. Further, the coordinates (x 9 , y 9 ) of the end point Eb4 of the long edge B4 are the coordinates of the end point of the connecting edge.

このように当該エッジと、当該エッジとの距離が最短となるエッジとの長短の相違、長エッジの直線と短エッジの終点との距離に応じて、接続エッジの始点と端点の座標を設定する。また、何れかの距離が閾値を超えたときは、接続エッジの終点に、補正した座標を設定する。これにより、接続エッジの端点を、より正確な位置に設定できる。 In this way, the coordinates of the starting point and end point of the connecting edge are set according to the difference in length between the relevant edge and the edge with the shortest distance to the relevant edge, and the distance between the straight line of the long edge and the end point of the short edge. . Furthermore, if any distance exceeds the threshold, the corrected coordinates are set at the end point of the connected edge. This allows the end points of the connection edges to be set at more accurate positions.

以上のエッジ接続部112の動作により、途切れたエッジが接続される。図6Bに、エッジ接続部112によって途切れたエッジが接続されたイメージを示す。 By the above-described operation of the edge connecting section 112, the interrupted edges are connected. FIG. 6B shows an image in which interrupted edges are connected by the edge connection section 112.

マーカー検出部113は、エッジ検出部111によって検出されたエッジ、及びエッジ接続部112によって接続されたエッジに基づいて、マーカーとしての駐車区画線を検出する。より詳細には、まず、予め決められた基準長さ以上の長さを有し、かつ予め決められた方向(角度)に延びるプラスエッジの線分及びマイナスエッジの線分を抽出する。 The marker detection unit 113 detects a parking lot line as a marker based on the edge detected by the edge detection unit 111 and the edge connected by the edge connection unit 112. More specifically, first, plus-edge line segments and minus-edge line segments that have a length equal to or greater than a predetermined reference length and extend in a predetermined direction (angle) are extracted.

基準長さは、例えば、車両Vの車長分(例えば5m)の長さとすることができるが、駐車区画線が短い場合等は、車長よりも短い長さとしている。角度は、車両Vの走行方向、画像を撮影したカメラ20の向き等を考慮した角度としている。図6の場合は、駐車区画線は、走行方向に対して駐車スペースに向かって略直角に延びる直線であるため、角度=90°±閾値としている。 The reference length can be, for example, the length of the vehicle V (for example, 5 m), but if the parking lot line is short, the reference length is set to be shorter than the vehicle length. The angle is an angle that takes into account the running direction of the vehicle V, the direction of the camera 20 that took the image, and the like. In the case of FIG. 6, the parking lot line is a straight line extending substantially perpendicularly toward the parking space with respect to the driving direction, so the angle is set to 90°±threshold value.

次いで、抽出された複数のプラスエッジの線分及びマイナスエッジの線分の各々の始点及び終点の位置(座標)を算出し、この位置に基づいて、所定間隔で隣り合うプラスエッジの線分とマイナスエッジの線分を抽出し、駐車区画線を構成するエッジのペアであると判定する。例えば、プラスエッジとマイナスエッジの距離が、例えば、駐車区画線の線幅±閾値の範囲内であるときに、これらをペアと判定する。これに対して、基準長さより短いエッジや、垂直方向以外に延びる長いエッジの線分、ペアの見つからないエッジの線分はノイズとして破棄する。図6Bに示す例では、駐車区画線K1,K2,K3,K4,K5,K6が検出される。 Next, the positions (coordinates) of the start and end points of each of the extracted plus edge line segments and minus edge line segments are calculated, and based on these positions, the positions (coordinates) of the plus edge line segments adjacent to each other at a predetermined interval are calculated. Line segments with negative edges are extracted and determined to be a pair of edges forming a parking lot line. For example, when the distance between the plus edge and the minus edge is within the range of, for example, the line width of the parking lot line±threshold value, these are determined to be a pair. On the other hand, edges shorter than the reference length, long edge line segments extending in a direction other than the vertical direction, and edge line segments for which no pair is found are discarded as noise. In the example shown in FIG. 6B, parking lot lines K1, K2, K3, K4, K5, and K6 are detected.

駐車枠検出部114は、マーカー検出部113により検出された駐車区画線に基づいて、駐車枠及び駐車スペースを検出し、駐車枠登録データ121を記憶部120に記憶する。 The parking frame detection unit 114 detects a parking frame and a parking space based on the parking lot line detected by the marker detection unit 113, and stores parking frame registration data 121 in the storage unit 120.

より具体的には、駐車枠検出部114は、まず、マーカー検出部113で検出された複数の駐車区画線のプラスエッジの線分及びマイナスエッジの線分のペアの中で、駐車スペースを構成する可能性のある向い合う2本の線を選択する。ここで選択される2本の線は、駐車スペースを仕切る一対の駐車区画線の左右両端を構成する線であり、所定の駐車区画線(例えば、図6Bに示すK3)のマイナスエッジの線分と、これに向かい合う駐車区画線(図6Bに示すK4)のプラスエッジの線分である。 More specifically, the parking frame detection unit 114 first configures a parking space among the pairs of plus edge line segments and minus edge line segments of the plurality of parking lot lines detected by the marker detection unit 113. Select two opposing lines that have the potential to The two lines selected here are the lines that constitute the left and right ends of a pair of parking lot lines that separate the parking spaces, and are the negative edge line segments of a predetermined parking lot line (for example, K3 shown in FIG. 6B). and a plus edge line segment of the parking lot line (K4 shown in FIG. 6B) facing this.

そして、駐車枠検出部114は、選択された2本のエッジの線分間の距離(隣り合う駐車区画線の内法寸法)を、各エッジの端点の座標に基づいて算出する。算出された距離が、所定範囲内(例えば、駐車スペース幅幅±閾値の範囲内)にあるか判定する。この距離が所定範囲内であれば、2本のエッジの線分で仕切られた領域を駐車スペースとして検出する。駐車スペース幅としては、普通自動車や小型貨物車用の駐車スペースであれば2m~3mが望ましい。大型貨物車やバス用の駐車スペースであれば、3.3m以上が望ましい。 Then, the parking frame detection unit 114 calculates the distance between the line segments of the two selected edges (inner dimensions of adjacent parking lot lines) based on the coordinates of the end points of each edge. It is determined whether the calculated distance is within a predetermined range (for example, within a range of parking space width ± threshold value). If this distance is within a predetermined range, the area partitioned by the line segments of the two edges is detected as a parking space. The width of the parking space is preferably 2m to 3m if it is for a regular car or small cargo vehicle. If it is a parking space for a large freight vehicle or bus, a height of 3.3 m or more is desirable.

検出された駐車スペースを構成する向かい合うプラスエッジの線分とマイナスエッジの線分に沿った線を長辺とし、向かい合う両端をそれぞれ結んだ線を短辺とする矩形状の枠が駐車枠201(図5参照)であり、その内部が駐車スペースであると推定できる。 The parking frame 201 is a rectangular frame whose long side is a line along the opposite positive edge line segment and negative edge line segment that constitute the detected parking space, and whose short side is a line connecting the opposing ends, respectively. (see FIG. 5), and it can be estimated that the inside thereof is a parking space.

エッジ接続部112によってエッジが高精度に検出され、その後のマーカー検出部113の処理によって駐車区画線が高精度に行われているので、駐車枠検出部114による駐車スペースの検出も高精度に行うことができる。つまり、影によって途切れた駐車区画線の端点がより正確な位置に補正され、駐車枠及び駐車スペースの形状や位置もより正確に検出できる。 Edges are detected with high accuracy by the edge connection unit 112, and parking lot lines are determined with high accuracy through subsequent processing by the marker detection unit 113, so parking spaces are also detected with high accuracy by the parking frame detection unit 114. be able to. In other words, the end points of parking lot lines interrupted by shadows are corrected to more accurate positions, and the shapes and positions of parking frames and parking spaces can also be detected more accurately.

そして、駐車枠検出部114は、駐車スペースを区画する駐車枠201を構成する向かい合うプラスエッジの線分及びマイナスエッジの線分の端点の座標値を各々算出し、駐車枠登録データ121として記憶部120に登録する。このとき、駐車枠201の少なくとも車両Vに近い側の2つの端点の座標値を登録すれば、記憶容量をできるだけ少なくしつつ、駐車枠201を特定できるが、4点の座標値を登録してもよい。また、駐車区画線200の角度(延在方向)、その他自動駐車処理に必要な情報を駐車枠登録データ121に加えることもできる。 Then, the parking frame detection unit 114 calculates the coordinate values of the end points of the opposing plus-edge line segments and minus-edge line segments that constitute the parking frame 201 that partitions the parking space, and stores them as parking frame registration data 121. Register at 120. At this time, by registering the coordinate values of at least the two end points of the parking frame 201 on the side closer to the vehicle V, the parking frame 201 can be identified while minimizing the storage capacity. However, if the coordinate values of the four points are registered, Good too. Further, the angle (extending direction) of the parking lot line 200 and other information necessary for automatic parking processing can also be added to the parking space registration data 121.

また、駐車枠検出部114は、検出した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行うこともできる。例えば、検出された駐車スペースに他車両や障害物等が存在するときには、駐車ができないと判断して、駐車枠登録データ121として記憶部120に登録しないようにする。また、駐車枠検出部114は、車両Vから近い駐車枠、又は駐車し易い駐車枠を、駐車可能な駐車枠と判定し、駐車枠登録データ121として記憶部120に登録することもできる。 Moreover, the parking frame detection unit 114 can also perform a determination process or the like to determine whether or not the vehicle V can be parked in the detected parking frame. For example, if there are other vehicles or obstacles in the detected parking space, it is determined that parking is not possible and the parking space is not registered in the storage unit 120 as the parking space registration data 121. Moreover, the parking frame detection unit 114 can also determine a parking frame that is close to the vehicle V or a parking frame that is easy to park as a parking frame that can be parked, and register it in the storage unit 120 as the parking frame registration data 121.

表示制御部115は、カメラ20により撮像された車両Vの周囲の路面画像や、駐車枠検出部114により検出、推定された駐車枠を示す画像をこの路面画像に適宜重複して、あるいは単独でナビゲーション装置(表示装置)30のモニター31に表示させるための表示制御信号をナビゲーション装置30に送出する。 The display control unit 115 displays the road surface image around the vehicle V captured by the camera 20 and the image indicating the parking space detected and estimated by the parking space detection unit 114, as appropriate, overlapping with this road surface image or singly. A display control signal to be displayed on the monitor 31 of the navigation device (display device) 30 is sent to the navigation device 30.

記憶部120は、ハードディスクドライブ等の大容量記憶媒体やROM、RAM等の半導体記憶媒体などの記憶媒体を有する。記憶部120には、制御部110における各種動作の際に用いられる各種データが一時的または非一時的に格納される。 The storage unit 120 includes a storage medium such as a large capacity storage medium such as a hard disk drive, or a semiconductor storage medium such as ROM or RAM. The storage unit 120 temporarily or non-temporarily stores various data used during various operations in the control unit 110.

また、前述したように、記憶部120には、駐車枠登録データ121、パラメータデータ122が格納される。パラメータデータ122として、エッジ検出時の閾値、当該エッジとの距離が最短となるエッジを検出する際のエッジ間の距離の閾値、エッジの直線とエッジの始点、端点間の各種距離の閾値(第1、第2、第3、第4の閾値、)、カウント数の閾値、駐車区画線や車線境界線等、マーカーとしての境界線の基準長さ、駐車スペース幅及びその閾値等を格納できる。さらに、境界線の幅、延在方向の角度等、画像処理装置100が使用する様々なパラメータを格納できる。また、駐車支援装置1が使用される国、地域、駐車スペース(駐車枠)の形状や大きさ、走行車線間の距離や車線境界線の形状等に対応して、複数のパラメータを格納し、適切なパラメータを選択する構成とすることもできる。 Further, as described above, the storage unit 120 stores parking space registration data 121 and parameter data 122. The parameter data 122 includes a threshold for detecting an edge, a threshold for the distance between edges when detecting the edge with the shortest distance to the edge, thresholds for various distances between the straight line of the edge, the start point of the edge, and the end point. 1, 2nd, 3rd, and 4th thresholds), count thresholds, standard lengths of boundary lines as markers such as parking lot lines and lane boundary lines, parking space widths, and their thresholds. Furthermore, various parameters used by the image processing apparatus 100, such as the width of the boundary line and the angle of the extending direction, can be stored. In addition, a plurality of parameters are stored corresponding to the country and region where the parking assist device 1 is used, the shape and size of the parking space (parking frame), the distance between driving lanes, the shape of the lane boundary line, etc. It may also be configured to select appropriate parameters.

(画像処理装置の動作)
次に、本実施の形態である画像処理装置100の動作の一例を図4A、図4Bのフローチャートを参照して説明する。
(Operation of image processing device)
Next, an example of the operation of the image processing apparatus 100 according to this embodiment will be described with reference to the flowcharts of FIGS. 4A and 4B.

図4は画像処理装置100の動作を説明するためのフローチャートであり、図4Bはエッジ接続部112の動作の一例を説明するためのフローチャートである。図4A、図4Bのフローチャートに示す動作は、運転者が図略の自動駐車開始スイッチを操作して自動駐車開始の指示入力を行うことにより開始する。 FIG. 4 is a flowchart for explaining the operation of the image processing apparatus 100, and FIG. 4B is a flowchart for explaining an example of the operation of the edge connection unit 112. The operations shown in the flowcharts of FIGS. 4A and 4B are started when the driver inputs an instruction to start automatic parking by operating an automatic parking start switch (not shown).

図4Aに示すステップS1では、画像処理装置100の制御部110が、カメラ20により撮像された車両Vの周囲の路面Rの画像信号を取得する。 In step S1 shown in FIG. 4A, the control unit 110 of the image processing device 100 acquires an image signal of the road surface R around the vehicle V captured by the camera 20.

ステップS2では、ステップS1により取得された画像信号に基づき、制御部110がこれら画像信号を合成した信号を生成する。ステップS2において合成して生成される信号は、あたかも車両Vの上方にカメラを設置して真下を見下ろしたような画像(俯瞰画像)をナビゲーション装置30に表示させるための信号である。このような俯瞰画像を表示するための信号を生成する技術は公知であり、一例として、特開平3-99952号公報や特開2003-118522号公報に開示された技術が知られている。 In step S2, based on the image signal acquired in step S1, the control unit 110 generates a signal by combining these image signals. The signal that is synthesized and generated in step S2 is a signal that causes the navigation device 30 to display an image (overhead image) as if a camera was installed above the vehicle V and looked down directly below. Techniques for generating signals for displaying such bird's-eye images are well known, and examples include techniques disclosed in Japanese Patent Application Laid-Open Nos. 3-99952 and 2003-118522.

図6は、合成して生成された信号に基づく俯瞰画像Gの一例である。この俯瞰画像Gは、カメラ20a~20dで撮影された画像信号に基づいて、それぞれ車両Vを真上から見下ろした俯瞰画像g1,g2,g3,g4を表示するための画像信号に変換して、さらに各画像信号を合成して生成された信号に基づいて表示される画像である。俯瞰画像Gの中心部分には、車両Vを真上から見下ろした状態を示すアイコンIが表示される。 FIG. 6 is an example of an overhead image G based on signals generated by combining. This bird's-eye image G is converted into an image signal for displaying bird's-eye images g1, g2, g3, and g4 looking down on the vehicle V from directly above, respectively, based on the image signals taken by the cameras 20a to 20d. Furthermore, it is an image displayed based on a signal generated by combining each image signal. In the center of the bird's-eye view image G, an icon I indicating a state in which the vehicle V is viewed from directly above is displayed.

なお、ステップS2において、俯瞰画像Gを表示するための信号合成作業を行わず、あるいは、次のステップS3におけるプラスエッジとマイナスエッジの抽出の後にステップS2における信号合成作業を行うこともできる。しかしながら、信号合成作業を行ってからプラスエッジとマイナスエッジの抽出作業を行うほうが画像処理装置100の処理負担が低減できる。 Note that the signal synthesis work for displaying the bird's-eye view image G may not be performed in step S2, or the signal synthesis work in step S2 may be performed after the extraction of plus edges and minus edges in the next step S3. However, the processing load on the image processing apparatus 100 can be reduced by performing the signal synthesis work and then performing the positive edge and negative edge extraction work.

ステップS3(エッジ検出工程)では、前述したように、エッジ検出部111がステップS2で合成した俯瞰画像Gを所定方向に走査し、画像信号の輝度値に基づいて、画像中のプラスエッジ及びマイナスエッジを検出する(図6A参照)。 In step S3 (edge detection step), as described above, the edge detection unit 111 scans the overhead image G synthesized in step S2 in a predetermined direction, and detects positive edges and negative edges in the image based on the brightness value of the image signal. Detect edges (see FIG. 6A).

次のステップS4(エッジ接続工程)では、エッジ接続部112が途切れたエッジ同士を接続する。エッジ接続部112によるエッジ接続工程の詳細を、図4Bのフローチャートを参照しながら説明する。 In the next step S4 (edge connection step), the edge connection portion 112 connects the interrupted edges. Details of the edge connection process by the edge connection section 112 will be explained with reference to the flowchart of FIG. 4B.

エッジ接続工程では、図4Bに示すように、ステップS401~S405の近傍(「所定距離の範囲内」を意味する。)のエッジBの検出ループ処理を実行して、エッジ検出部111によって検出された複数のエッジ(エッジA)に対して、近傍に存在するエッジを抽出する。このステップS401~S405のループ処理は、すべてのエッジAに対する処理が終了するまで繰り返す。 In the edge connection process, as shown in FIG. 4B, a detection loop process is executed for the edge B in the vicinity (meaning "within a predetermined distance") of steps S401 to S405, and the edge B detected by the edge detection unit 111 is detected. Edges existing in the vicinity of the plurality of edges (edge A) are extracted. This loop process of steps S401 to S405 is repeated until the process for all edges A is completed.

まず、ステップS402で、複数のエッジの中から、1つのエッジを選択し、これを当該エッジ(エッジA)とする。このエッジAの端点を中心として、所定距離の範囲内にあるエッジ(エッジB)を抽出する。エッジBを抽出したら、エッジ点数をカウントアップする。 First, in step S402, one edge is selected from among a plurality of edges, and this is defined as the edge (edge A). An edge (edge B) within a predetermined distance around the end point of edge A is extracted. After extracting edge B, count up the number of edge points.

ステップS403で、所定距離の範囲内にあるエッジBが検出されたか判定し、検出された(エッジ点数>0)と判定したときは(YES)、エッジ点数と、検出したエッジBの情報を、エッジAの情報と対応して記憶部120に登録する。一方、1つも検出されない(エッジ点数=0)と判定したときは(NO)、ステップS404の処理をスキップし、S402に戻って、次のエッジAについて処理を行う。 In step S403, it is determined whether an edge B within a predetermined distance has been detected, and when it is determined that it has been detected (number of edge points>0) (YES), the number of edge points and information on the detected edge B are It is registered in the storage unit 120 in correspondence with the information on edge A. On the other hand, if it is determined that no edge points are detected (number of edge points=0) (NO), the process of step S404 is skipped, and the process returns to S402 to process the next edge A.

すべてのエッジAに対する処理が終了して、近傍のエッジBの検出ループ処理が終了したら、ステップS406へ進む。そして、ステップS406~SS416のエッジの接続ループ処理を実行して、影や照明等によって途切れたエッジを接続する。このステップS406~S416のループ処理は、すべてのエッジAとエッジBとの組み合わせに対する処理が終了するまで繰り返す。 When the processing for all edges A is completed and the detection loop processing for the nearby edge B is completed, the process advances to step S406. Then, edge connection loop processing in steps S406 to SS416 is executed to connect edges interrupted by shadows, illumination, or the like. This loop processing of steps S406 to S416 is repeated until processing for all combinations of edges A and B is completed.

まず、ステップS407で、エッジAと1以上のエッジBとの組み合わせの中から、順番に選択された一組の組み合わせに関して、エッジ点数が閾値以下か否かを判定する。エッジ点数が閾値以下であると判定した場合は(YES)、ノイズが少なく、エッジAと接続可能なエッジBが存在し得るとして、ステップS408へと進む。 First, in step S407, it is determined whether or not the number of edge points is equal to or less than a threshold value for a set of combinations sequentially selected from among the combinations of edge A and one or more edges B. If it is determined that the number of edge points is less than or equal to the threshold (YES), it is assumed that there is an edge B that has little noise and can be connected to edge A, and the process advances to step S408.

これに対して、エッジ点数が閾値を超えたと判定した場合は(NO)、エッジBは木漏れ日等による多くのノイズであると推定され、当該エッジAをエッジの接続対象とせず、ステップS408以降の処理をスキップする。次のエッジAとエッジBとの組み合わせが存在すれば、ステップS407へ戻り、存在しない場合はエッジの接続ループを終了する。 On the other hand, if it is determined that the number of edge points exceeds the threshold (NO), it is estimated that edge B is a lot of noise due to sunlight filtering through the trees, etc., and the edge A is not connected to the edge and the steps from step S408 onward are performed. Skip processing. If the next combination of edge A and edge B exists, the process returns to step S407, and if it does not exist, the edge connection loop ends.

次のステップS408では、エッジAの直線と、すべてのエッジBの始点、終点との距離を算出する(図8(a)参照)。次のステップS409で、エッジAの直線とエッジBの始点、終点との距離が閾値以下のものが存在するか否かを判定する。閾値以下のものが存在すると判定した場合には(YES)、ステップS410へと進む。これに対して、閾値以下のものが存在しないと判定した場合には(NO)、ステップS410以降の処理をスキップする。次のエッジAとエッジBとの組み合わせが存在すれば、ステップS407へ戻り、存在しない場合はエッジの接続ループを終了する。 In the next step S408, the distances between the straight line of edge A and the start and end points of all edges B are calculated (see FIG. 8(a)). In the next step S409, it is determined whether there is a straight line of edge A and the start point and end point of edge B for which the distance is less than or equal to a threshold value. If it is determined that there is a value below the threshold (YES), the process advances to step S410. On the other hand, if it is determined that there is no one below the threshold value (NO), the processing from step S410 onward is skipped. If the next combination of edge A and edge B exists, the process returns to step S407, and if it does not exist, the edge connection loop ends.

ステップS410では、ステップS408で算出された距離に基づいて、エッジAとの距離が最短のエッジBを抽出する。次に、ステップS411で、エッジAの終点と、エッジBの始点との間を走査し、プラスエッジ及びマイナスエッジ(つまり、駐車区画線と判定できる情報)を検出する。ステップS412で、駐車区画線が検出されたと判定した場合は(YES)、ステップS413へと進む。前述のように、端点間の走査によってプラスエッジとマイナスエッジとが検出されたら、駐車区画線が検出されたと判定する。これに対して、駐車区画線が検出されなかった場合、つまりエッジが検出されなかった場合は(NO)、エッジAとエッジBとは互いに異なる物体から検出されたエッジであることから、接続対象から除外すべく、ステップS413以降の処理をスキップする。次のエッジAとエッジBとの組み合わせが存在すれば、ステップS407へ戻り、存在しない場合はエッジの接続ループを終了する。 In step S410, edge B having the shortest distance to edge A is extracted based on the distance calculated in step S408. Next, in step S411, a scan is performed between the end point of edge A and the start point of edge B, and positive edges and negative edges (that is, information that can be determined as parking lot lines) are detected. If it is determined in step S412 that a parking lot line has been detected (YES), the process advances to step S413. As described above, if a plus edge and a minus edge are detected by scanning between end points, it is determined that a parking lot line has been detected. On the other hand, if a parking lot line is not detected, that is, if an edge is not detected (NO), edge A and edge B are edges detected from different objects, so the connection target In order to exclude it from the process, the process from step S413 onward is skipped. If the next combination of edge A and edge B exists, the process returns to step S407, and if it does not exist, the edge connection loop ends.

ステップS413では、エッジAとエッジBとを比較して、長いほうを長エッジとし、短いほうを短エッジとする。そして、図9(a)、図9(b)を用いて上記で説明したように、長エッジの直線の式を算出し、長エッジの直線と、短エッジの始点及び終点との距離を算出する。 In step S413, edge A and edge B are compared, and the longer one is determined to be a long edge, and the shorter one is determined to be a short edge. Then, as explained above using FIGS. 9(a) and 9(b), the equation of the long edge straight line is calculated, and the distance between the long edge straight line and the start and end points of the short edge is calculated. do.

そして、ステップS414で、算出した各々の距離が、閾値以下か否かを判定する。より具体的には、長エッジで構成される直線と短エッジの始点との距離が第1の閾値以下であり、かつ、この直線と短エッジの終点との距離が第2の閾値(ただし、第1の閾値<第2の閾値)以下であるか、若しくは、直線と短エッジの始点との距離が第2の閾値以下であり、かつ、直線と短エッジの終点との距離が第1の閾値以下であるか判定する。 Then, in step S414, it is determined whether each calculated distance is less than or equal to a threshold value. More specifically, the distance between a straight line composed of long edges and the starting point of the short edge is less than or equal to a first threshold, and the distance between this straight line and the end point of the short edge is equal to or less than the second threshold (however, (first threshold<second threshold), or the distance between the straight line and the start point of the short edge is less than or equal to the second threshold, and the distance between the straight line and the end point of the short edge is less than or equal to the first Determine whether it is below the threshold.

このステップS414で、上記何れかの条件を満たすと判定した場合は(YES)、ステップS415へと進み、長エッジと短エッジとを接続し、一のエッジ(接続エッジ)として記憶部120に登録する。具体的には、上記で条件(3)、(4)、図10(a)、図10(b)を用いて説明したように、条件に応じて一方のエッジの始点を接続エッジの始点とし、他方のエッジの終点を接続エッジの終点として、各々の位置座標を記憶部120に登録する。次のエッジAとエッジBとの組み合わせが存在すれば、ステップS407へ戻り、存在しない場合はエッジの接続ループを終了する。 If it is determined in this step S414 that any of the above conditions is satisfied (YES), the process advances to step S415, where the long edge and short edge are connected and registered in the storage unit 120 as one edge (connected edge). do. Specifically, as explained above using conditions (3) and (4) and FIGS. 10(a) and 10(b), the starting point of one edge is set as the starting point of the connecting edge according to the conditions. , the position coordinates of each edge are registered in the storage unit 120, with the end point of the other edge as the end point of the connected edge. If the next combination of edge A and edge B exists, the process returns to step S407, and if it does not exist, the edge connection loop ends.

これに対して、ステップS414で、上記何れの条件も満たさないと判定した場合は(NO)、ステップS415の処理をスキップし、エッジの接続を行わない。次のエッジAとエッジBとの組み合わせが存在すれば、ステップS407へ戻り、存在しない場合はエッジの接続ループを終了する。 On the other hand, if it is determined in step S414 that none of the above conditions are satisfied (NO), the process in step S415 is skipped and the edges are not connected. If the next combination of edge A and edge B exists, the process returns to step S407, and if it does not exist, the edge connection loop ends.

以上により、影や照明等によって途切れたエッジが適切に接続される。また、エッジが3以上に分断されている場合にも、これらが適切に接続される。つまり、1つ目のエッジについてエッジ接続処理を実行すると、1つ目と2つ目のエッジが接続されて接続エッジが生成される。その後、3つ目のエッジについてエッジ接続処理が実行されることで、3つ目のエッジに接続エッジが接続され、新たな接続エッジが生成される。同様に、4つ目以降のエッジと接続エッジとが接続されていき、複数に分断されたエッジが、最終的に一のエッジとなる。 As described above, edges interrupted by shadows, lighting, etc. are appropriately connected. Further, even when the edge is divided into three or more parts, these parts are appropriately connected. That is, when edge connection processing is performed on the first edge, the first and second edges are connected to generate a connected edge. Thereafter, edge connection processing is performed on the third edge, thereby connecting the connection edge to the third edge and generating a new connection edge. Similarly, the fourth and subsequent edges are connected to the connecting edge, and the edge divided into a plurality of edges finally becomes one edge.

上記ステップS4のエッジ接続工程が終了したら、図4Aに戻り、次のステップS5へと進む。このステップS5(マーカー(駐車区画線)検出工程)では、エッジ検出部111によって検出された複数のプラスエッジ及びマイナスエッジ、並びに、エッジ接続部112によって接続されたプラスエッジ及びマイナスエッジに基づいて、前述したような手順で、マーカー検出部113がマーカーとしての駐車区画線を検出する。すなわち、所定の基準長さ以上の長さを有し、所定間隔で隣り合うプラスエッジの線分とマイナスエッジの線分のペアを検出し、駐車区画線を構成するペアと判定する。これに対して、木漏れ日やゴミ等によって検出されたノイズのエッジや、ペアが見つからないエッジは、駐車区画線のエッジとして抽出されず、破棄される。 When the edge connecting process of step S4 is completed, the process returns to FIG. 4A and proceeds to the next step S5. In this step S5 (marker (parking lane line) detection step), based on the plurality of positive edges and negative edges detected by the edge detection unit 111 and the positive edges and negative edges connected by the edge connection unit 112, The marker detection unit 113 detects a parking lot line as a marker using the procedure described above. That is, a pair of a plus-edge line segment and a minus-edge line segment having a length equal to or longer than a predetermined reference length and adjacent to each other at a predetermined interval is detected and determined to be a pair forming a parking lot line. On the other hand, noise edges detected due to sunlight filtering through trees, garbage, etc., or edges for which no pair is found, are not extracted as parking lot line edges and are discarded.

次いで、ステップS6で、マーカー検出部113は、プラスエッジの線分及びマイナスエッジの線分の始点及び終点の座標情報を、駐車区画線のデータとして記憶部120に登録する。 Next, in step S6, the marker detection unit 113 registers the coordinate information of the start and end points of the plus-edge line segment and the minus-edge line segment in the storage unit 120 as parking lot line data.

その後、ステップS7へと進み、駐車枠検出部114は、記憶部120に登録された駐車区画線(図6Bの例では、駐車区画線K1~K6)に基づいて、前述したような手順で駐車枠及び駐車スペースを検出する。 After that, the process advances to step S7, and the parking frame detection unit 114 performs parking according to the procedure described above based on the parking lot lines registered in the storage unit 120 (in the example of FIG. 6B, parking lot lines K1 to K6). Detect frames and parking spaces.

次のステップS8では、駐車枠検出部114が、各駐車枠201を構成する向かい合うプラスエッジの線分及びマイナスエッジの線分の端点の座標値を各々算出し、駐車枠登録データ121として記憶部120に登録する。記憶部120には、検出したすべての駐車枠登録データ121を登録してもよいし、駐車に適した駐車枠登録データ121のみを登録してもよい。 In the next step S8, the parking frame detection unit 114 calculates the coordinate values of the end points of the opposing plus-edge line segments and minus-edge line segments that constitute each parking frame 201, and stores them as parking frame registration data 121. Register at 120. All detected parking space registration data 121 may be registered in the storage unit 120, or only parking space registration data 121 suitable for parking may be registered.

以上により、画像処理装置100による処理が終了する。画像処理装置100によって検出された駐車枠登録データ121が、車両制御ECU40に送出され、車両Vの駐車を支援する各種処理が実行される。 With the above steps, the processing by the image processing apparatus 100 ends. Parking slot registration data 121 detected by image processing device 100 is sent to vehicle control ECU 40, and various processes to support parking of vehicle V are executed.

(画像処理装置の効果)
以上のように構成された本実施の形態である画像処理装置100では、エッジ検出部111が複数のエッジを検出し、エッジ接続部112が影や照明等によって途切れたエッジを接続する。そして、検出された複数のエッジ及び接続されたエッジに基づいて、マーカー検出部113がマーカーとしての駐車区画線を検出する。これにより、各エッジの端点が、より正確な位置に検出される。また、エッジの延びる方向(角度)もより真値に近い値とすることができる。したがって、路面に描かれたマーカーとしての駐車区画線の検出を、高精度に行うことが可能な画像処理装置100及び画像処理方法を提供できる。
(Effect of image processing device)
In the image processing apparatus 100 of this embodiment configured as described above, the edge detection section 111 detects a plurality of edges, and the edge connection section 112 connects edges interrupted by shadows, illumination, etc. Then, the marker detection unit 113 detects a parking lot line as a marker based on the plurality of detected edges and connected edges. Thereby, the end point of each edge is detected at a more accurate position. Furthermore, the direction (angle) in which the edge extends can also be set to a value closer to the true value. Therefore, it is possible to provide an image processing device 100 and an image processing method that can detect parking lot lines as markers drawn on a road surface with high precision.

また、エッジ接続部112は、当該エッジと、当該エッジとの距離が最短となるエッジとの端点間を、当該エッジが延びる方向に応じた方向で走査して、当該エッジと当該エッジとの距離が最短となるエッジとの間に、マーカーと判定できる情報が含まれているか否かを判定する。これにより、マーカーと判定できる情報が含まれている場合に、当該エッジと当該エッジとの距離が最短となるエッジとが接続され、途切れたマーカーを確実に接続でき、マーカーの端点座標をより真値に近い値とすることができる。よって、マーカーをより高精度に検出できる。 Further, the edge connection unit 112 scans between the end points of the edge and the edge with the shortest distance in a direction according to the direction in which the edge extends, and calculates the distance between the edge and the edge. It is determined whether or not information that can be determined as a marker is included between the edge and the edge where is the shortest. As a result, when information that can be determined to be a marker is included, the edge is connected to the edge with the shortest distance to the edge, making it possible to reliably connect the disconnected marker and make the end point coordinates of the marker more accurate. The value can be close to the value. Therefore, markers can be detected with higher accuracy.

また、エッジ接続部112は、当該エッジから所定距離の範囲内にある他のエッジの数をカウントし、カウント数が所定数以上のときは、当該エッジを他のエッジと接続しない構成である。これにより、影(建物の影や木漏れ日等)や光の反射によって検出されたノイズとなるエッジを接続の対象から除外でき、処理効率及び処理精度を向上できる。 Furthermore, the edge connection unit 112 is configured to count the number of other edges within a predetermined distance from the edge, and when the count is equal to or greater than the predetermined number, does not connect the edge to the other edge. As a result, noise edges detected due to shadows (shadows of buildings, sunlight filtering through trees, etc.) and reflection of light can be excluded from connection targets, and processing efficiency and accuracy can be improved.

また、エッジ接続部112は、当該エッジとの距離が最短となるエッジに近い端点とは反対側にある当該エッジの端点を、一のエッジの始点の座標とする。また、当該エッジを延長した直線と、当該エッジに近い、当該エッジとの距離が最短となるエッジの端点とは反対側の端点のx座標との距離が閾値以内のとき、当該エッジとの距離が最短となるエッジの終点を、一のエッジの終点の座標とする。これに対して、当該エッジを延長した直線と、当該エッジとの距離が最短となるエッジの終点のx座標との距離が閾値より大きいときは、当該エッジとの距離が最短となるエッジの終点のx座標から当該エッジを延長した直線へ垂直に向かった交点を、一のエッジの終点の座標とする。この構成により、一のエッジの端点を、より正確に検出できるとともに、一のエッジの延びる方向を、実際のマーカーの延びる方向に、より近づけることができ、マーカーの検出精度を向上できる。 Furthermore, the edge connection unit 112 sets the coordinates of the starting point of one edge to the end point of the edge on the opposite side of the end point closest to the edge where the distance to the edge is the shortest. In addition, if the distance between the straight line that is an extension of the edge and the x-coordinate of the end point on the opposite side of the end point of the edge that is close to the edge and has the shortest distance to the edge is within the threshold, the distance to the edge The end point of the edge where is the shortest is the coordinate of the end point of one edge. On the other hand, if the distance between the straight line that is an extension of the edge and the x-coordinate of the end point of the edge with the shortest distance to the edge is greater than the threshold, then the end point of the edge with the shortest distance to the edge The point of intersection perpendicular to the straight line extending the edge from the x-coordinate of is the coordinate of the end point of one edge. With this configuration, the end point of one edge can be detected more accurately, and the direction in which one edge extends can be brought closer to the direction in which the actual marker extends, thereby improving marker detection accuracy.

また、マーカーが、駐車スペースを区画する駐車区画線である場合は、マーカー検出部113によって検出されたマーカーに基づいて、駐車枠を検出する駐車枠検出部114を備える構成とすることで、駐車枠をより高精度に検出可能となる。このため、画像処理装置100及び画像処理方法を、駐車支援装置及び駐車支援方法に適用することで、最終的な駐車位置の精度の向上が図られ、より適切な駐車支援が可能となる。 In addition, when the marker is a parking lot line that divides a parking space, the configuration includes a parking frame detection unit 114 that detects a parking frame based on the marker detected by the marker detection unit 113. It becomes possible to detect frames with higher precision. Therefore, by applying the image processing device 100 and the image processing method to a parking support device and a parking support method, the accuracy of the final parking position can be improved, and more appropriate parking support can be provided.

また、マーカーが、走行車線を区画する車線境界線である場合は、マーカー検出部113によって検出されたマーカーに基づいて、走行車線を検出する走行車線検出部を備える構成とすることで、走行車線をより高精度に検出可能となる。このため、画像処理装置100及び画像処理方法を、走行支援装置及び走行支援方法に好適に用いることができ、より適切な走行支援が可能となる。 In addition, when the marker is a lane boundary line that divides a driving lane, the driving lane can be determined by a configuration including a driving lane detection unit that detects the driving lane based on the marker detected by the marker detection unit 113. can be detected with higher precision. Therefore, the image processing device 100 and the image processing method can be suitably used as a driving support device and a driving support method, and more appropriate driving support can be provided.

以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to these embodiments and examples, and design changes can be made to the extent that they do not depart from the gist of the present invention. are included in the present invention.

例えば、上述の実施の形態である画像処理装置100では、画像信号に含まれる輝度や色のパラメータ(例えば、RGB、RGBA等)の情報の変化の大きさ及び変化の方向(プラス方向又はマイナス方向)に基づいてエッジを検出しているが、これらに限定されることはなく、画像信号に含まれる他の情報の変化の大きさ及び変化の方向に基づいてエッジを検出してもよい。 For example, in the image processing apparatus 100 according to the embodiment described above, the magnitude and direction of change (positive direction or negative direction) of information on brightness and color parameters (for example, RGB, RGBA, etc.) included in the image signal are ), but the present invention is not limited to these, and edges may be detected based on the magnitude and direction of change in other information included in the image signal.

20 カメラ(撮像装置) 20a 前方カメラ(撮像装置)
20b 後方カメラ(撮像装置) 20c 左側方カメラ(撮像装置)
20d 右側方カメラ(撮像装置) 100 画像処理装置
111 エッジ検出部 112 エッジ接続部
113 マーカー検出部 114 駐車枠検出部
200 駐車区画線(マーカー) 201 駐車枠
A エッジ(当該エッジ) B エッジ(距離が最短となるエッジ)
E 終点 G 俯瞰画像(画像)
L エッジを延長した直線 R 路面
S 始点 V 車両
20 Camera (imaging device) 20a Front camera (imaging device)
20b Rear camera (imaging device) 20c Left side camera (imaging device)
20d Right side camera (imaging device) 100 Image processing device 111 Edge detection unit 112 Edge connection unit 113 Marker detection unit 114 Parking frame detection unit 200 Parking lane line (marker) 201 Parking frame A Edge (approximate edge) B Edge (distance (the shortest edge)
E End point G Overhead view image (image)
L Straight line with extended edge R Road surface S Starting point V Vehicle

Claims (8)

路面に描かれたマーカーを検出する画像処理装置であって、
車両の周囲の前記路面を撮像する撮像装置から出力される画像信号に基づく画像を所定方向に走査して、複数のエッジを検出するエッジ検出部と、
前記複数のエッジの各々に対して、当該エッジとの距離が最短となるエッジを検出し、当該エッジと前記当該エッジとの距離が最短となるエッジの端点間の距離が閾値以下であるとき、2つのエッジを接続して一のエッジとするエッジ接続部と、
前記複数のエッジに基づいて、前記マーカーを検出するマーカー検出部と、を備え
前記エッジ接続部は、前記当該エッジを延長した直線と前記当該エッジとの距離が最短となるエッジの始点との距離と、前記当該エッジを延長した線と前記当該エッジの最近接エッジの終点との距離がそれぞれ閾値以下のとき、前記当該エッジと、前記当該エッジとの距離が最短となるエッジとを接続して一のエッジとすることを特徴とする画像処理装置。
An image processing device that detects markers drawn on a road surface,
an edge detection unit that detects a plurality of edges by scanning an image in a predetermined direction based on an image signal output from an imaging device that images the road surface around the vehicle;
For each of the plurality of edges, detect the edge with the shortest distance to the edge, and when the distance between the end points of the edge with the shortest distance between the edge and the edge is less than or equal to a threshold; an edge connection part that connects two edges to form one edge;
a marker detection unit that detects the marker based on the plurality of edges ,
The edge connection part is defined by the distance between a straight line extending the edge and the starting point of the edge where the distance between the edge is the shortest, and the distance between the line extending the edge and the end point of the edge closest to the edge. An image processing apparatus characterized in that when the distances of the edges are each equal to or less than a threshold value, the edge and the edge having the shortest distance from the edge are connected to form one edge .
前記エッジ接続部は、前記当該エッジを延長した直線と、前記当該エッジとの距離が最短となるエッジの始点との距離が第1の閾値以下であり、かつ、前記当該エッジを延長した直線と、前記当該エッジとの距離が最短となるエッジの終点との距離が前記第1の閾値よりも大きい第2の閾値以下であること、及び前記当該エッジを延長した直線と、前記当該エッジとの距離が最短となるエッジの始点との距離が前記第2の閾値以下であり、かつ、前記当該エッジを延長した直線と、前記当該エッジとの距離が最短となるエッジの終点との距離が前記第1の閾値以下であること、の何れかを満たすときに、前記当該エッジと、前記当該エッジとの距離が最短となるエッジとを接続して一のエッジとすることを特徴とする請求項1に記載の画像処理装置。The edge connection portion is such that a distance between a straight line extending the edge and a starting point of the edge having the shortest distance to the edge is equal to or less than a first threshold, and the straight line extending the edge , the distance to the end point of the edge with the shortest distance to the edge is less than or equal to a second threshold that is greater than the first threshold, and the distance between the straight line extending the edge and the edge The distance to the starting point of the edge with the shortest distance is less than or equal to the second threshold, and the distance between the straight line extending the edge and the end point of the edge with the shortest distance is the second threshold. A first threshold value or less, when any one of the following is satisfied, the edge and the edge having the shortest distance to the edge are connected to form one edge. 1. The image processing device according to 1. 前記エッジ接続部は、前記当該エッジと、前記当該エッジとの距離が最短となるエッジとの端点間を、前記当該エッジが延びる方向に応じた方向で走査して、前記当該エッジと前記当該エッジとの距離が最短となるエッジとの間に、前記マーカーと判定できる情報が含まれているか否かを判定することを特徴とする請求項1又は2に記載の画像処理装置。 The edge connection section scans between end points of the edge and an edge having the shortest distance to the edge in a direction corresponding to the direction in which the edge extends, and connects the edge to the edge. 3. The image processing apparatus according to claim 1, wherein the image processing apparatus determines whether information that can be determined as the marker is included between the edge and the edge having the shortest distance. 前記エッジ接続部は、当該エッジから所定距離の範囲内にある他のエッジの数をカウントし、カウント数が所定数以上のときは、当該エッジを前記他のエッジと接続しないことを特徴とする請求項1~3の何れか一項に記載の画像処理装置。 The edge connection section counts the number of other edges within a predetermined distance from the edge, and when the count is equal to or greater than a predetermined number, does not connect the edge to the other edge. The image processing device according to any one of claims 1 to 3 . 前記エッジ接続部は、前記当該エッジとの距離が最短となるエッジに近い端点とは反対側にある前記当該エッジの端点を、前記一のエッジの始点の座標とし、前記当該エッジを延長した直線と、前記当該エッジに近い、前記当該エッジとの距離が最短となるエッジの端点とは反対側の端点のx座標との距離が閾値以内のとき、前記当該エッジとの距離が最短となるエッジの終点を、前記一のエッジの終点の座標とし、前記当該エッジを延長した直線と、前記当該エッジとの距離が最短となるエッジの終点のx座標との距離が閾値より大きいときは、前記当該エッジを延長した直線と、前記当該エッジとの距離が最短となるエッジの終点を通り前記当該エッジを延長した直線と垂直に交わる垂線との交点を、前記一のエッジの終点の座標とすることを特徴とする請求項1~のいずれか一項に記載の画像処理装置。 The edge connection part is a straight line extending the edge, with the coordinates of the starting point of the one edge being the end point of the edge opposite to the end point closest to the edge where the distance to the edge is the shortest. and the x-coordinate of the end point on the opposite side of the end point of the edge that is close to the edge and is the shortest distance to the edge, and the distance between the edge and the edge is within a threshold, the edge that has the shortest distance to the edge. is the coordinate of the end point of the one edge, and when the distance between the straight line extending the edge and the x-coordinate of the end point of the edge with the shortest distance to the edge is greater than the threshold , The coordinates of the end point of the one edge are the intersection of a straight line extending the edge and a perpendicular line that passes through the end point of the edge that has the shortest distance to the edge and intersects perpendicularly to the straight line extending the edge. The image processing device according to any one of claims 1 to 4 , characterized in that: 前記マーカーは、駐車スペースを区画する駐車区画線であり、
前記マーカー検出部によって検出された前記マーカーに基づいて、駐車枠を検出する駐車枠検出部を、備えたことを特徴とする請求項1~のいずれか一項に記載の画像処理装置。
The marker is a parking lot line that demarcates a parking space,
The image processing device according to any one of claims 1 to 5 , further comprising a parking frame detection unit that detects a parking frame based on the marker detected by the marker detection unit.
前記マーカーは、走行車線を区画する車線境界線であり、
前記マーカー検出部によって検出された前記マーカーに基づいて、前記走行車線を検出する走行車線検出部を、備えたことを特徴とする請求項1~のいずれか一項に記載の画像処理装置。
The marker is a lane boundary line that divides the driving lane,
The image processing device according to any one of claims 1 to 5 , further comprising a driving lane detection unit that detects the driving lane based on the marker detected by the marker detection unit.
路面に描かれたマーカーを検出する画像処理方法であって、
車両の周囲の前記路面を撮像する撮像装置から出力される画像信号に基づく画像を所定方向に走査して、複数のエッジを検出するエッジ検出工程と、
前記複数のエッジの各々に対して、当該エッジとの距離が最短となるエッジを検出し、当該エッジと前記当該エッジとの距離が最短となるエッジの端点間の距離が閾値以下であるとき、2つのエッジを接続して一のエッジとするエッジ接続工程と、
前記複数のエッジに基づいて、前記マーカーを検出するマーカー検出工程と、を含み、
前記エッジ接続工程は、前記当該エッジを延長した直線と前記当該エッジとの距離が最短となるエッジの始点との距離と、前記当該エッジを延長した線と前記当該エッジの最近接エッジの終点との距離がそれぞれ閾値以下のとき、前記当該エッジと、前記当該エッジとの距離が最短となるエッジとを接続して一のエッジとすることを特徴とする画像処理方法。
An image processing method for detecting markers drawn on a road surface, the method comprising:
an edge detection step of detecting a plurality of edges by scanning an image in a predetermined direction based on an image signal output from an imaging device that images the road surface around the vehicle;
For each of the plurality of edges, detect the edge with the shortest distance to the edge, and when the distance between the end points of the edge with the shortest distance between the edge and the edge is less than or equal to a threshold; an edge connecting step of connecting two edges to form one edge;
a marker detection step of detecting the marker based on the plurality of edges ,
The edge connecting step includes determining the distance between a straight line extending the edge and the starting point of the edge where the distance to the edge is the shortest, and the distance between the line extending the edge and the end point of the edge closest to the edge. An image processing method characterized in that, when the distances of the edges are each equal to or less than a threshold value, the edge and the edge having the shortest distance to the edge are connected to form one edge .
JP2020018480A 2020-02-06 2020-02-06 Image processing device and image processing method Active JP7453008B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020018480A JP7453008B2 (en) 2020-02-06 2020-02-06 Image processing device and image processing method
CN202110097136.9A CN113212352B (en) 2020-02-06 2021-01-25 Image processing apparatus and image processing method
EP21155274.0A EP3862920A1 (en) 2020-02-06 2021-02-04 Image processor and image processing method
US17/168,874 US11610317B2 (en) 2020-02-06 2021-02-05 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020018480A JP7453008B2 (en) 2020-02-06 2020-02-06 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021124996A JP2021124996A (en) 2021-08-30
JP7453008B2 true JP7453008B2 (en) 2024-03-19

Family

ID=77460103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020018480A Active JP7453008B2 (en) 2020-02-06 2020-02-06 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7453008B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175534A (en) 2000-12-06 2002-06-21 Sumitomo Electric Ind Ltd Method for detecting road white line
JP2013120458A (en) 2011-12-06 2013-06-17 Fujitsu Ltd Road shape estimating device and program
JP2014106740A (en) 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle parking frame recognizing device
JP2015165376A (en) 2014-02-28 2015-09-17 コア ロジック, インコーポレイテッド Apparatus and method for recognizing lane
JP2016004287A (en) 2014-06-13 2016-01-12 富士通株式会社 Traffic lane boundary line extraction device, traffic line boundary line extraction method and program
JP2017010078A (en) 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method
JP2019096027A (en) 2017-11-22 2019-06-20 パナソニックIpマネジメント株式会社 Object detector and vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175534A (en) 2000-12-06 2002-06-21 Sumitomo Electric Ind Ltd Method for detecting road white line
JP2013120458A (en) 2011-12-06 2013-06-17 Fujitsu Ltd Road shape estimating device and program
JP2014106740A (en) 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle parking frame recognizing device
JP2015165376A (en) 2014-02-28 2015-09-17 コア ロジック, インコーポレイテッド Apparatus and method for recognizing lane
JP2016004287A (en) 2014-06-13 2016-01-12 富士通株式会社 Traffic lane boundary line extraction device, traffic line boundary line extraction method and program
JP2017010078A (en) 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method
JP2019096027A (en) 2017-11-22 2019-06-20 パナソニックIpマネジメント株式会社 Object detector and vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡振程 外1名,一般道路状況を考慮した道路平面線形モデルの構築,電子情報通信学会論文誌,日本,社団法人電子情報通信学会,1998年04月25日,第J81-A巻 第4号,pp.590~598

Also Published As

Publication number Publication date
JP2021124996A (en) 2021-08-30

Similar Documents

Publication Publication Date Title
CN111563405B (en) Image processing apparatus and image processing method
EP3862920A1 (en) Image processor and image processing method
JP7296768B2 (en) Image processing device and image processing method
EP3872697B1 (en) Image processor and image processing method
US20160343139A1 (en) Method for detecting a parking area
US11769338B2 (en) Image processor and image processing method
EP3866059A1 (en) Image processor and image processing method
US11967158B2 (en) Image processor and image processing method
JP2020079030A (en) Image processing device and image processing method
US11462026B2 (en) Image processing device and method for processing image
JP7453008B2 (en) Image processing device and image processing method
JP7446851B2 (en) Image processing device and image processing method
JP7141940B2 (en) Image processing device and image processing method
JP7446830B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7453008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150