JP7446851B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7446851B2
JP7446851B2 JP2020027982A JP2020027982A JP7446851B2 JP 7446851 B2 JP7446851 B2 JP 7446851B2 JP 2020027982 A JP2020027982 A JP 2020027982A JP 2020027982 A JP2020027982 A JP 2020027982A JP 7446851 B2 JP7446851 B2 JP 7446851B2
Authority
JP
Japan
Prior art keywords
parking lot
lot line
parking
line
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020027982A
Other languages
Japanese (ja)
Other versions
JP2021131801A (en
Inventor
貴之 金子
俊輔 近藤
守 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2020027982A priority Critical patent/JP7446851B2/en
Priority to CN202110097136.9A priority patent/CN113212352B/en
Priority to EP21155274.0A priority patent/EP3862920A1/en
Priority to US17/168,874 priority patent/US11610317B2/en
Publication of JP2021131801A publication Critical patent/JP2021131801A/en
Application granted granted Critical
Publication of JP7446851B2 publication Critical patent/JP7446851B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両の周囲の路面を撮像する撮像装置から出力される画像信号に基づいて、この路面に設けられた駐車枠や走行車線を推定する画像処理装置及び画像処理方法に関するものである。 The present invention relates to an image processing device and an image processing method that estimate parking spaces and driving lanes provided on a road surface based on image signals output from an imaging device that images the road surface around a vehicle.

車両を所定の駐車区画に駐車する際に、駐車目標とする駐車枠を自動的に検出して、車両を自動駐車させる駐車支援装置が実用化されている(例えば、特許文献1参照)。この特許文献1に開示の技術では、撮像部で撮像された撮像画像等から駐車区画線を検出し、一対の駐車区画線で囲まれる領域を駐車可能な駐車目標位置、すなわち駐車枠と認識している。 2. Description of the Related Art A parking support device has been put into practical use that automatically detects a parking slot as a parking target when parking a vehicle in a predetermined parking lot, and automatically parks the vehicle (for example, see Patent Document 1). In the technology disclosed in Patent Document 1, parking lot lines are detected from an image captured by an imaging unit, and an area surrounded by a pair of parking lot lines is recognized as a parking target position where parking is possible, that is, a parking space. ing.

特開2014-166834号公報Japanese Patent Application Publication No. 2014-166834

しかしながら、上記従来技術では、車両、壁、フェンス等の比較的大きな影や、木漏れ日、道路照明灯等による光の反射、かすれ、障害物の存在等によって、駐車区画線が不検出となることがある。特に、影と影以外の領域とでは、駐車区画線の輝度や輝度差が異なるため、駐車区画線のエッジが適切に検出されず、駐車区画線の一部が不検出となったり、駐車区画線が分断されて検出されたりすることがあり、駐車枠の端点の位置にずれを生じることがあった。 However, with the above conventional technology, parking lot lines may not be detected due to relatively large shadows from vehicles, walls, fences, etc., sunlight filtering through trees, reflection of light from road lights, blurring, presence of obstacles, etc. be. In particular, because the brightness and brightness difference of parking lot lines differ between shadows and non-shadow areas, the edges of parking lot lines may not be detected properly, resulting in parts of parking lot lines not being detected or The line may be detected as being divided, and the position of the end point of the parking frame may be misaligned.

そこで、本発明は、駐車枠の検出を高精度に行うことが可能な画像処理装置及び画像処理方法を提供することを目的としている。 Therefore, an object of the present invention is to provide an image processing device and an image processing method that can detect parking spaces with high precision.

前記目的を達成するために、本発明の画像処理装置は、車両の周囲の状況を撮像する撮像装置から出力される画像信号に基づく画像から、駐車区画線を検出する駐車区画線検出部と、前記駐車区画線の延びる方向に基づいて、所定距離だけ離れた位置から、前記駐車区画線の延長線上に続きの駐車区画線があるかどうかを判定し、前記続きの駐車区画線が検出されたときに、最初に検出された前記駐車区画線と、次に検出された前記続きの駐車区画線とを接続して一の駐車区画線とする補正部と、前記補正部で接続された前記一の駐車区画線を用いて、駐車枠を設定する駐車枠設定部と、を備えたことを特徴とする。 In order to achieve the above object, the image processing device of the present invention includes a parking lot line detection unit that detects parking lot lines from an image based on an image signal output from an imaging device that images the surrounding situation of the vehicle; Based on the extending direction of the parking lot line, it is determined from a position a predetermined distance away whether there is a continuation parking lot line on an extension line of the parking lot line, and the continuation parking lot line is detected. and a correction unit that connects the parking lot line detected first and the continuous parking line detected next to form one parking lot line; The present invention is characterized by comprising a parking frame setting unit that sets a parking frame using the parking lot line of the parking lot line.

このように構成された本発明の画像処理装置では、影等の影響により、駐車区画線の一部が不検出となったり、分断されて検出されたりしても、駐車枠の端点を真値により近い適切な位置に補正できる。したがって、駐車枠の検出を高精度に行うことが可能となる。この結果、検出された駐車枠を利用した、高精度な駐車支援が可能となる。 In the image processing device of the present invention configured as described above, even if a part of the parking lot line is not detected or is detected as being divided due to the influence of shadows, etc., the end point of the parking space can be determined by the true value. It can be corrected to a closer appropriate position. Therefore, it becomes possible to detect parking spaces with high precision. As a result, highly accurate parking assistance using the detected parking spaces becomes possible.

本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a parking assistance device to which an image processing device according to an embodiment of the present invention is applied. 実施の形態である駐車支援装置の撮像装置の配置位置の一例を示す図である。It is a figure showing an example of the arrangement position of the imaging device of the parking assistance device which is an embodiment. 実施の形態である画像処理装置の概略構成を示す機能ブロック図である。1 is a functional block diagram showing a schematic configuration of an image processing device according to an embodiment. FIG. 実施の形態である画像処理装置の動作の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of the operation of the image processing apparatus according to the embodiment. 実施の形態である画像処理装置の動作の一例を説明するための図であり、車両と、駐車場の路面上に描かれた駐車区画線の一例を示す。FIG. 2 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, and shows an example of a vehicle and a parking lot line drawn on the road surface of a parking lot. 実施の形態である画像処理装置の動作の一例を説明するための図であり、俯瞰画像と、俯瞰画像から検出されたエッジと、駐車枠とを模式的に示した図である。It is a figure for explaining an example of operation of an image processing device which is an embodiment, and is a figure showing typically a bird's-eye view image, an edge detected from a bird's-eye view image, and a parking frame. 実施の形態である画像処理装置の動作の一例を説明するための図であり、端点が適切に補正されたエッジと、駐車枠を模式的に示した図である。FIG. 2 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, and is a diagram schematically showing an edge whose end point has been appropriately corrected and a parking frame. 実施の形態である画像処理装置の動作の一例を説明するための図であり、(a)は、分断された駐車区画線が存在する場合の補正処理手順を説明するための図であり、(b)は分断された駐車区画線が存在しない場合の補正処理手順を説明するための図である。FIG. 4 is a diagram for explaining an example of the operation of the image processing device according to the embodiment, and (a) is a diagram for explaining the correction processing procedure when there are divided parking lot lines; b) is a diagram for explaining the correction processing procedure when there is no divided parking lot line. 実施の形態である画像処理装置の動作の一例を説明するための図であり、分断された駐車区画線が存在する場合の補正処理手順を説明するための図である。FIG. 3 is a diagram for explaining an example of the operation of the image processing apparatus according to the embodiment, and is a diagram for explaining a correction processing procedure when there are divided parking lot lines. 実施の形態である画像処理装置の動作の一例を説明するための図であり、分断された駐車区画線が存在する場合の補正処理手順を説明するための図である。FIG. 3 is a diagram for explaining an example of the operation of the image processing apparatus according to the embodiment, and is a diagram for explaining a correction processing procedure when there are divided parking lot lines.

(駐車支援装置の概略構成)
以下、この発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。図2は駐車支援装置の撮像装置の配置位置の一例を示す図である。なお、以下では、駐車支援装置について説明するが、本発明の実施の形態である画像処理装置が適用される装置は駐車支援装置に限定されることはなく、走行車線を走行する車両の走行を支援する走行支援装置等にも適用できる。
(Schematic configuration of parking assist device)
Embodiments of the present invention will be described below based on the drawings. FIG. 1 is a block diagram showing a schematic configuration of a parking assistance device to which an image processing device according to an embodiment of the present invention is applied. FIG. 2 is a diagram showing an example of the arrangement position of the imaging device of the parking assist device. Note that although a parking assistance device will be described below, the device to which the image processing device according to the embodiment of the present invention is applied is not limited to the parking assistance device; It can also be applied to driving support devices and the like.

図1に示すように、駐車支援装置1は、車両V(図2参照)に搭載され、駐車支援動作を行う。具体的には、駐車支援装置1は、この車両Vが駐車可能な駐車枠を認識する。そして、駐車支援装置1は、認識した駐車枠に車両Vを駐車させるようにこの車両Vを制御する。 As shown in FIG. 1, the parking assistance device 1 is mounted on a vehicle V (see FIG. 2) and performs a parking assistance operation. Specifically, the parking support device 1 recognizes a parking slot in which this vehicle V can park. Then, the parking support device 1 controls the vehicle V to park the vehicle V in the recognized parking slot.

車両Vの前後左右には、図2に示すように複数の小型カメラ(撮像装置)が備えられている。具体的には、車両Vのフロントバンパまたはフロントグリルには、車両Vの前方に向けて前方カメラ20aが装着されている。車両Vのリアバンパまたはリアガーニッシュには、車両Vの後方に向けて後方カメラ20bが装着されている。車両Vの左ドアミラーには、車両Vの左側方に向けて左側方カメラ20cが装着されている。車両Vの右ドアミラーには、車両Vの右側方に向けて右側方カメラ20dが装着されている。 As shown in FIG. 2, a plurality of small cameras (imaging devices) are provided at the front, rear, left and right sides of the vehicle V. Specifically, a front camera 20a is mounted on the front bumper or front grill of the vehicle V so as to face the front of the vehicle V. A rear camera 20b is attached to the rear bumper or rear garnish of the vehicle V, facing toward the rear of the vehicle V. A left side camera 20c is mounted on the left door mirror of the vehicle V to face the left side of the vehicle V. A right side camera 20d is mounted on the right door mirror of the vehicle V, facing toward the right side of the vehicle V.

前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dには、それぞれ、広範囲を観測可能な広角レンズや魚眼レンズが装着されており、4台のカメラ20a~20dで車両Vの周囲の路面を含む領域を漏れなく観測できるようになっている。これらカメラ20a~20dにより、車両Vの周囲の状況(本実施の形態では、車両Vの周囲の路面R)を撮像する撮像装置が構成されている。なお、以下の説明において、個々のカメラ(撮像装置)20a~20dを区別せずに説明する場合は単にカメラ20として説明する。 The front camera 20a, the rear camera 20b, the left side camera 20c, and the right side camera 20d are each equipped with a wide-angle lens or a fisheye lens that can observe a wide range. It is now possible to observe the entire area including the road surface. These cameras 20a to 20d constitute an imaging device that images the surroundings of the vehicle V (in this embodiment, the road surface R around the vehicle V). In the following description, when the individual cameras (imaging devices) 20a to 20d are described without distinction, they will be simply referred to as the camera 20.

図1に戻って、駐車支援装置1は、前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dと、カメラECU21と、ナビゲーション装置30と、車輪速センサ32と、操舵角センサ33とを有する。 Returning to FIG. 1, the parking assist device 1 includes a front camera 20a, a rear camera 20b, a left camera 20c, a right camera 20d, a camera ECU 21, a navigation device 30, a wheel speed sensor 32, and a steering angle sensor 33. and has.

カメラECU21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。カメラECU21は、カメラ20を制御するとともに、カメラ20が検知した情報を用いて、俯瞰画像の生成処理や、駐車枠を検出する検出処理や、検出した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行う。 The camera ECU 21 is mainly composed of a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like. The camera ECU 21 controls the camera 20, and uses information detected by the camera 20 to perform processes for generating an overhead image, detection processing for detecting a parking frame, and determining whether the vehicle V can be parked in the detected parking frame. Performs judgment processing etc. to judge.

ナビゲーション装置(表示装置)30は画像表示機能を有するモニター31を有する。ナビゲーション装置30は、経路案内用の地図データ等が格納された記憶部を有する。ナビゲーション装置30は、この地図データ等及び図略のGPS装置等により検出された車両Vの現在位置に基づいて、ナビゲーション装置30の操作者が設定した目標地点までの経路案内を行う。経路案内動作中の各種画像はモニター31に表示される。 The navigation device (display device) 30 has a monitor 31 having an image display function. The navigation device 30 has a storage unit that stores map data for route guidance and the like. The navigation device 30 provides route guidance to the target point set by the operator of the navigation device 30 based on this map data and the current position of the vehicle V detected by a GPS device (not shown) or the like. Various images during the route guidance operation are displayed on the monitor 31.

車輪速センサ32は、車両Vの車輪速を検知するセンサである。車輪速センサ32で検知された検知情報(車輪速)は、車両制御ECU40に入力される。 The wheel speed sensor 32 is a sensor that detects the wheel speed of the vehicle V. Detection information (wheel speed) detected by the wheel speed sensor 32 is input to the vehicle control ECU 40.

操舵角センサ33は、車両Vのステアリングの操舵角を検知する。車両Vが直進状態で走行するときの操舵角を中立位置(0度)とし、その中立位置からの回転角度を操舵角として出力する。操舵角センサ33で検知された検知情報(操舵角)は、車両制御ECU40に入力される。 The steering angle sensor 33 detects the steering angle of the steering wheel of the vehicle V. The steering angle when the vehicle V runs straight is set as a neutral position (0 degrees), and the rotation angle from the neutral position is output as the steering angle. Detection information (steering angle) detected by the steering angle sensor 33 is input to the vehicle control ECU 40.

さらに、駐車支援装置1は、車両制御ECU40と、ステアリング制御ユニット50と、スロットル制御ユニット60と、ブレーキ制御ユニット70とを有する。 Further, the parking assist device 1 includes a vehicle control ECU 40, a steering control unit 50, a throttle control unit 60, and a brake control unit 70.

車両制御ECU40は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。車両制御ECU40は、カメラECU21、車輪速センサ32及び操舵角センサ33から入力された各検知情報に基づいて、車両Vの駐車を支援する各種処理を実行する。 The vehicle control ECU 40 is mainly composed of a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like. The vehicle control ECU 40 executes various processes to support parking of the vehicle V based on each detection information input from the camera ECU 21, the wheel speed sensor 32, and the steering angle sensor 33.

すなわち、例えば図略の自動駐車開始スイッチを運転手がオン操作して駐車支援装置1を作動させると、車両制御ECU40は、カメラECU21が駐車可と判定した駐車枠に車両Vを自動で駐車させる自動駐車処理を実行する。 That is, for example, when the driver turns on an automatic parking start switch (not shown) to activate the parking support device 1, the vehicle control ECU 40 automatically parks the vehicle V in the parking slot that the camera ECU 21 determines is available for parking. Executes automatic parking processing.

ステアリング制御ユニット50は、車両制御ECU40で決定した車両制御情報に基づいて、パワーステアリングアクチュエータ51を駆動して、車両Vの操舵角を制御する。 The steering control unit 50 controls the steering angle of the vehicle V by driving the power steering actuator 51 based on vehicle control information determined by the vehicle control ECU 40.

スロットル制御ユニット60は、車両制御ECU40で決定した車両制御情報に基づいて、スロットルアクチュエータ61を駆動して、車両Vのスロットルを制御する。 The throttle control unit 60 controls the throttle of the vehicle V by driving the throttle actuator 61 based on vehicle control information determined by the vehicle control ECU 40.

ブレーキ制御ユニット70は、車両制御ECU40で決定した車両制御情報に基づいて、ブレーキアクチュエータ71を駆動して、車両Vのブレーキを制御する。 The brake control unit 70 controls the brakes of the vehicle V by driving the brake actuator 71 based on vehicle control information determined by the vehicle control ECU 40.

なお、カメラECU21、車輪速センサ32及び操舵角センサ33と、車両制御ECU40との間は、車内LAN(Local Area Network)であるセンサ情報CAN(Controller Area Network)80によって接続される(「CAN」は登録商標)。 The camera ECU 21, wheel speed sensor 32, and steering angle sensor 33 are connected to the vehicle control ECU 40 by a sensor information CAN (Controller Area Network) 80, which is an in-vehicle LAN (Local Area Network) ("CAN"). is a registered trademark).

また、ステアリング制御ユニット50、スロットル制御ユニット60及びブレーキ制御ユニット70と、車両制御ECU40との間は、車内LANである車両情報CAN81によって接続される。 Furthermore, the steering control unit 50, throttle control unit 60, and brake control unit 70 are connected to the vehicle control ECU 40 by a vehicle information CAN 81, which is an in-vehicle LAN.

以上の構成を有する駐車支援装置1において、本実施の形態の画像処理装置100は、カメラECU21を含んでいる。 In the parking assist device 1 having the above configuration, the image processing device 100 of this embodiment includes a camera ECU 21.

(画像処理装置の機能構成)
図3は、本実施の形態である画像処理装置100の概略構成を示す機能ブロック図である。本実施の形態である画像処理装置100は、制御部110及び記憶部120を有する。制御部110は、カメラECU21のCPUから主に構成されており、記憶部120は、カメラECU21のROM、RAM、フラッシュメモリ等から主に構成されている。
(Functional configuration of image processing device)
FIG. 3 is a functional block diagram showing a schematic configuration of image processing apparatus 100 according to this embodiment. Image processing apparatus 100 according to this embodiment includes a control section 110 and a storage section 120. The control unit 110 is mainly composed of the CPU of the camera ECU 21, and the storage unit 120 is mainly composed of the ROM, RAM, flash memory, etc. of the camera ECU 21.

制御部110は、画像処理装置100全体の制御を行う。加えて、制御部110は、後述するエッジ検出部111、駐車区画線検出部112、駐車枠設定部113、及び補正部114により検出、設定された駐車スペースを区画する駐車区画線や駐車スペースに基づいて、車両Vが駐車可と判定した駐車枠にこの車両Vを自動で駐車させる自動駐車処理を車両制御ECU40に実行させるために、自動駐車処理に必要な情報(駐車スペース、駐車枠の位置、形状など)をこの車両制御ECU40に送出する。 The control unit 110 controls the entire image processing apparatus 100. In addition, the control unit 110 controls the parking lot lines and parking spaces that delimit the parking spaces detected and set by the edge detection unit 111, the parking lot line detection unit 112, the parking frame setting unit 113, and the correction unit 114, which will be described later. In order to cause the vehicle control ECU 40 to automatically park the vehicle V in the parking slot determined to be available for parking based on the information required for the automatic parking process (parking space, position of the parking slot) , shape, etc.) are sent to this vehicle control ECU 40.

車両制御ECU40は、制御部110から提供された情報に基づいて、さらに、車輪速センサ32及び操舵角センサ33(図3ではセンサとのみ図示している)が検知した検知情報に基づいて、パワーステアリングアクチュエータ51、スロットルアクチュエータ61及びブレーキアクチュエータ71(図3ではアクチュエータとのみ図示している)を駆動制御する。 The vehicle control ECU 40 adjusts the power based on the information provided from the control unit 110 and further based on the detection information detected by the wheel speed sensor 32 and the steering angle sensor 33 (only sensors are shown in FIG. 3). The steering actuator 51, the throttle actuator 61, and the brake actuator 71 (only actuators are shown in FIG. 3) are drive-controlled.

制御部110はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。 The control unit 110 includes arithmetic elements such as a CPU, a programmable logic device such as an FPGA, and an integrated circuit such as an ASIC.

画像処理装置100の記憶部120には図略の制御用プログラムが格納されており、この制御用プログラムが画像処理装置100の起動時に制御部110により実行されて、画像処理装置100は図3に示すような機能構成を備えたものとなる。特に、本実施形態の画像処理装置100は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。 A control program (not shown) is stored in the storage unit 120 of the image processing device 100, and this control program is executed by the control unit 110 when the image processing device 100 is started up, and the image processing device 100 operates as shown in FIG. It will have the functional configuration as shown. In particular, since the image processing apparatus 100 of this embodiment performs high-speed image processing as described later, it is preferable to include an arithmetic element capable of high-speed calculation, such as an FPGA.

この図3に示すように、制御部110は、エッジ検出部111、駐車区画線検出部112、駐車枠設定部113、補正部114、及び表示制御部115を有する。 As shown in FIG. 3, the control section 110 includes an edge detection section 111, a parking lot line detection section 112, a parking frame setting section 113, a correction section 114, and a display control section 115.

エッジ検出部111は、車両Vの周囲の路面Rを撮像するカメラ20から出力される画像信号に基づいて、エッジ検出により駐車場P等の路面R上の駐車区画線等のマーカーのエッジを検出する。ここでいうマーカーとは、駐車区画線や走行車線等の境界線をいう。駐車区画線とは、主に路面R上に設けられた駐車領域を区画する境界線(直線)として描かれた線のことである。図5に、車両Vと、この車両Vが駐車を行おうとしている駐車場Pの路面R上に描かれた駐車区画線200の一例を示す。駐車区画線200の間が、駐車スペースを表す駐車枠201である。 The edge detection unit 111 detects the edges of markers such as parking lot lines on the road surface R of the parking lot P etc. by edge detection based on the image signal output from the camera 20 that images the road surface R around the vehicle V. do. The marker here refers to a boundary line such as a parking lot line or a driving lane. A parking lot line is a line drawn as a boundary line (straight line) that mainly divides a parking area provided on the road surface R. FIG. 5 shows an example of a vehicle V and a parking lot line 200 drawn on the road surface R of the parking lot P where the vehicle V is attempting to park. Between the parking lot lines 200 is a parking frame 201 representing a parking space.

本明細書では、車両Vに近い側を、駐車枠201の「前方」、「前」等といい、その反対側を「奥」、「後方」等という。そして、駐車枠の矩形を構成する4つの頂点(端点)、つまり、駐車区画線に沿う駐車枠の2つの側辺のそれぞれ2つの端点のうち、車両Vに近い側の端点を「始点」といい、後方の端点を「終点」という。 In this specification, the side closer to the vehicle V is referred to as the "front", "front", etc. of the parking frame 201, and the opposite side is referred to as the "back", "rear", etc. Then, among the four vertices (end points) that make up the rectangle of the parking frame, that is, the two end points on each of the two sides of the parking frame along the parking lot line, the end point on the side closer to the vehicle V is designated as the "starting point". Okay, the rear end point is called the "end point."

駐車区画線は、一般的には白線で示されるが、白線以外の、例えば黄色線等、白以外の色の線で描かれている場合もある。このため、エッジ検出部111によって検出される駐車区画線は、「白線」に限定されるものではなく、一般に、路面との間にコントラストを有する境界線を駐車区画線として検出すればよい。 Parking lot lines are generally indicated by white lines, but may also be drawn by lines of a color other than white, such as yellow lines. Therefore, the parking lot line detected by the edge detection unit 111 is not limited to a "white line", and in general, a boundary line that has a contrast with the road surface may be detected as a parking lot line.

エッジ検出部111は、画像を所定方向に走査(スキャン)して、画像信号に含まれる輝度値又は色のパラメータ情報(例えば、RGB、RGBA等)が、閾値よりも大きく変化する画素を検出し、検出した画素の並びが所定以上の長さとなっている部分をエッジとして検出する。ここでいう走査とは、所定方向に向かって1つずつ画素を選択し、隣り合った画素間で、輝度又は色のパラメータを比較していくことをいう。検出したエッジは、輝度又は色のパラメータの変化の方向(傾向)に応じて、プラスエッジ又はマイナスエッジとする。 The edge detection unit 111 scans the image in a predetermined direction and detects pixels in which the luminance value or color parameter information (for example, RGB, RGBA, etc.) included in the image signal changes more than a threshold value. , a portion where the detected pixel arrangement has a length longer than a predetermined length is detected as an edge. Scanning here refers to selecting pixels one by one in a predetermined direction and comparing brightness or color parameters between adjacent pixels. The detected edge is defined as a plus edge or a minus edge depending on the direction (trend) of change in the brightness or color parameter.

なお、走査の方向は、路面に描かれた駐車区画線に直交する方向に設定するのが望ましい。すなわち、図5に示すように、駐車区画線200が車両Vの進行方向(図5の矢印参照)と直交する方向に延在しているときには、俯瞰画像G(図6参照)上で進行方向に沿って走査するのが望ましい。これに対して、駐車区画線200が車両Vの進行方向に沿って延在しているときは、俯瞰画像G上で進行方向と直交する方向に走査するのが望ましい。一般には、駐車区画線200が延びている方向は未知であるため、エッジ検出部111は、俯瞰画像G上で車両Vの進行方向及びこれに直交する方向にそれぞれ沿って、2回に分けて走査することが望ましい。 Note that the scanning direction is preferably set in a direction perpendicular to the parking lot line drawn on the road surface. That is, as shown in FIG. 5, when the parking lot line 200 extends in a direction perpendicular to the traveling direction of the vehicle V (see the arrow in FIG. 5), the traveling direction is It is desirable to scan along the On the other hand, when the parking lot line 200 extends along the traveling direction of the vehicle V, it is desirable to scan the overhead image G in a direction perpendicular to the traveling direction. Generally, since the direction in which the parking lot line 200 extends is unknown, the edge detection unit 111 detects the direction in which the parking lot line 200 extends in two steps, respectively along the traveling direction of the vehicle V and the direction perpendicular thereto on the overhead image G. It is desirable to scan.

輝度値に基づいてエッジを抽出する場合は、エッジ検出部111は、輝度が低く暗い画素(例えば黒い画素)から、閾値よりも大きな差を持って輝度が高く明るい画素(例えば白い画素)に変化するエッジ、つまり隣り合った画素の輝度差がプラス方向に所定値よりも大きくなるエッジを、プラスエッジ(「立上りエッジ」ともいう)として検出する。このプラスエッジの検出は、走査位置が路面Rから駐車区画線200と推定されるものに切替わったことを示す。 When extracting edges based on brightness values, the edge detection unit 111 detects a change from a dark pixel with low brightness (for example, a black pixel) to a bright pixel with high brightness (for example, a white pixel) with a difference greater than a threshold value. An edge where the luminance difference between adjacent pixels becomes greater than a predetermined value in the positive direction is detected as a plus edge (also referred to as a "rising edge"). Detection of this plus edge indicates that the scanning position has been switched from the road surface R to what is estimated to be the parking lot line 200.

また、エッジ検出部111は、輝度が高く明るい画素から、閾値よりも大きな差を持って輝度が低く暗い画素に変化したエッジ、つまり隣り合った画素の輝度差がマイナス方向に所定値よりも大きくなるエッジを、マイナスエッジ(「立下がりエッジ」ともいう)として検出する。このマイナスエッジの検出は、走査位置が駐車区画線200と推定されるものから路面Rに切替わったことを示す。 The edge detection unit 111 also detects an edge where a pixel with high brightness changes to a dark pixel with low brightness with a difference larger than a threshold value, that is, a brightness difference between adjacent pixels is larger than a predetermined value in the negative direction. This edge is detected as a negative edge (also referred to as a "falling edge"). Detection of this negative edge indicates that the scanning position has been switched from what is estimated to be the parking lot line 200 to the road surface R.

これに対して、色のパラメータに基づいてエッジを抽出する場合は、路面Rの色のパラメータと、駐車区画線200の色のパラメータとを比較する。エッジ検出部111は、色のパラメータの値が大きくなる方向に変化(マイナス方向に変化)した画素の並びをマイナスエッジとして検出し、色のパラメータの値が小さくなる方向に変化(プラス方向に変化)した画素の並びをプラスエッジとして検出する。また、路面よりも駐車区画線の輝度が低い(或いは色のパラメータが大きい)場合は、輝度値や色のパラメータの変化は逆転する。いずれの場合でも駐車区画線等のマーカーでは、その両側縁にプラスエッジとマイナスエッジが検出されるため、後述のペアの抽出が可能である。 On the other hand, when extracting edges based on color parameters, the color parameters of the road surface R and the color parameters of the parking lot line 200 are compared. The edge detection unit 111 detects as a negative edge the arrangement of pixels in which the value of the color parameter changes in the direction of increasing (changes in the negative direction), and detects as a negative edge the arrangement of pixels in which the value of the color parameter changes in the direction of decreasing (changes in the positive direction). ) is detected as a plus edge. Furthermore, when the brightness of the parking lot line is lower than that of the road surface (or the color parameter is larger), the changes in the brightness value and color parameter are reversed. In either case, a plus edge and a minus edge are detected on both sides of a marker such as a parking lot line, so it is possible to extract pairs as described below.

上記走査を複数ライン(行)分繰り返すことで、走査方向と交差する方向に連続するプラスエッジで構成される線分(画素列)を、プラスエッジの線分として抽出する。さらに連続するマイナスエッジで構成される線分(画素列)を、マイナスエッジの線分として抽出する。 By repeating the above scanning for a plurality of lines (rows), a line segment (pixel column) consisting of continuous plus edges in a direction intersecting the scanning direction is extracted as a plus edge line segment. Furthermore, a line segment (pixel row) composed of continuous negative edges is extracted as a line segment of negative edges.

図6Aの例では、俯瞰画像GのX軸(ここでは車両Vの走行方向に沿う方向であって駐車区画線200の延在方向に直交する方向)を図中の左右方向に設定し、Y軸(ここでは駐車区画線200の延在方向)を図中の上下方向に設定する。エッジ検出部111は、俯瞰画像Gを、車両Vの走行方向に直交する方向であって図中の左から右(X軸正方向)に向けて走査し、プラスエッジ及びマイナスエッジを検出していく。なお、図中の右から左、つまりX軸負方向に画素を走査した場合、プラスエッジとマイナスエッジは逆転する。また、画像信号に含まれる色のパラメータ(例えば、RGB、RGBA等)の情報に基づいてプラスエッジ、マイナスエッジを検出してもよい。この場合、所定の色の大きさ(階調)の変化に基づいてこれらを検出する。 In the example of FIG. 6A, the X axis (here, the direction along the traveling direction of the vehicle V and orthogonal to the extending direction of the parking lot line 200) of the overhead image G is set in the left-right direction in the figure, and the Y The axis (in this case, the extending direction of the parking lot line 200) is set in the vertical direction in the figure. The edge detection unit 111 scans the overhead image G in a direction perpendicular to the traveling direction of the vehicle V, from left to right in the figure (X-axis positive direction), and detects positive edges and negative edges. go. Note that when pixels are scanned from right to left in the figure, that is, in the negative direction of the X axis, the plus edges and minus edges are reversed. Further, plus edges and minus edges may be detected based on information on color parameters (for example, RGB, RGBA, etc.) included in the image signal. In this case, these are detected based on changes in the size (gradation) of predetermined colors.

駐車区画線検出部112は、エッジ検出部111が検出したエッジに基づいて、駐車区画線を検出する。より詳細には、駐車区画線検出部112は、検出したプラスエッジの線分及びマイナスエッジの線分に対して、予め決められた基準長さ以上の長さを有し、かつ予め決められた方向(角度)に延びるプラスエッジの線分及びマイナスエッジの線分を抽出する。これに対して、基準長さより短いエッジや、垂直方向以外に延びるエッジの線分は抽出しない。これにより、路面上での光の反射や、ゴミや汚れ等によるノイズのエッジが除去される。 The parking lot line detection unit 112 detects a parking lot line based on the edge detected by the edge detection unit 111. More specifically, the parking lot line detection unit 112 detects that the detected plus-edge line segments and minus-edge line segments have a length equal to or greater than a predetermined reference length, and have a predetermined length. A plus edge line segment and a minus edge line segment extending in a direction (angle) are extracted. On the other hand, edges that are shorter than the reference length or line segments of edges that extend in a direction other than the vertical direction are not extracted. This eliminates the reflection of light on the road surface and the edges of noise caused by dust, dirt, and the like.

基準長さは、例えば、車両Vの車長分(例えば5m)の長さとすることができるが、駐車区画線が短い場合等は、車長よりも短い長さとしている。角度は、車両Vの走行方向、画像を撮影したカメラ20の向き等を考慮した角度としている。図6の場合は、駐車区画線は、走行方向に対して駐車スペースに向かって略直角に延びる直線であるため、角度=90°±閾値としている。 The reference length can be, for example, the length of the vehicle V (for example, 5 m), but if the parking lot line is short, the reference length is set to be shorter than the vehicle length. The angle is an angle that takes into account the running direction of the vehicle V, the direction of the camera 20 that took the image, and the like. In the case of FIG. 6, the parking lot line is a straight line extending substantially perpendicularly toward the parking space with respect to the driving direction, so the angle is set to 90°±threshold value.

駐車区画線検出部112は、抽出された複数のプラスエッジの線分及びマイナスエッジの線分の各々の始点及び終点の位置(座標値)を算出し、この位置に基づいて、所定間隔で隣り合うプラスエッジの線分とマイナスエッジの線分を抽出し、駐車区画線を構成するエッジのペアであると判定する。例えば、プラスエッジとマイナスエッジの距離が、駐車区画線の線幅±閾値の範囲内であるときに、これらをペアと判定する。 The parking lot line detection unit 112 calculates the positions (coordinate values) of the start and end points of each of the extracted plus edge line segments and minus edge line segments, and based on these positions, the parking lot line detection unit 112 A line segment with a plus edge and a line segment with a minus edge that match are extracted and determined to be a pair of edges constituting a parking lot line. For example, when the distance between the plus edge and the minus edge is within the range of the line width of the parking lot line±threshold value, these are determined to be a pair.

図6Aの俯瞰画像G上に、抽出された基準長さ以上で、かつ所定の角度で延びるプラスエッジの線分Ep(太実線)と、マイナスエッジの線分Em(太破線)を模式的に示す。この図6Aの例では、駐車区画線(実際には、駐車区画線画像)K1~K6の両側縁部分に、それぞれプラスエッジの線分Ep1~Ep6と、マイナスエッジの線分Em1~Em6のペアが抽出された。 On the overhead image G of FIG. 6A, a plus edge line segment Ep (thick solid line) that is longer than the extracted reference length and extends at a predetermined angle, and a minus edge line segment Em (thick broken line) are schematically shown. show. In the example of FIG. 6A, pairs of plus-edge line segments Ep1-Ep6 and minus-edge line segments Em1-Em6 are placed on both side edges of parking lot lines (actually, parking lot line images) K1 to K6, respectively. was extracted.

ここで、駐車区画線K4,K5については、影Sによってエッジの線分が分断され、基準長さより長いプラスエッジの線分Ep4,Ep5及びマイナスエッジの線分Em4,Em5のペアの他に、基準長より短いプラスエッジの線分Ep7,Ep8とプラスエッジの線分Em7,Em8とが検出される。また、線分Ep4とEp7の間等、分断されたエッジ間に、さらに別のエッジが検出される場合もある。これらのエッジの線分Ep7,Ep8,Em7,Em8等は、基準長さ以下である場合はフィルタリングによって破棄される。しかし、基準長さ以上であれば、エッジの線分Ep4とEm4のペア、Ep5とEm5のペアとは別のエッジのペアとして抽出されることもある。また、駐車区画線K6については、影Sによって実際の駐車区画線K6の長さよりも短いプラスエッジの線分Ep6とマイナスエッジの線分Em6とのペアが抽出されている。 Here, regarding the parking lot lines K4 and K5, the edge line segment is divided by the shadow S, and in addition to the pair of plus edge line segments Ep4 and Ep5 and minus edge line segments Em4 and Em5, which are longer than the reference length, Plus-edge line segments Ep7 and Ep8 and plus-edge line segments Em7 and Em8 that are shorter than the reference length are detected. Furthermore, another edge may be detected between the divided edges, such as between line segments Ep4 and Ep7. These edge line segments Ep7, Ep8, Em7, Em8, etc. are discarded by filtering if their length is less than the reference length. However, if the length is longer than the reference length, the pair of edge segments Ep4 and Em4 and the pair of edge segments Ep5 and Em5 may be extracted as a different pair of edges. Regarding the parking lot line K6, a pair of a plus-edge line segment Ep6 and a minus-edge line segment Em6, which are shorter than the actual length of the parking lot line K6, is extracted by the shadow S.

このような現象は、影になっていない日向部分と、影になった日陰部分とで、路面の輝度が互いに異なるとともに、駐車区画線の輝度も互いに異なることに起因して発生する。つまり、日向部分と日陰部分での路面と駐車区画線との輝度差の値や、エッジの角度(方向)が異なって検出され、連続性がないことから、日向部分のエッジと日陰部分とのエッジとが別々のエッジとして検出されることがある。また日向と日陰の境界近傍のエッジが不検出となることもある。また、道路照明灯やヘッドライト等で駐車区画線の一部が強く照明された場合、この強い照明部分と非照明部分とで、画像中の路面や駐車区画線の輝度差の値等が異なったり、白飛びが生じたりするため、同様の現象が起こり得る。 This phenomenon occurs because the brightness of the road surface is different between the sunny part that is not in the shade and the shaded part that is in the shade, and the brightness of the parking lot line is also different from each other. In other words, the difference in brightness between the road surface and the parking lot line in the sunny and shaded areas and the edge angle (direction) are detected differently, and there is no continuity between the edge of the sunny area and the shaded area. Edges may be detected as separate edges. Furthermore, edges near the boundary between sunlight and shade may not be detected. In addition, when a part of the parking lot line is strongly illuminated by road lights or headlights, the luminance difference value of the road surface or parking lot line in the image will be different between this strongly illuminated part and the non-illuminated part. A similar phenomenon may occur, as it may cause overexposure or overexposure.

これにより、駐車区画線のエッジの長さが実際とは異なる長さで検出されたり、複数に分断して検出された駐車区画線に基づいて、一つの駐車スペースに対して複数の駐車枠が設定されたりして、駐車枠の検出精度に影響することがある。このため、本実施の形態では、補正部114が駐車枠を構成する駐車区画線の端点位置を補正している。本実施の形態では、駐車区画線検出部112が駐車区画線を検出し、検出した駐車区画線に基づいて駐車枠設定部113が駐車枠を設定した後に、補正部114による補正を行っている。 As a result, the length of the edge of a parking lot line may be detected as being different from the actual length, or multiple parking spaces may be assigned to one parking space based on a parking lot line that is detected as being divided into multiple parts. settings, which may affect the accuracy of parking slot detection. Therefore, in this embodiment, the correction unit 114 corrects the end point positions of the parking lot lines that constitute the parking slot. In this embodiment, after the parking lot line detection unit 112 detects a parking lot line and the parking frame setting unit 113 sets a parking frame based on the detected parking lot line, the correction unit 114 performs correction. .

駐車枠設定部113は、駐車区画線検出部112が検出した駐車区画線を構成するエッジのペアに基づいて、駐車枠を設定する。より詳細には、駐車枠設定部113は、複数のペアのプラスエッジの線分及びマイナスエッジの線分の中から、駐車スペースを構成する可能性のある隣り合う2本のエッジの線分を選択する。ここで選択される2本のエッジの線分は、駐車スペースを仕切る一対の駐車区画線の左右の側辺を構成する線である。例えば、図6Aに示す駐車区画線K1のマイナスエッジの線分Em1と、これに隣り合う駐車区画線K2のプラスエッジの線分Ep2である。 The parking frame setting unit 113 sets a parking frame based on the pair of edges forming the parking line detected by the parking line detecting unit 112. More specifically, the parking frame setting unit 113 selects two adjacent edge line segments that may constitute a parking space from among a plurality of pairs of plus edge line segments and minus edge line segments. select. The two edge line segments selected here are lines that constitute the left and right sides of a pair of parking lot lines that partition the parking space. For example, there are a minus-edge line segment Em1 of the parking lot line K1 shown in FIG. 6A, and a plus-edge line segment Ep2 of the adjacent parking lot line K2.

駐車枠設定部113は、選択した2本のエッジの線分間の距離(隣り合う駐車区画線の内法寸法)を、各エッジの端点の座標値に基づいて算出する。算出された距離が、所定範囲内(例えば、駐車スペース幅幅±閾値の範囲内)にあるか判定する。この距離が所定範囲内であれば、2本のエッジの線分で仕切られた領域を駐車スペースとして検出する。駐車スペース幅としては、普通自動車や小型貨物車用の駐車スペースであれば2m~3mが望ましい。大型貨物車やバス用の駐車スペースであれば、3.3m以上が望ましい。 The parking frame setting unit 113 calculates the distance between the line segments of the two selected edges (inner dimensions of adjacent parking lot lines) based on the coordinate values of the end points of each edge. It is determined whether the calculated distance is within a predetermined range (for example, within a range of parking space width ± threshold value). If this distance is within a predetermined range, the area partitioned by the line segments of the two edges is detected as a parking space. The width of the parking space is preferably 2m to 3m if it is for a regular car or small cargo vehicle. If it is a parking space for a large freight vehicle or bus, a height of 3.3 m or more is desirable.

検出した駐車スペースを構成する隣り合うプラスエッジの線分とマイナスエッジの線分に沿った線を長辺(側辺)とし、向かい合う両端をそれぞれ結んだ線を短辺とする矩形状の枠が駐車枠であり、その内部が駐車スペースであると推定できる。駐車枠設定部113は、プラスエッジの線分の2つの端点と、マイナスエッジの線分の2つの端点を、駐車枠の4つの端点とし、補正部114に渡すべく、その位置(座標値)を記憶部120のワークエリアに登録する。 A rectangular frame with the long side (side) being the line along the adjacent positive edge line segment and negative edge line segment that make up the detected parking space, and the short side being the line connecting the opposing ends. It is a parking frame, and it can be estimated that the inside thereof is a parking space. The parking frame setting unit 113 sets the two end points of the line segment with the plus edge and the two end points of the line segment with the minus edge as the four end points of the parking frame, and calculates their positions (coordinate values) in order to pass them to the correction unit 114. is registered in the work area of the storage unit 120.

また、駐車枠設定部113は、設定した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行うこともできる。例えば、検出された駐車スペースに他車両や障害物等が存在するときには、駐車ができないと判断して、この駐車枠については記憶部120に登録しないようにする。また、駐車枠設定部113は、車両Vから近い駐車枠、又は駐車し易い駐車枠を、駐車可能な駐車枠と判定し、記憶部120に登録することもできる。 Moreover, the parking frame setting unit 113 can also perform a determination process or the like to determine whether or not the vehicle V can be parked in the set parking frame. For example, if there are other vehicles or obstacles in the detected parking space, it is determined that parking is not possible, and this parking space is not registered in the storage unit 120. Moreover, the parking frame setting unit 113 can also determine a parking frame that is close to the vehicle V or a parking frame that is easy to park as a parking frame in which parking is possible, and register it in the storage unit 120.

図6Aの例では、各駐車区画線K1~K6の間に、3つの駐車枠A1,A2,A3が設定される。しかしながら、駐車区画線K4~K6のエッジが短く検出され、端点位置にずれを生じたことから、駐車枠A2,A3が長方形ではなく、台形状又は平行四辺形状に変形して検出される。 In the example of FIG. 6A, three parking spaces A1, A2, and A3 are set between each parking lot line K1 to K6. However, since the edges of the parking lot lines K4 to K6 are detected to be short and the end point positions are shifted, the parking frames A2 and A3 are detected not as rectangles but as trapezoids or parallelograms.

これを是正するため、補正部114は、駐車枠設定部113が設定したすべての駐車枠について、駐車枠を構成する駐車区画線の延びる方向に基づいて、所定距離だけ離れた位置から、駐車区画線の延長線上に続きの駐車区画線があるかどうかを判定する。つまり、検出された駐車区画線の延長線上に(駐車区画線の先に)、さらに駐車区画線が存在しているかどうかの判定を行う。補正部14は、続きの駐車区画線が検出されたときに、最初に検出された駐車区画線と、次に検出された続きの駐車区画線とを接続して一の駐車区画線とする。その後、この補正部114で接続された一の駐車区画線に基づいて、駐車枠設定部113が、駐車枠を設定(補正)する。 In order to correct this, the correction unit 114 corrects all the parking spaces set by the parking space setting unit 113 from a position a predetermined distance away, based on the direction in which the parking lot lines constituting the parking space extend. It is determined whether there is a continuation parking lot line on the extension line of the line. That is, it is determined whether or not there is another parking lot line on the extension line of the detected parking lot line (beyond the parking lot line). When a continuation parking lot line is detected, the correction unit 14 connects the first detected parking lot line and the next detected continuation parking lot line to form one parking lot line. Thereafter, the parking frame setting unit 113 sets (corrects) a parking frame based on the one parking lot line connected by the correction unit 114.

より具体的に説明すると、補正部114は、当該駐車枠を構成する駐車区画線のエッジが影等で分断されているか判定すべく、影等があるかどうかを判定する。それには、駐車区画線検出部112が検出した駐車区画線の端部を基準にして、補正部114は、駐車区画線のエッジの端点から所定方向側(プラスエッジの場合は走査元側、マイナスエッジの場合は走査先側)に所定量(「影探索オフセット量α」という)オフセットした位置の画素を挟んで、駐車区画線の延びる方向に沿って所定長さ(「影探索長さβ」という)で俯瞰画像Gを走査し、隣り合った画素の輝度差を算出する。走査した結果、隣り合った画素の輝度差の絶対値が所定値以上あったかどうかを判定し、所定値以上あった場合は、影やかすれ等によって駐車区画線が分断されていると判定する。輝度差の絶対値が所定値未満であると判定した場合は、駐車区画線が分断されていないと判定する。このとき、隣り合った画素間で輝度差(コントラスト)があることが認識できればよいため、補正部114が抽出された駐車区画線の端部を基準として走査するときには、エッジ検出部111がエッジを検出する際の輝度差の閾値よりも小さい閾値で輝度差を比較すればよく、また、角度(方向)を比較する必要はない。 More specifically, the correction unit 114 determines whether there is a shadow or the like in order to determine whether the edge of the parking lot line that constitutes the parking frame is divided by a shadow or the like. To do this, based on the end of the parking lot line detected by the parking lot line detection unit 112, the correction unit 114 moves the edge of the parking lot line toward a predetermined direction from the end point of the edge of the parking lot line (in the case of a positive edge, to the scanning source side; In the case of an edge, a pixel at a position offset by a predetermined amount (referred to as "shadow search offset amount α") to the scanning destination side) is sandwiched between the pixels and a predetermined length ("shadow search length β") along the direction in which the parking lot line extends. ), the bird's-eye view image G is scanned, and the brightness difference between adjacent pixels is calculated. As a result of scanning, it is determined whether the absolute value of the brightness difference between adjacent pixels is greater than or equal to a predetermined value, and if it is greater than or equal to the predetermined value, it is determined that the parking lot line is divided by shadows, blur, etc. If it is determined that the absolute value of the brightness difference is less than the predetermined value, it is determined that the parking lot line is not divided. At this time, it is only necessary to recognize that there is a brightness difference (contrast) between adjacent pixels, so when the correction unit 114 scans with the edge of the extracted parking lot line as a reference, the edge detection unit 111 detects the edge. It is sufficient to compare the brightness differences using a threshold value smaller than the threshold value of the brightness difference at the time of detection, and there is no need to compare the angles (directions).

駐車区画線が分断されていると判定したときは、補正部114は、駐車区画線の延びる方向に、駐車区画線から所定長さ(「再探索開始位置オフセット量γ」という)で離れた位置に接続すべき駐車区画線があるか否かを判定する。具体的には、駐車区画線の延びる方向に再探索開始位置オフセット量γで離れた位置から、駐車区画線の延びる方向と交差方向に、所定長さ(「再探索成功判定長さδ」という)で俯瞰画像Gを走査して、隣り合った画素の輝度差がプラス方向に所定値よりも大きくなるエッジと、隣り合った画素の輝度差がマイナス方向に所定値よりも大きくなるエッジとのペアが存在するか否かを判定する。この場合も、エッジ検出部111がエッジを検出する際の輝度差の閾値よりも小さい閾値で輝度差を比較すればよく、また、角度(方向)を比較する必要はない。 When determining that the parking lot line is divided, the correction unit 114 moves the parking lot line to a position that is a predetermined length away from the parking lot line (referred to as "re-search start position offset amount γ") in the direction in which the parking lot line extends. Determine whether there is a parking lot line to be connected to. Specifically, a predetermined length (referred to as "research success determination length δ" ) to scan the overhead image G and identify edges where the brightness difference between adjacent pixels is larger than a predetermined value in the positive direction and edges where the brightness difference between adjacent pixels is larger than the predetermined value in the negative direction. Determine whether a pair exists. In this case as well, the brightness difference may be compared using a threshold value smaller than the brightness difference threshold value used when the edge detection unit 111 detects an edge, and there is no need to compare the angles (directions).

プラスとマイナスのエッジのペアを検出した場合は、補正部114は、当該駐車区画線と接続すべき、分断された駐車区画線(続きの駐車区画線)が検出されたと判定し、走査を続行して、分断された駐車区画線の端部(端点)を検出する。そして、当該駐車区画線のエッジの一方の端点と、分断された駐車区画線のエッジの走査先側の端点を、駐車枠の一方及び他方の端点とし、これらの端点の位置(座標値)を、ワークエリアに登録して駐車枠の情報を補正(更新)する。この更新されたワークエリア上の駐車枠の情報を、駐車枠設定部113が、駐車枠登録データ121として記憶部120に登録する。 If a pair of plus and minus edges is detected, the correction unit 114 determines that a divided parking lot line (continuing parking lot line) that should be connected to the parking lot line in question has been detected, and continues scanning. Then, the ends (end points) of the divided parking lot lines are detected. Then, one end point of the edge of the parking lot line and the end point on the scan destination side of the edge of the divided parking lot line are defined as one and the other end points of the parking space, and the positions (coordinate values) of these end points are determined. , to correct (update) parking slot information by registering it in the work area. The parking space setting unit 113 registers the updated parking space information on the work area in the storage unit 120 as parking space registration data 121.

これに対して、俯瞰画像Gを再探索成功判定長さδだけ走査しても、上記エッジのペアが検出されなかったとき、又は、エッジのペアの長さがδ未満であったとき、補正部114は走査を中止する。この場合、当該駐車区画線に関しては、分断された駐車区画線は存在しないと判定して、補正部114はワークエリアの補正(更新)を行わない。この結果、駐車枠設定部113は、当該駐車区画線(最初に検出された駐車区画線)のエッジの線分の一方及び他方の端点の位置(座標値)を、駐車枠登録データ121として記憶部120に登録する。 On the other hand, when the above-mentioned edge pair is not detected even if the bird's-eye view image G is scanned by the re-search success determination length δ, or when the length of the edge pair is less than δ, the correction The unit 114 stops scanning. In this case, regarding the parking lot line, it is determined that there is no divided parking lot line, and the correction unit 114 does not correct (update) the work area. As a result, the parking space setting unit 113 stores the positions (coordinate values) of one and the other end points of the edge line segment of the parking lot line (first detected parking lot line) as the parking space registration data 121. 120.

影等の探索及び分断された駐車区画線のエッジの探索は、駐車枠を構成する隣り合うプラスエッジの線分とマイナスエッジの線分の、一方の端点側と、他方の端点側とについて各々行うことが望ましい。これにより、駐車枠の4つの端点の位置(座標値)を、真値により近い適切な位置に補正できる。 Search for shadows, etc. and search for edges of divided parking lot lines are performed on one end point side and the other end point side of adjacent plus edge line segments and negative edge line segments that make up the parking space. It is desirable to do so. Thereby, the positions (coordinate values) of the four end points of the parking frame can be corrected to appropriate positions closer to the true values.

上記α~δの値は、特に限定されるものではなく、画像処理に用いる関数、エッジを検出する手法、さらには画像の解像度、撮影範囲、駐車場Pの環境(建物、フェンス、照明等の有無、サイズ等)等に応じて適宜の値を設定できる。具体的には、例えば、影探索オフセット量αを5ピクセルとし、影探索長さβを15ピクセルとすれば、影等の有無を適切に判定できる。 The values of α to δ above are not particularly limited, and may vary depending on the function used for image processing, edge detection method, image resolution, shooting range, environment of parking lot P (buildings, fences, lighting, etc.). An appropriate value can be set depending on the presence/absence, size, etc. Specifically, for example, if the shadow search offset amount α is set to 5 pixels and the shadow search length β is set to 15 pixels, the presence or absence of a shadow etc. can be appropriately determined.

また、再探索開始位置オフセット量γを10ピクセル、再探索成功判定長さδを5ピクセルとすれば、最終長さが15ピクセル以上の分断された駐車区画線が検出され、当該駐車区画線と接続される。これに対して、最終長さが15ピクセル未満の分断された駐車区画線は、当該駐車区画線と接続されずに破棄される。本実施の形態では、画像の100ピクセルは、3mに相当する。したがって、45cm以上の長さで駐車区画線が分断されているときは、駐車区画線及び駐車枠の端点が補正され、その結果、長さが適切に補正される。これに対して、分断された長さが45cm未満の場合は、駐車区画線及び駐車枠の端点が補正されず、長さも補正されない。 Furthermore, if the re-search start position offset amount γ is 10 pixels and the re-search success determination length δ is 5 pixels, a divided parking lot line with a final length of 15 pixels or more will be detected and the parking lot line will Connected. On the other hand, a divided parking lot line with a final length of less than 15 pixels is discarded without being connected to the parking lot line. In this embodiment, 100 pixels of the image corresponds to 3 meters. Therefore, when the parking lot line is divided by a length of 45 cm or more, the end points of the parking lot line and the parking frame are corrected, and as a result, the length is appropriately corrected. On the other hand, when the divided length is less than 45 cm, the parking lot line and the end point of the parking frame are not corrected, and the length is also not corrected.

しかし、駐車枠の端点の誤差が15ピクセル(45cm)以内であれば、画像処理等で補正可能な許容範囲内の誤差であり、モニター31の表示画像上に未補正の駐車枠を示すマークを表示した場合でも、ユーザに違和感を与えることがなく、また、駐車支援等への影響を抑制できる。駐車区画線の基準長さを5mとした場合、γは10ピクセル=30cm、再探索成功判定長さδは5ピクセル=15cmであり、それぞれ駐車区画線の6%、3%の長さである。このことから、再探索開始位置オフセット量γは、駐車区画線の長さの6%以下、再探索成功判定長さδを駐車区画線の長さの4%以下とすることで、分断された駐車区画線を、高精度かつ高速で検出できる。 However, if the error in the end point of the parking space is within 15 pixels (45 cm), the error is within the allowable range that can be corrected by image processing, etc., and a mark indicating the uncorrected parking space is displayed on the display image of the monitor 31. Even when displayed, the user does not feel uncomfortable, and the influence on parking assistance and the like can be suppressed. When the standard length of the parking lot line is 5 m, γ is 10 pixels = 30 cm, and the re-search success determination length δ is 5 pixels = 15 cm, which are 6% and 3% of the length of the parking lot line, respectively. . From this, the re-search start position offset amount γ is set to 6% or less of the length of the parking lot line, and the re-search success determination length δ is set to 4% or less of the length of the parking lot line. Parking lane lines can be detected with high precision and high speed.

図6(b)に、補正部114による補正処理により、端点が適切に補正されたエッジと、駐車枠A2,A3を模式的に示す。この図6(b)に示されるように、プラスエッジの線分Ep4,Ep5とマイナスエッジの線分Em4,Em5の始点(アイコンIに近い側)と、プラスエッジの線分Ep6とマイナスエッジの線分Em6の終点(アイコンIから遠い側)の位置が、真値により近い位置に適切に補正された。この結果、駐車枠A2,A3の端点の位置も適切な位置に補正され、駐車枠の検出精度を向上できる。 FIG. 6B schematically shows edges whose end points have been appropriately corrected by the correction process by the correction unit 114 and parking frames A2 and A3. As shown in FIG. 6(b), the starting points of the plus edge line segments Ep4 and Ep5 and the minus edge line segments Em4 and Em5 (on the side closer to icon I), the plus edge line segment Ep6 and the minus edge line segment The position of the end point (farthest from icon I) of line segment Em6 has been appropriately corrected to a position closer to the true value. As a result, the positions of the end points of the parking frames A2 and A3 are also corrected to appropriate positions, and the detection accuracy of the parking frames can be improved.

以下、補正部114による駐車枠の補正手順を、図7、図8を参照しながら説明する。図7(a)は、分断された駐車区画線(続きの駐車区画線)が存在する場合の補正処理手順を説明するための図であり、図7(b)は分断された駐車区画線(続きの駐車区画線)が存在しない場合の補正処理手順を説明するための図である。図8、図9は、図7(a)とは異なる状態で分断された駐車区画線(続きの駐車区画線)が存在する場合の補正処理手順を説明するための図である。これらの図では、図6Aにならって、駐車区画線Kと直交する方向をX軸とし、駐車区画線の延びる方向をY軸として説明する。また、分断された駐車区画線の検出先の端部であって、図示した駐車区画線Kの一方の端部を「先端」とし、図示を省略した反対側の端部を「後端」として説明する。 Hereinafter, the procedure for correcting parking spaces by the correction unit 114 will be explained with reference to FIGS. 7 and 8. FIG. 7(a) is a diagram for explaining the correction processing procedure when there is a divided parking lot line (continuation of the parking lot line), and FIG. FIG. 12 is a diagram for explaining a correction processing procedure when a continuation parking lot line does not exist. FIGS. 8 and 9 are diagrams for explaining the correction processing procedure when there is a parking lot line (continuation of the parking lot line) divided in a state different from that in FIG. 7(a). In these figures, following FIG. 6A, the direction perpendicular to the parking lot line K is assumed to be the X-axis, and the direction in which the parking lot line extends is assumed to be the Y-axis. In addition, among the ends of the divided parking lot lines to be detected, one end of the illustrated parking lot line K is referred to as the "tip", and the opposite end (not shown) is referred to as the "rear end". explain.

図7(a)は、駐車枠を構成する駐車区画線Kの先端側が影Sで分断されて不検出となった例を示している。この場合、影Sで分断されているか否かを判定するため、エッジの線分(ここでは、マイナスエッジの線分Emを例にとって説明する。)の端点dから走査元側(X軸正方向)に、影探索オフセット量αでオフセットした位置の画素を挟んで、マイナスエッジの線分Emが延びる方向(Y軸負方向)に影探索長さβ分、画像を走査し、隣り合った画素の輝度差を算出する。この走査によって、隣り合った画素の輝度差の絶対値が所定値以上あったかどうかを判定する。この図7(a)の例では、走査領域が路面Rから影Sに切り替わるので、この切り替わりの境界で隣り合った画素の輝度差の絶対値が所定値以上となる。したがって、影Sによって駐車区画線のエッジが分断されていると判定する。 FIG. 7A shows an example in which the leading end side of the parking lot line K that constitutes the parking frame is divided by a shadow S and is not detected. In this case, in order to determine whether or not it is divided by the shadow S, from the end point d of the edge line segment (here, a line segment Em of a negative edge is explained as an example), ), the image is scanned by the shadow search length β in the direction in which the negative edge line segment Em extends (Y-axis negative direction), sandwiching the pixel at the position offset by the shadow search offset amount α, and the adjacent pixels are Calculate the brightness difference between Through this scanning, it is determined whether the absolute value of the luminance difference between adjacent pixels is greater than or equal to a predetermined value. In the example of FIG. 7A, since the scanning area switches from the road surface R to the shadow S, the absolute value of the brightness difference between adjacent pixels at the boundary of this switching becomes greater than or equal to a predetermined value. Therefore, it is determined that the edge of the parking lot line is divided by the shadow S.

次に、マイナスエッジの線分Emの端点dから、その延長線上に再探索開始位置オフセット量γだけオフセットした位置から、X軸正方向に走査を実施する。このとき、X軸方向においては駐車区画線の幅+閾値の幅(長さ)で、Y軸方向に1ピクセル(1ライン)ずつ走査する。オフセット位置から、再探索成功判定長さδ分走査して、プラスエッジとマイナスエッジのペアが検出されたときに、分断された駐車区画線K’があると判定する。図7(a)の例では、影になっている部分のプラスエッジ(黒丸で示す)とマイナスエッジ(白丸で示す)が、δ以上の長さで検出される。また、この走査は、プラスエッジとマイナスエッジが検出されなくなるまで、つまり、分断された駐車区画線K’の先端部に到達するまで行う。そして、駐車枠設定部113は、この分断された駐車区画線K’のマイナスエッジの先端側の端点を、駐車枠の一側辺の始点(又は終点)とし、当該駐車区画線の後端側の端点を、駐車枠の一側の終点(又は始点)とし、それぞれの位置(座標値)を駐車枠登録データ121として記憶部120に登録する。以上の処理は、このマイナスエッジと隣り合って駐車枠の他側を構成するプラスエッジについても行うことで、駐車枠の4つの端点の位置を適切に補正できる。以降の例でも同様である。 Next, scanning is performed in the positive direction of the X-axis from a position offset by the re-search start position offset amount γ on the extension line from the end point d of the line segment Em of the negative edge. At this time, scanning is performed one pixel (one line) at a time in the Y-axis direction with the width (length) of the parking lot line plus the threshold value in the X-axis direction. After scanning from the offset position for the re-search success determination length δ, when a pair of a plus edge and a minus edge is detected, it is determined that there is a divided parking lot line K'. In the example of FIG. 7A, the plus edge (indicated by a black circle) and the minus edge (indicated by a white circle) in the shaded portion are detected with lengths greater than or equal to δ. Further, this scanning is continued until no plus edge or minus edge is detected, that is, until the tip of the divided parking lot line K' is reached. Then, the parking frame setting unit 113 sets the end point on the leading end side of the minus edge of the divided parking lot line K' as the starting point (or end point) of one side of the parking frame, and sets the end point on the front end side of the minus edge of this divided parking lot line K' as the starting point (or end point) of one side of the parking lot line, and The end point of is defined as the end point (or starting point) on one side of the parking frame, and each position (coordinate value) is registered in the storage unit 120 as parking frame registration data 121. By performing the above processing also on the plus edge that is adjacent to this minus edge and constitutes the other side of the parking frame, the positions of the four end points of the parking frame can be appropriately corrected. The same applies to subsequent examples.

これに対して、図7(b)に示すように、影等で駐車区画線Kが分断されていない場合には、影探索オフセット量αでオフセットして、影探索長さβ分走査すると、隣り合った画素の輝度差の絶対値が所定値未満と判定される。このため、当該駐車区画線Kには、接続すべき分断された駐車区画線は存在しないと判定する。駐車枠設定部113は、駐車枠の一側の始点と終点の位置(駐車枠登録データ121)として、当該駐車区画線Kのマイナスエッジの始点と終点の位置(座標値)を記憶部120に登録する。 On the other hand, as shown in FIG. 7(b), if the parking lot line K is not divided by a shadow or the like, if the shadow search offset amount α is used to offset the parking lot line K and the shadow search length β is scanned, It is determined that the absolute value of the brightness difference between adjacent pixels is less than a predetermined value. Therefore, it is determined that there is no divided parking lot line to be connected to the parking lot line K. The parking frame setting unit 113 stores the positions (coordinate values) of the start and end points of the negative edge of the parking lot line K in the storage unit 120 as the positions of the start and end points on one side of the parking frame (parking frame registration data 121). register.

また、図8、図9は、駐車区画線の一部が影となって、2つに分断された例を示している。この場合、先端側のエッジがノイズとして破棄されたり、別々の駐車区画線として検出されたりすることがある。また、図8、図9に示す例でも、マイナスエッジの線分Emから影探索オフセット量αでオフセットした位置で、影探索長さβ分走査することで、影Sと路面Rとの境界で隣り合った画素の輝度差の絶対値が所定値以上あると判定される。 Moreover, FIGS. 8 and 9 show an example in which a part of the parking lot line becomes a shadow and is divided into two parts. In this case, the leading edge may be discarded as noise or detected as separate parking lot lines. Also, in the examples shown in FIGS. 8 and 9, by scanning for the shadow search length β at a position offset by the shadow search offset amount α from the negative edge line segment Em, the boundary between the shadow S and the road surface R is It is determined that the absolute value of the brightness difference between adjacent pixels is equal to or greater than a predetermined value.

図8の例では、端点dより再探索開始位置オフセット量γだけオフセットした位置から、X軸正方向に走査を実施すると、再探索成功判定長さδ以上のプラスエッジとマイナスエッジが検出され、分断された駐車区画線K’が検出される。この場合、駐車枠設定部113は、新たに検出された分断された駐車区画線K’のマイナスエッジの端点の位置(座標値)と、駐車区画線Kのマイナスエッジの他方の端点の位置(座標値)を、駐車枠の一側の始点及び終点の位置(駐車枠登録データ121)として記憶部120に登録する。 In the example of FIG. 8, when scanning is performed in the positive direction of the X-axis from a position offset by the re-search start position offset amount γ from the end point d, a positive edge and a negative edge that are longer than the re-search success determination length δ are detected, A divided parking lot line K' is detected. In this case, the parking frame setting unit 113 determines the position (coordinate value) of the end point of the minus edge of the newly detected divided parking lot line K' and the position (coordinate value) of the other end point of the minus edge of the parking lot line K'. The coordinate values) are registered in the storage unit 120 as the positions (parking frame registration data 121) of the starting point and end point on one side of the parking frame.

これに対して、図9の例では、端点dより再探索開始位置オフセット量γだけオフセットした位置から、X軸正方向に走査を実施すると、プラスエッジとマイナスエッジは検出されるが、検出長さが再探索成功判定長さδ未満である。この場合は、駐車枠を補正する必要がなく、分断された駐車区画線が存在しないと判定する。駐車枠設定部113は、駐車区画線Kのマイナスエッジの両端点の位置(座標値)を、駐車枠の一側の始点及び終点の位置(駐車枠登録データ121)として記憶部120に登録する。 On the other hand, in the example of FIG. 9, when scanning is performed in the positive direction of the X-axis from a position offset by the re-search start position offset amount γ from the end point d, positive edges and negative edges are detected, but the detection length is less than the re-search success determination length δ. In this case, there is no need to correct the parking frame, and it is determined that there is no divided parking lot line. The parking frame setting unit 113 registers the positions (coordinate values) of both end points of the negative edge of the parking lot line K in the storage unit 120 as the positions of the starting and ending points on one side of the parking frame (parking frame registration data 121). .

以上のように、駐車枠設定部113は、駐車枠201を構成する隣り合うプラスエッジの線分及びマイナスエッジの線分の端点の座標値(補正部114によって補正された場合は補正後の座標値)を、駐車枠登録データ121として記憶部120に登録し、車両制御ECU等が参照できるようにする。このとき、駐車枠201の少なくとも車両Vに近い側の2つの端点(始点)の座標値を登録すれば、記憶容量をできるだけ少なくしつつ、駐車枠201を特定できる。これに対して、4つの端点(始点及び終点)の座標値を登録してもよく、前向き駐車、後ろ向き駐車の何れでも適切な駐車支援が可能となる。また、駐車区画線200の角度(延在方向)、その他の自動駐車処理に必要な情報を駐車枠登録データ121に加えることもでき、より適切な駐車支援が可能となる。 As described above, the parking frame setting unit 113 determines the coordinate values of the end points of the adjacent plus-edge line segments and minus-edge line segments that constitute the parking frame 201 (if corrected by the correction unit 114, the corrected coordinates). value) is registered in the storage unit 120 as the parking space registration data 121 so that the vehicle control ECU and the like can refer to it. At this time, by registering the coordinate values of at least the two end points (starting points) of the parking frame 201 on the side closer to the vehicle V, the parking frame 201 can be specified while minimizing the storage capacity. On the other hand, the coordinate values of the four end points (starting point and ending point) may be registered, and appropriate parking assistance can be provided for both forward parking and backward parking. Furthermore, the angle (extending direction) of the parking lot line 200 and other information necessary for automatic parking processing can be added to the parking space registration data 121, making it possible to provide more appropriate parking support.

表示制御部115は、カメラ20により撮像された車両Vの周囲の路面画像や、駐車枠設定部113により設定され、補正部114によって補正された駐車枠を示す画像をこの路面画像に適宜重複して、あるいは単独でナビゲーション装置(表示装置)30のモニター31に表示させるための表示制御信号をナビゲーション装置30に送出する。 The display control unit 115 appropriately overlaps the road surface image around the vehicle V captured by the camera 20 and the image showing the parking space set by the parking space setting unit 113 and corrected by the correction unit 114 on this road surface image. A display control signal for displaying on the monitor 31 of the navigation device (display device) 30 is sent to the navigation device 30 either alone or separately.

記憶部120は、ハードディスクドライブ等の大容量記憶媒体やROM、RAM等の半導体記憶媒体などの記憶媒体を有する。記憶部120には、制御部110における各種動作の際に用いられる各種データが一時的または非一時的に格納される。 The storage unit 120 includes a storage medium such as a large capacity storage medium such as a hard disk drive, or a semiconductor storage medium such as ROM or RAM. The storage unit 120 temporarily or non-temporarily stores various data used during various operations in the control unit 110.

また、前述したように、記憶部120には、駐車枠登録データ121、パラメータデータ122が格納される。パラメータデータ122として、エッジ検出時の閾値、駐車区画線の分断の判定や分断された駐車区画線の検出に用いる各種設定値(α~δ)、駐車区画線や車線境界線等の境界線の基準長さ、駐車スペース幅及びその閾値、等を格納できる。さらに、境界線の幅、延在方向の角度等、画像処理装置100が使用する様々なパラメータを格納できる。また、駐車支援装置1が使用される国、地域、駐車スペース(駐車枠)の形状や大きさ、走行車線間の距離や車線境界線の形状等に対応して、複数のパラメータを格納し、適切なパラメータを選択する構成とすることもできる。 Furthermore, as described above, the storage unit 120 stores parking space registration data 121 and parameter data 122. The parameter data 122 includes threshold values for edge detection, various setting values (α to δ) used for determining whether parking lot lines are divided or detecting divided parking lot lines, and boundary lines such as parking lot lines and lane boundary lines. The standard length, parking space width, its threshold value, etc. can be stored. Furthermore, various parameters used by the image processing apparatus 100, such as the width of the boundary line and the angle of the extending direction, can be stored. In addition, a plurality of parameters are stored corresponding to the country and region where the parking assistance device 1 is used, the shape and size of the parking space (parking frame), the distance between driving lanes, the shape of the lane boundary line, etc. It may also be configured to select appropriate parameters.

(画像処理装置の動作)
次に、本実施の形態である画像処理装置100の動作の一例を、図4のフローチャート及び図6A、図6Bを参照しながら説明する。
(Operation of image processing device)
Next, an example of the operation of the image processing apparatus 100 according to this embodiment will be described with reference to the flowchart of FIG. 4 and FIGS. 6A and 6B.

図4は画像処理装置100の動作を説明するためのフローチャートである。図4のフローチャートに示す動作は、運転者が図略の自動駐車開始スイッチを操作して自動駐車開始の指示入力を行うことにより開始する。 FIG. 4 is a flowchart for explaining the operation of the image processing apparatus 100. The operation shown in the flowchart of FIG. 4 starts when the driver inputs an instruction to start automatic parking by operating an automatic parking start switch (not shown).

ステップS1では、画像処理装置100の制御部110が、カメラ20により撮像された車両V周囲の路面Rの画像信号を取得する。 In step S1, the control unit 110 of the image processing device 100 acquires an image signal of the road surface R around the vehicle V captured by the camera 20.

ステップS2では、ステップS1により取得された画像信号に基づき、制御部110がこれら画像信号を合成した信号を生成する。ステップS2において合成して生成される信号は、あたかも車両Vの上方にカメラを設置して真下を見下ろしたような画像(図6A等の「俯瞰画像G」参照。)をナビゲーション装置30に表示させるための信号である。このような俯瞰画像を表示するための信号を生成する技術は公知であり、一例として、特開平3-99952号公報や特開2003-118522号公報に開示された技術が知られている。 In step S2, based on the image signal acquired in step S1, the control unit 110 generates a signal by combining these image signals. The signals synthesized and generated in step S2 cause the navigation device 30 to display an image as if a camera was installed above the vehicle V and looked down directly below (see "overhead image G" in FIG. 6A etc.). This is a signal for Techniques for generating signals for displaying such bird's-eye images are well known, and examples include techniques disclosed in Japanese Patent Application Laid-Open Nos. 3-99952 and 2003-118522.

なお、ステップS2において、俯瞰画像Gを表示するための信号合成作業を行わず、あるいは、次のステップS3におけるプラスエッジとマイナスエッジの抽出の後にステップS2における画像合成作業を行うこともできる。しかしながら、信号合成作業を行ってからステップS3の処理を行うほうが、画像処理装置100の処理負担を低減できる。 Note that the signal synthesis work for displaying the bird's-eye view image G may not be performed in step S2, or the image synthesis work in step S2 may be performed after the extraction of plus edges and minus edges in the next step S3. However, the processing load on the image processing apparatus 100 can be reduced by performing the processing in step S3 after performing the signal synthesis work.

ステップS3(エッジ検出工程)では、前述したように、エッジ検出部111がステップS2で合成した俯瞰画像Gを所定方向に走査し、画像信号に含まれる輝度に基づいて、俯瞰画像G中のプラスエッジ及びマイナスエッジを抽出する。 In step S3 (edge detection step), as described above, the edge detection unit 111 scans the overhead image G synthesized in step S2 in a predetermined direction, and detects the positive Extract edges and negative edges.

次のステップS4では、駐車区画線検出部112が、ステップS3で検出したプラスエッジ及びマイナスエッジについて、前述したように基準長さに基づいてフィルタリングを行う。これにより、路面上での光の反射や、ゴミや汚れ等によるノイズとなる短いエッジが破棄される。このフィルタリングは、次のステップS5のペアの抽出の後に行うこともできるが、ペアの抽出の前に行ってノイズを除去することで、画像処理を高速化できる。図6Aに示す例では、プラスエッジの線分Ep1~Ep8と、マイナスエッジの線分Em1~Em8が抽出される。 In the next step S4, the parking lane line detection unit 112 filters the plus edges and minus edges detected in step S3 based on the reference length as described above. This eliminates short edges that cause noise due to light reflection on the road surface, dust, dirt, etc. Although this filtering can be performed after pair extraction in the next step S5, image processing can be speeded up by performing it before pair extraction to remove noise. In the example shown in FIG. 6A, plus edge line segments Ep1 to Ep8 and minus edge line segments Em1 to Em8 are extracted.

次のステップS5(駐車区画線検出工程)で、駐車区画線検出部112は、ステップS4で検出した複数のエッジの線分から、隣接するプラスエッジの線分とマイナスエッジの線分のペアを抽出する。このとき、俯瞰画像Gに基づき路面上で隣り合うプラスエッジとマイナスエッジの距離を算出し、この距離が所定の線幅±閾値の範囲内であれば、駐車区画線を構成するエッジのペアと判定する。 In the next step S5 (parking lot line detection step), the parking lot line detection unit 112 extracts a pair of adjacent plus edge line segments and minus edge line segments from the plurality of edge line segments detected in step S4. do. At this time, the distance between adjacent plus edges and minus edges on the road surface is calculated based on the overhead image G, and if this distance is within the range of the predetermined line width ± threshold value, the pair of edges forming the parking lot line are judge.

次のステップS6(駐車枠設定工程)では、駐車枠設定部113が、ステップS4で判定した駐車区画線を構成するエッジのペアに基づいて、前述したような手順で駐車枠及び駐車スペースを設定する。設定した駐車枠の情報(座標値)は、記憶部120に一時的に記憶される。図6Aに示す例では、仮想線で示すように、駐車枠A1が適切に設定され、駐車枠A2,A3は変形して設定される。 In the next step S6 (parking frame setting step), the parking frame setting unit 113 sets a parking frame and a parking space according to the procedure described above based on the pair of edges forming the parking lot line determined in step S4. do. The information (coordinate values) of the set parking slot is temporarily stored in the storage unit 120. In the example shown in FIG. 6A, as shown by the imaginary line, the parking slot A1 is appropriately set, and the parking slots A2 and A3 are set in a deformed manner.

次のステップS7~S14の補正のループ処理(補正工程)により、補正部114が、駐車枠を構成する駐車区画線が影等で分断されているか否かを判定し、分断されているときは、駐車枠の端点の位置を適切な位置に補正する。このステップS7~S14の処理は、ステップS6で設定したすべての駐車枠に対して処理を行ったと判定した場合に終了する。 Through the correction loop process (correction process) of the next steps S7 to S14, the correction unit 114 determines whether or not the parking lot line forming the parking frame is divided by a shadow or the like, and if it is divided, , correct the position of the end point of the parking frame to an appropriate position. The processing in steps S7 to S14 ends when it is determined that all the parking slots set in step S6 have been processed.

まず、ステップS8で、補正部114は、処理対象の駐車枠を構成する駐車区画線の隣り合うプラスエッジの線分とマイナスエッジの線分の各々の端点(始点、終点)の位置(座標値)を取得する。ステップS9で、駐車区画線の各エッジの線分の一方の端点から、所定方向側に所定量(α)オフセットした位置の画素を挟んで、駐車区画線(エッジ)の延びる方向に所定長さ(β)で画像を走査する。 First, in step S8, the correction unit 114 determines the position (coordinate value ) to obtain. In step S9, a predetermined length in the direction in which the parking lot line (edge) extends, sandwiching a pixel at a position offset by a predetermined amount (α) in a predetermined direction from one end point of the line segment of each edge of the parking lot line. (β) to scan the image.

次のステップS10で、走査した結果、隣り合った画素の輝度差の絶対値が所定値以上あったかどうかを判定し、所定値以上あった場合は(YES)、影等によって駐車区画線が分断されていると推定されるため、ステップS11へと進む。 In the next step S10, as a result of scanning, it is determined whether the absolute value of the brightness difference between adjacent pixels is greater than or equal to a predetermined value, and if it is greater than or equal to the predetermined value (YES), the parking lot line is divided by a shadow, etc. Since it is estimated that there is, the process advances to step S11.

これに対して、輝度差の絶対値が所定値未満である(NO)と判定した場合は、影等による駐車区画線の分断がないと推定され、駐車枠の端点の位置を補正する必要がないため、ステップS11~S14をスキップし、ステップS15へと進む。 On the other hand, if it is determined that the absolute value of the brightness difference is less than the predetermined value (NO), it is assumed that there is no division of the parking lot line due to shadows, etc., and it is necessary to correct the position of the end point of the parking space. Therefore, steps S11 to S14 are skipped and the process proceeds to step S15.

ステップS11では、分断された駐車区画線を探索すべく、駐車区画線の延びる方向に、駐車区画線より所定長さ(γ)で離れた位置から、所定長さ(δ)で駐車区画線と直交方向(X軸方向)に俯瞰画像Gを走査する。 In step S11, in order to search for a divided parking lot line, from a position a predetermined length (γ) away from the parking lot line in the direction in which the parking lot line extends, connect the parking lot line by a predetermined length (δ). The overhead image G is scanned in the orthogonal direction (X-axis direction).

ステップS12で、走査の結果、所定長さ(δ)以上のプラスエッジの線分とマイナスエッジの線分が検出されたか判定する。検出された(YES)と判定した場合、つまり分断された駐車区画線が存在すると判定した場合は、ステップS12へと進む。 In step S12, it is determined whether a plus edge line segment and a minus edge line segment having a predetermined length (δ) or more are detected as a result of scanning. If it is determined that it has been detected (YES), that is, if it is determined that a divided parking lot line exists, the process advances to step S12.

これに対して、ステップS12で、検出されない(NO)と判定した場合、つまり分断された駐車区画線が存在しないと判定した場合は、駐車枠の端点の位置を補正する必要がないため、ステップS13~S14をスキップし、ステップS15へと進む。 On the other hand, if it is determined in step S12 that it is not detected (NO), that is, if it is determined that there is no divided parking lot line, there is no need to correct the position of the end point of the parking space, so step Skip S13 to S14 and proceed to step S15.

ステップS13では、走査を続行して分断された駐車区画線の端部を検出する。次いで、ステップS14へと進み、ステップS6で記憶部120のワークエリアに一時的に登録された駐車枠の一側辺の一方の端点の位置(座標値)を、分断された駐車区画線のエッジの端点の位置(座標値)に補正する。 In step S13, scanning is continued to detect the end of the divided parking lot line. Next, the process proceeds to step S14, and the position (coordinate value) of one end point of one side of the parking frame, which was temporarily registered in the work area of the storage unit 120 in step S6, is set to the edge of the divided parking lot line. Correct to the position (coordinate value) of the end point.

一方、ステップS11で、所定長さ(δ)以上のプラスエッジの線分とマイナスエッジの線分が検出されない(NO)と判定した場合は、駐車枠の端点の位置を補正する必要がないため、ステップS12~S13をスキップして、ステップS14へと進む。 On the other hand, if it is determined in step S11 that a line segment with a plus edge and a line segment with a minus edge of a predetermined length (δ) or more are not detected (NO), there is no need to correct the position of the end point of the parking frame. , skips steps S12 and S13 and proceeds to step S14.

なお、ステップS8~S14の処理は、少なくとも駐車枠を構成する隣り合うプラスエッジの線分の始点と、マイナスエッジの線分の始点に対して行うことで、駐車枠の2つの始点の位置を適切に設定できる。より好ましくは、ステップS8~S13の処理を、プラスエッジ及びマイナスエッジの各始点と終点に対して行うことで、駐車枠の4つの端点(2つの始点と2つの終点)の位置を適切に設定できる。 Note that the processes in steps S8 to S14 are performed on at least the starting points of the adjacent plus-edge line segments and the starting points of the minus-edge line segments that constitute the parking frame, so that the positions of the two starting points of the parking frame can be determined. Can be set appropriately. More preferably, the positions of the four end points (two start points and two end points) of the parking frame can be appropriately set by performing the processes of steps S8 to S13 on each start point and end point of the plus edge and the minus edge. can.

ステップS15では、次の処理すべき駐車枠があるか判定する。駐車枠がある場合は、ステップS7へ戻り、次の駐車枠に対する処理を行う。処理すべき駐車枠がない場合は、ループを終了して、ステップS16へと進む。 In step S15, it is determined whether there is a parking slot to be processed next. If there is a parking space, the process returns to step S7 and processes for the next parking space are performed. If there is no parking frame to be processed, the loop is ended and the process proceeds to step S16.

ステップS16では、駐車枠設定部113が、記憶部120のワークエリアに一時的に登録されている各駐車枠の端点(2つの始点又は4つの端点)の位置(座標値)を、駐車枠登録データ121として記憶部120に登録する。各駐車枠の端点の位置は、ステップS8~S14の補正処理によって、適切に補正されている。これにより、例えば、図6Aに示す例では、実際の駐車枠とは異なる形状で設定された駐車枠A2,A3の端点の位置が適切に補正され、図6Bに示すように実際の駐車枠に近い長方形に設定される。 In step S16, the parking frame setting unit 113 registers the positions (coordinate values) of the end points (two starting points or four end points) of each parking frame temporarily registered in the work area of the storage unit 120. It is registered in the storage unit 120 as data 121. The position of the end point of each parking frame has been appropriately corrected by the correction processing in steps S8 to S14. As a result, for example, in the example shown in FIG. 6A, the positions of the end points of parking frames A2 and A3, which are set in a shape different from the actual parking frame, are appropriately corrected, and as shown in FIG. Set to a close rectangle.

そして、記憶部120に登録された駐車枠登録データ121が、車両制御ECU40に送出され、車両Vの駐車を支援する各種処理が実行される。 Then, the parking space registration data 121 registered in the storage unit 120 is sent to the vehicle control ECU 40, and various processes to support parking of the vehicle V are executed.

(画像処理装置の効果)
以上のように構成された本実施の形態である画像処理装置100では、駐車区画線検出部112が、車両Vの周囲の状況を撮像する撮像装置から出力される画像信号に基づく俯瞰画像Gから、駐車区画線を検出する。補正部114が、車区画線の延びる方向に基づいて、所定距離(再探索開始位置オフセット量γ)だけ離れた位置から、駐車区画線の延長線上に続きの駐車区画線があるかどうかを判定し、続きの駐車区画線が検出されたときに、最初に検出された駐車区画線(K)と、次に検出された続きの駐車区画線(K’)とを接続して一の駐車区画線とする。駐車枠設定部113が、補正部114で接続された一の駐車区画線を用いて、駐車枠を設定する。
(Effect of image processing device)
In the image processing device 100 according to the present embodiment configured as described above, the parking lane line detection unit 112 detects a bird's-eye view image G based on an image signal output from an image capturing device that captures an image of the surrounding situation of the vehicle V. , detect parking lot lines. The correction unit 114 determines whether there is a continuation parking lot line on the extension line of the parking lot line from a position separated by a predetermined distance (re-search start position offset amount γ) based on the direction in which the car lot line extends. Then, when a continuation parking lot line is detected, the first detected parking lot line (K) and the next detected continuation parking lot line (K') are connected to form one parking lot. Line. The parking frame setting unit 113 sets a parking frame using one parking lot line connected by the correction unit 114.

これにより、影、光の反射、障害物の存在、線のかすれ、レンズのゆがみ等の影響により、駐車区画線が不検出又は誤検出となり、駐車枠の端点が適切に設定されなかった場合でも、駐車枠の端点を真値により近い適切な位置に補正できる。したがって、駐車枠の検出を高精度に行うことが可能な画像処理装置100及び画像処理方法を提供できる。また、この画像処理装置100又は画像処理方法を備えることで、駐車支援を高精度に行うことが可能な駐車支援装置、駐車支援方法を提供できる。 As a result, even if the parking lot line is not detected or detected incorrectly due to the effects of shadows, light reflections, the presence of obstacles, blurred lines, lens distortion, etc., and the end points of the parking space are not set appropriately, , the end point of the parking frame can be corrected to an appropriate position closer to the true value. Therefore, it is possible to provide an image processing device 100 and an image processing method that can detect parking spaces with high precision. Further, by including the image processing device 100 or the image processing method, it is possible to provide a parking support device and a parking support method that can perform parking support with high precision.

また、本実施の形態では、俯瞰画像Gを所定方向に走査して、画像信号に含まれる輝度が閾値よりも大きく変化する画素を検出し、検出した前記画素の並びが所定以上の長さとなっている部分をエッジとして検出するエッジ検出部111、を備える。そして、駐車区画線検出部112は、エッジ検出部111が検出した複数のエッジに基づいて、駐車区画線を検出する。このため、演算速度が向上し、駐車区画線をより高精度、かつより高速に検出できる。 Furthermore, in this embodiment, the bird's-eye view image G is scanned in a predetermined direction to detect pixels whose brightness included in the image signal changes more than a threshold value, and the detected pixel array has a length longer than a predetermined value. The edge detecting section 111 detects the portion where the edges are formed as an edge. Then, the parking lot line detection unit 112 detects a parking lot line based on the plurality of edges detected by the edge detection unit 111. Therefore, calculation speed is improved, and parking lot lines can be detected with higher accuracy and faster.

また、補正部114は、駐車区画線検出部112が検出した駐車区画線の端部を基準にして、駐車区画線検出部112が検出した駐車区画線の延びる方向に沿って、隣り合った画素の輝度差を算出する。算出した輝度差の絶対値が所定値よりも大きい場合、駐車区画線が分断されていると判定して、駐車区画線の延びる方向に所定長さ分(再探索開始位置オフセット量γ)だけ離れた位置から、駐車区画線の延びる方向と直交方向に走査して、駐車区画線の延長線上に続きの駐車区画線があるかどうかを判定する。この構成により、続きの駐車区画線があるかどうかを効率的に判定でき、また、駐車枠の端点の位置を、真値により近い適切な位置に補正でき、駐車枠の検出精度をより向上できる。 In addition, the correction unit 114 corrects adjacent pixels along the extending direction of the parking lot line detected by the parking lot line detection unit 112 based on the end of the parking lot line detected by the parking lot line detection unit 112. Calculate the brightness difference between If the absolute value of the calculated brightness difference is larger than a predetermined value, it is determined that the parking lot line is divided, and the parking lot line is separated by a predetermined length (research start position offset amount γ) in the direction in which the parking lot line extends. From the position where the parking lot line extends, scanning is performed in a direction orthogonal to the direction in which the parking lot line extends, and it is determined whether there is a continuation parking lot line on the extension line of the parking lot line. With this configuration, it is possible to efficiently determine whether there is a continuation parking lot line, and the position of the end point of the parking space can be corrected to an appropriate position closer to the true value, further improving the accuracy of parking space detection. .

また、補正部114が駐車区画線検出部112が検出した駐車区画線の端部を基準にして走査するときの輝度差の閾値は、エッジ検出部111が俯瞰画像Gを走査するときの輝度差の閾値よりも小さいことが望ましい。これにより、影等の存在を適切に検出できるとともに、影になった駐車区画線のエッジも精度よく検出できる。これにより、駐車枠を高精度に検出できる。 In addition, the threshold of the brightness difference when the correction unit 114 scans based on the end of the parking lot line detected by the parking lot line detection unit 112 is the brightness difference when the edge detection unit 111 scans the bird's-eye view image G. It is desirable that the value is smaller than the threshold value of . As a result, the presence of shadows and the like can be appropriately detected, and the edges of shadowed parking lot lines can also be detected with high accuracy. Thereby, parking frames can be detected with high precision.

また、続きの駐車区画線を検出するときの駐車区画線の延びる方向における所定長さ(再探索開始位置オフセット量γ)は、駐車区画線の6%以下の長さであり、検出される続きの駐車区画線の所定長さ(再探索成功判定長さδ)は、駐車区画線の3%以下の長さであることが望ましい。これにより、駐車枠の端点の位置の誤差が許容範囲内であれば、画像処理等で誤差を補正でき、許容範囲を超えている場合は、補正部114によって端点を適切に補正できる。 In addition, the predetermined length (research start position offset amount γ) in the extending direction of the parking lot line when detecting the continuation of the parking lot line is 6% or less of the parking lot line, and the length of the continuation of the parking lot line detected is The predetermined length of the parking lot line (research success determination length δ) is preferably 3% or less of the parking lot line. Thereby, if the error in the position of the end point of the parking frame is within the allowable range, the error can be corrected by image processing, etc., and if it exceeds the allowable range, the end point can be appropriately corrected by the correction unit 114.

以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to these embodiments and examples, and design changes can be made to the extent that they do not depart from the gist of the present invention. are included in the present invention.

例えば、上述の実施の形態である画像処理装置100では、画像の輝度や色のパラメータ(例えば、RGB、RGBA等)の情報の変化の大きさ及び変化の方向(プラス方向又はマイナス方向)に基づいてエッジを検出しているが、これらに限定されることはなく、画像信号に含まれる他の情報の変化の大きさ及び変化の方向に基づいてエッジを検出してもよい。 For example, in the image processing apparatus 100 according to the above-described embodiment, information on brightness and color parameters (for example, RGB, RGBA, etc.) of an image is based on the magnitude of change and the direction of change (positive direction or negative direction). However, the present invention is not limited to this, and edges may be detected based on the magnitude and direction of change in other information included in the image signal.

また、上述の実施の形態である画像処理装置100では、駐車区画線検出部112が検出した駐車区画線に基づいて駐車枠設定部113が駐車枠を設定した後に、設定した駐車枠に対して補正部114が端点の位置を補正して分断された駐車区画線を一の駐車区画線とし、この一の駐車区画線を用いて駐車枠設定部113が最終的に駐車枠の登録を行っている。しかし、この構成に限定されることはなく、駐車区画線検出部112が駐車区画線を検出した後に、検出した駐車区画線に対して、補正部114が端点の位置を適切に補正した上で、補正された駐車区画線に基づいて駐車枠設定部113が駐車枠を設定する構成とすることもできる。この構成によっても、駐車枠の端点の位置を適切に設定できる。 Further, in the image processing device 100 according to the above-described embodiment, after the parking frame setting unit 113 sets a parking frame based on the parking lot line detected by the parking lot line detection unit 112, the set parking frame is The correction unit 114 corrects the position of the end point and sets the divided parking lot line as one parking lot line, and the parking frame setting unit 113 finally registers the parking space using this one parking lot line. There is. However, the configuration is not limited to this, and after the parking lot line detection section 112 detects the parking lot line, the correction section 114 appropriately corrects the position of the end point with respect to the detected parking lot line. It is also possible to adopt a configuration in which the parking frame setting unit 113 sets a parking frame based on the corrected parking lot line. Also with this configuration, the position of the end point of the parking frame can be appropriately set.

20 カメラ(撮像装置) 20a 前方カメラ(撮像装置)
20b 後方カメラ(撮像装置) 20c 左側方カメラ(撮像装置)
20d 右側方カメラ(撮像装置) 100 画像処理装置
111 エッジ検出部 112 駐車区画線検出部
113 駐車枠設定部 114 補正部
200 駐車区画線 201 駐車枠
G 俯瞰画像(画像) R 路面
V 車両 d 端点
20 Camera (imaging device) 20a Front camera (imaging device)
20b Rear camera (imaging device) 20c Left side camera (imaging device)
20d Right side camera (imaging device) 100 Image processing device 111 Edge detection unit 112 Parking line detection unit 113 Parking frame setting unit 114 Correction unit 200 Parking line 201 Parking frame G Bird's-eye view image (image) R Road surface V Vehicle d End point

Claims (3)

車両の周囲の状況を撮像する撮像装置から出力される画像信号に基づく画像から、駐車区画線を検出する駐車区画線検出部と、
前記駐車区画線の延びる方向に基づいて、所定距離だけ離れた位置から、前記駐車区画線の延長線上に続きの駐車区画線があるかどうかを判定し、前記続きの駐車区画線が検出されたときに、最初に検出された前記駐車区画線と、次に検出された前記続きの駐車区画線とを接続して一の駐車区画線とする補正部と、
前記補正部で接続された前記一の駐車区画線を用いて、駐車枠を設定する駐車枠設定部と、を備え
前記補正部は、前記駐車区画線検出部が検出した前記駐車区画線の端部を基準にして、前記駐車区画線検出部が検出した前記駐車区画線の延びる方向に沿って、隣り合った画素の輝度差を算出し、算出した輝度差の絶対値が所定値よりも大きい場合、前記駐車区画線が分断されていると判定して、前記駐車区画線の延びる方向に所定長さ分だけ離れた位置から、前記駐車区画線の延びる方向と直交方向に走査して、前記駐車区画線の延長線上に前記続きの駐車区画線があるかどうかを判定することを特徴とする画像処理装置。
a parking lot line detection unit that detects parking lot lines from an image based on an image signal output from an imaging device that images the surrounding situation of the vehicle;
Based on the direction in which the parking lot line extends, it is determined from a position a predetermined distance away whether there is a continuation parking lot line on an extension line of the parking lot line, and the continuation parking lot line is detected. a correction unit that connects the first detected parking lot line and the next detected continuous parking lot line to form one parking lot line;
a parking frame setting unit that sets a parking frame using the one parking lot line connected by the correction unit ,
The correction unit is configured to adjust adjacent pixels along the direction in which the parking lot line detected by the parking lot line detection unit extends based on the end of the parking lot line detected by the parking line detection unit. If the absolute value of the calculated brightness difference is larger than a predetermined value, it is determined that the parking lot line is divided, and the parking lot line is separated by a predetermined length in the direction in which the parking lot line extends. An image processing device for determining whether or not there is a continuation parking lot line on an extension line of the parking lot line by scanning from a position where the parking lot line extends in a direction orthogonal to the direction in which the parking lot line extends .
前記補正部が前記駐車区画線検出部が検出した前記駐車区画線の端部を基準にして走査するときの輝度差の閾値は、前記駐車区画線を検出するために前記画像を走査するときの輝度差の閾値よりも小さいことを特徴とする請求項に記載の画像処理装置。 The brightness difference threshold when the correction unit scans with reference to the end of the parking lot line detected by the parking lot line detection unit is the threshold value of the brightness difference when scanning the image to detect the parking lot line. The image processing device according to claim 1, wherein the brightness difference is smaller than a threshold value. 車両の周囲の状況を撮像する撮像装置から出力される画像信号に基づく画像から、駐車区画線を検出する駐車区画線検出工程と、
前記駐車区画線の延びる方向に基づいて、所定距離だけ離れた位置から、前記駐車区画線の延長線上に続きの駐車区画線があるかどうかを判定し、前記続きの駐車区画線が検出されたときに、最初に検出された前記駐車区画線と、次に検出された前記続きの駐車区画線とを接続して一の駐車区画線とする補正工程と、
前記補正工程で接続された前記一の駐車区画線を用いて、駐車枠を設定する駐車枠設定工程と、を含み、
前記補正工程は、前記駐車区画線検出工程で検出した前記駐車区画線の端部を基準にして、前記駐車区画線検出工程で検出した前記駐車区画線の延びる方向に沿って、隣り合った画素の輝度差を算出し、算出した輝度差の絶対値が所定値よりも大きい場合、前記駐車区画線が分断されていると判定して、前記駐車区画線の延びる方向に所定長さ分だけ離れた位置から、前記駐車区画線の延びる方向と直交方向に走査して、前記駐車区画線の延長線上に前記続きの駐車区画線があるかどうかを判定することを特徴とする画像処理方法。
a parking lot line detection step of detecting a parking lot line from an image based on an image signal output from an imaging device that images the surrounding situation of the vehicle;
Based on the extending direction of the parking lot line, it is determined from a position a predetermined distance away whether there is a continuation parking lot line on an extension line of the parking lot line, and the continuation parking lot line is detected. sometimes, a correction step of connecting the first detected parking lot line and the next detected continuous parking lot line to form one parking lot line;
a parking frame setting step of setting a parking frame using the one parking lot line connected in the correction step ,
The correction step includes determining adjacent pixels along the direction in which the parking lot line detected in the parking lot line detection step extends based on the end of the parking lot line detected in the parking lot line detection step. If the absolute value of the calculated brightness difference is larger than a predetermined value, it is determined that the parking lot line is divided, and the parking lot line is separated by a predetermined length in the direction in which the parking lot line extends. An image processing method comprising: scanning in a direction orthogonal to the direction in which the parking lot line extends from a position where the parking lot line extends to determine whether or not there is a continuation parking lot line on an extension line of the parking lot line .
JP2020027982A 2020-02-06 2020-02-21 Image processing device and image processing method Active JP7446851B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020027982A JP7446851B2 (en) 2020-02-21 2020-02-21 Image processing device and image processing method
CN202110097136.9A CN113212352B (en) 2020-02-06 2021-01-25 Image processing apparatus and image processing method
EP21155274.0A EP3862920A1 (en) 2020-02-06 2021-02-04 Image processor and image processing method
US17/168,874 US11610317B2 (en) 2020-02-06 2021-02-05 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027982A JP7446851B2 (en) 2020-02-21 2020-02-21 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021131801A JP2021131801A (en) 2021-09-09
JP7446851B2 true JP7446851B2 (en) 2024-03-11

Family

ID=77551108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027982A Active JP7446851B2 (en) 2020-02-06 2020-02-21 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7446851B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023074310A (en) * 2021-11-17 2023-05-29 株式会社アイシン Parking assistance device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022934A (en) 1999-07-07 2001-01-26 Tokai Rika Co Ltd Method and device for recognizing travel road for vehicle
JP2003067752A (en) 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP2006311299A (en) 2005-04-28 2006-11-09 Aisin Aw Co Ltd Parking section monitoring device
JP2015153163A (en) 2014-02-14 2015-08-24 株式会社日本自動車部品総合研究所 Boundary line recognition device
JP2017010078A (en) 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method
JP2017052471A (en) 2015-09-11 2017-03-16 クラリオン株式会社 Vehicle parking block recognizing device
JP2018097431A (en) 2016-12-08 2018-06-21 株式会社デンソーテン Driving support apparatus, driving support system and driving support method
JP2019139729A (en) 2018-02-13 2019-08-22 ケーピーアイティ テクノロジーズ リミテッド System and method for lane detection

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303625A (en) * 1992-04-27 1993-11-16 Omron Corp Device for extracting white lines on road

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022934A (en) 1999-07-07 2001-01-26 Tokai Rika Co Ltd Method and device for recognizing travel road for vehicle
JP2003067752A (en) 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP2006311299A (en) 2005-04-28 2006-11-09 Aisin Aw Co Ltd Parking section monitoring device
JP2015153163A (en) 2014-02-14 2015-08-24 株式会社日本自動車部品総合研究所 Boundary line recognition device
JP2017010078A (en) 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method
JP2017052471A (en) 2015-09-11 2017-03-16 クラリオン株式会社 Vehicle parking block recognizing device
JP2018097431A (en) 2016-12-08 2018-06-21 株式会社デンソーテン Driving support apparatus, driving support system and driving support method
JP2019139729A (en) 2018-02-13 2019-08-22 ケーピーアイティ テクノロジーズ リミテッド System and method for lane detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岩佐和真 外3名,駐車車両検出のためのテンプレート画像の自動作成,電気学会論文誌C,日本,(社)電気学会 ,2007年03月01日,第127巻 第3号,pp.338~344

Also Published As

Publication number Publication date
JP2021131801A (en) 2021-09-09

Similar Documents

Publication Publication Date Title
JP7296768B2 (en) Image processing device and image processing method
CN111563405B (en) Image processing apparatus and image processing method
CN113212352B (en) Image processing apparatus and image processing method
CN113313935B (en) Image processing apparatus and image processing method
US11967158B2 (en) Image processor and image processing method
JP7246167B2 (en) Image processing device and image processing method
US11769338B2 (en) Image processor and image processing method
US11620908B2 (en) Image processor and image processing method
JP7446851B2 (en) Image processing device and image processing method
CN112016381B (en) Image processing apparatus and image processing method
JP7446830B2 (en) Image processing device and image processing method
JP7453008B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7446851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150