JP2019137182A - Detection device - Google Patents

Detection device Download PDF

Info

Publication number
JP2019137182A
JP2019137182A JP2018021268A JP2018021268A JP2019137182A JP 2019137182 A JP2019137182 A JP 2019137182A JP 2018021268 A JP2018021268 A JP 2018021268A JP 2018021268 A JP2018021268 A JP 2018021268A JP 2019137182 A JP2019137182 A JP 2019137182A
Authority
JP
Japan
Prior art keywords
area
vehicle
frame
image
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018021268A
Other languages
Japanese (ja)
Inventor
将史 才木
Masashi Saiki
将史 才木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018021268A priority Critical patent/JP2019137182A/en
Publication of JP2019137182A publication Critical patent/JP2019137182A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technology for detecting an area in which a vehicle can be parked regardless of the shape of a compartment line.SOLUTION: A detection device 50 is mounted on a vehicle and comprises an acquisition unit 62 and an area detection unit 64. The area detection unit detects a plurality of candidate frames which are areas of a prescribed shape between two parallel white lines separated by a predetermined lateral distance based on a vehicle width on the basis of a captured image, and detects a smallest frame that is smallest in a distance between white lines in at least one proximity set composed of a plurality of candidate frames that have gravity center positions located within a prescribed range from each other among the plurality of candidate frames, and detects the area between the white lines in the smallest frame as a parkable area in which the vehicle can be parked based on the smallest frame.SELECTED DRAWING: Figure 1

Description

本開示は、車両に搭載され、車両を駐車可能な領域を検出する技術に関する。   The present disclosure relates to a technique for detecting an area mounted on a vehicle and capable of parking the vehicle.

従来、車両周辺の画像を撮像し、撮像された画像から、駐車枠を区画する区画線を検出する技術が知られている。
例えば、下記特許文献1には、U字二重線形状の区画線を検出するという技術が提案されている。
2. Description of the Related Art Conventionally, a technique for capturing an image around a vehicle and detecting a marking line that partitions a parking frame from the captured image is known.
For example, the following Patent Document 1 proposes a technique for detecting a U-shaped double line-shaped partition line.

特許第6086424号公報Japanese Patent No. 6086424

しかしながら、上記特許文献1では、区画線がU字二重線形状であることを前提としている。そのため、上記特許文献1では、例えば三重線といった、U字二重線形状以外の形状である区画線により区画された駐車枠においては、車両を駐車可能な領域を検出できないという問題が生じ得る。   However, in the said patent document 1, it presupposes that a division line is U-shaped double line shape. Therefore, in the said patent document 1, the problem that the area | region which can park a vehicle cannot be detected in the parking frame divided by the lane marking which is shapes other than U-shaped double-line shape, for example, a triple line may arise.

本開示の1つの局面は、区画線の形状によらず車両を駐車可能な領域を検出する技術を提供することにある。   One aspect of the present disclosure is to provide a technique for detecting an area in which a vehicle can be parked regardless of the shape of a lane marking.

本開示の1つの局面による検出装置(50)は、車両に搭載され、取得部(53、S20)と、領域検出部(53、S40)と、備える。取得部は、車両に搭載された少なくとも1つのカメラによって路面を含む車両の周囲が撮像された画像に基づく撮像画像を取得する。領域検出部は、撮像画像に基づいて、車幅に基づく予め定められた横距離離れた2本の平行な白線間における所定形状の領域である複数の候補枠を検出し、複数の候補枠のうち重心位置が互いに所定の範囲内に位置する複数の候補枠からなる少なくとも1つの近接組において白線間の距離が最も小さい最小枠を近接組毎に検出し、最小枠に基づいて最小枠における白線間の領域を車両が駐車可能な駐車可能領域として検出する。   A detection device (50) according to one aspect of the present disclosure is mounted on a vehicle and includes an acquisition unit (53, S20) and a region detection unit (53, S40). An acquisition part acquires the picked-up image based on the image by which the circumference | surroundings of the vehicle containing a road surface were imaged with the at least 1 camera mounted in the vehicle. The region detection unit detects a plurality of candidate frames that are regions of a predetermined shape between two parallel white lines that are separated by a predetermined lateral distance based on the vehicle width based on the captured image. Among these, a minimum frame having the shortest distance between white lines in at least one adjacent group composed of a plurality of candidate frames each having a center of gravity within a predetermined range is detected for each adjacent group, and a white line in the minimum frame is determined based on the minimum frame. The area in between is detected as a parkable area where the vehicle can be parked.

このような構成によれば、例えば三重の白線といったような、U字二重線形状以外の形状である区画線により区画された駐車枠において、最も内側の白線間の領域を駐車可能領域として検出することができる。つまり、区画線の形状によらず、駐車可能領域を検出することができる。   According to such a configuration, an area between the innermost white lines is detected as a parking area in a parking frame partitioned by a lane marking that is a shape other than the U-shaped double line shape, such as a triple white line. can do. That is, it is possible to detect the parking area regardless of the shape of the lane marking.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present disclosure It is not limited.

撮像システム及びECUの構成を示すブロック図。The block diagram which shows the structure of an imaging system and ECU. カメラ及びカメラによる撮像範囲を説明する説明図。Explanatory drawing explaining the imaging range by a camera and a camera. 駐車枠における区画線及び白線を説明する説明図。Explanatory drawing explaining the division line and white line in a parking frame. 駐車枠処理のフローチャート。The flowchart of a parking frame process. 駐車可能領域処理のフローチャート。The flowchart of parking possible area | region process. 鳥瞰図画像における駐車枠を説明する説明図。Explanatory drawing explaining the parking frame in a bird's-eye view image. 近接組毎に複数の候補枠が生成される例を説明する説明図。Explanatory drawing explaining the example in which a some candidate frame is produced | generated for every adjacent group. 近接組から最小枠を特定する方法を説明する説明図。Explanatory drawing explaining the method of specifying the minimum frame from a proximity | contact group. 可能領域重畳画像の例を示す説明図。Explanatory drawing which shows the example of a possible area | region superimposition image.

以下、図面を参照しながら、本開示の実施形態を説明する。なお、以下でいう「平行」とは、略平行を含む。つまり、「平行」とは、厳密な意味での平行に限るものではなく、同様の効果を奏するのであれば厳密に平行でなくてもよい。また、以下でいう位置とは、位置座標によって表されるものをいう。位置座標は、絶対座標によって表されるものでもよいし、絶対座標によって表される予め定められた位置に対する相対座標によって表されるものでもよい。予め定められた位置としては、例えば、車両前端のバンパーにおける中央の位置が用いられ得る。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following, “parallel” includes substantially parallel. That is, “parallel” is not limited to parallel in a strict sense, and may not be strictly parallel as long as the same effect can be obtained. In addition, the position described below refers to a position represented by position coordinates. The position coordinates may be represented by absolute coordinates, or may be represented by relative coordinates with respect to a predetermined position represented by absolute coordinates. As the predetermined position, for example, the center position of the bumper at the front end of the vehicle can be used.

[1.構成]
[1−1.全体構成]
図1に示す撮像システム1は、乗用車等の車両に搭載され、後述する駐車枠を認識するためのシステムである。撮像システム1は、電子制御装置(以下、ECU)50を備える。以下では、撮像システム1が搭載された車両を自車両ともいう。撮像システム1は、カメラ10と、センサ群20と、表示制御装置30と、車両制御装置40と、を備えていてもよい。
[1. Constitution]
[1-1. overall structure]
An imaging system 1 shown in FIG. 1 is a system that is mounted on a vehicle such as a passenger car and recognizes a parking frame that will be described later. The imaging system 1 includes an electronic control unit (hereinafter, ECU) 50. Hereinafter, the vehicle on which the imaging system 1 is mounted is also referred to as the host vehicle. The imaging system 1 may include a camera 10, a sensor group 20, a display control device 30, and a vehicle control device 40.

カメラ10は、フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及びリアカメラ14を備えている。各カメラ11〜14は、CCDイメージセンサやCMOSイメージセンサを用いて構成された周知のものである。図2に示すように、フロントカメラ11は、車両前方の路面が撮影範囲101となるように、例えば、車両前端のバンパーに設置される。左サイドカメラ12は、車両左側方の路面が撮影範囲102となるように、例えば、左側のサイドミラーに設置される。   The camera 10 includes a front camera 11, a left side camera 12, a right side camera 13, and a rear camera 14. Each of the cameras 11 to 14 is a well-known camera configured using a CCD image sensor or a CMOS image sensor. As shown in FIG. 2, the front camera 11 is installed, for example, on a bumper at the front end of the vehicle so that the road surface in front of the vehicle is within the shooting range 101. The left side camera 12 is installed, for example, on the left side mirror so that the road surface on the left side of the vehicle becomes the shooting range 102.

右サイドカメラ13は、車両右側方の路面が撮影範囲103となるように、例えば、右側のサイドミラーに設置される。リアカメラ14は、車両後方の路面が撮影範囲104となるように、例えば、車両後端のバンパーに設置される。各カメラ11〜14は、予め設定された時間間隔、例えば、数十分の一(秒)〜十分の一(秒)間隔で繰り返し撮影し、撮影した画像(以下、カメラ画像)をECU50へ出力する。カメラ画像は、カメラ10すなわち各カメラ11〜14によって撮像された画像であって、路面を含む車両9の周囲が撮像された画像である。   The right side camera 13 is installed, for example, on the right side mirror so that the road surface on the right side of the vehicle becomes the photographing range 103. The rear camera 14 is installed, for example, on a bumper at the rear end of the vehicle so that the road surface behind the vehicle becomes the photographing range 104. Each of the cameras 11 to 14 repeatedly shoots at a preset time interval, for example, tens of seconds (seconds) to tens of seconds (seconds), and outputs the shot images (hereinafter referred to as camera images) to the ECU 50. To do. The camera image is an image captured by the camera 10, that is, each of the cameras 11 to 14, and is an image captured around the vehicle 9 including the road surface.

センサ群20は、車両9の挙動を測定するセンサである。具体的には、センサ群20は、車両9の車速を測定する車速センサ21、及び車両9の操舵角を測定する操舵角センサ22を含む複数のセンサである。   The sensor group 20 is a sensor that measures the behavior of the vehicle 9. Specifically, the sensor group 20 is a plurality of sensors including a vehicle speed sensor 21 that measures the vehicle speed of the vehicle 9 and a steering angle sensor 22 that measures the steering angle of the vehicle 9.

表示制御装置30は、CPU、ROM、RAM、及びフラッシュメモリ等の半導体メモリを備えた周知のマイクロコンピュータを備える。表示制御装置30は、ECU50から出力される画像を図示しない表示装置にて表示可能な映像信号に変換し、表示装置に出力する。表示装置は、画像を表示するための装置であり、車室内に配置されている。表示装置には、例えば液晶ディスプレイ等が含まれる。   The display control device 30 includes a well-known microcomputer including a CPU, a ROM, a RAM, and a semiconductor memory such as a flash memory. The display control device 30 converts the image output from the ECU 50 into a video signal that can be displayed on a display device (not shown), and outputs the video signal to the display device. The display device is a device for displaying an image, and is disposed in the passenger compartment. The display device includes, for example, a liquid crystal display.

車両制御装置40は、CPU、ROM、RAM、及びフラッシュメモリ等の半導体メモリを備えた周知のマイクロコンピュータを備える。車両制御装置40は、ECU50から出力される後述する駐車可能領域の位置を取得して、駐車可能領域に駐車するための自車両の軌道を生成し、この軌道に従って自車両を移動させるために、自車両の加減速、自車両の舵角等の制御を行う。   The vehicle control device 40 includes a well-known microcomputer including a CPU, a ROM, a RAM, and a semiconductor memory such as a flash memory. The vehicle control device 40 acquires the position of a parking area that will be described later, which is output from the ECU 50, generates a track of the host vehicle for parking in the parking area, and moves the host vehicle according to the track. Controls acceleration / deceleration of the host vehicle, steering angle of the host vehicle, and the like.

ECU50は、CPUと、ROM、RAM、及びフラッシュメモリ等の半導体メモリと、を有するマイクロコンピュータを備える。ECU50が実現する各機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、半導体メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、ECU50は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。   The ECU 50 includes a microcomputer having a CPU and a semiconductor memory such as a ROM, a RAM, and a flash memory. Each function realized by the ECU 50 is realized by the CPU executing a program stored in a non-transitional physical recording medium. In this example, the semiconductor memory corresponds to a non-transitional tangible recording medium storing a program. Also, by executing this program, a method corresponding to the program is executed. The ECU 50 may include a single microcomputer or a plurality of microcomputers.

ECU50は、図1に示すように、撮影信号入力部51、車両信号入力部52、及び画像処理部53、を備える。また、画像処理部53は、入力処理部61、取得部62、白線認識部63、領域検出部64、及び出力部65、を備える。これら各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。   As shown in FIG. 1, the ECU 50 includes an imaging signal input unit 51, a vehicle signal input unit 52, and an image processing unit 53. The image processing unit 53 includes an input processing unit 61, an acquisition unit 62, a white line recognition unit 63, a region detection unit 64, and an output unit 65. The method for realizing the functions of these units is not limited to software, and some or all of the functions may be realized using one or a plurality of hardware. For example, when the function is realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.

撮影信号入力部51は、カメラ11〜14によって撮像されたカメラ画像を取得して、画像処理部53に供給する。車両信号入力部52は、センサ群20から車速や操舵角を取得して、画像処理部53に供給する。画像処理部53は、後述する駐車枠処理を実行する。   The photographing signal input unit 51 acquires camera images picked up by the cameras 11 to 14 and supplies them to the image processing unit 53. The vehicle signal input unit 52 acquires the vehicle speed and the steering angle from the sensor group 20 and supplies them to the image processing unit 53. The image processing unit 53 performs parking frame processing, which will be described later.

[1−2.駐車枠]
次に、駐車枠について説明する。ここでいう駐車枠とは、駐車場において車両を駐車するための領域である。駐車枠は、車両を駐車する領域を区画する区画線により区画されている。ここでは、2つの区画線と該2つの区画線間の領域とを駐車枠という。区画線は、駐車枠を表すための線であって、駐車場の路面に描かれた白線や黄線等からなる。以下では、例えば黄線等といった白色以外の色の線も含めて、区画線を構成する線を白線と称する。区画線は、予め設定された範囲内の幅を有する少なくとも1本の白線からなる。すなわち、区画線は、1本の白線からなるものであってもよいし、複数本の白線からなるものであってもよい。
[1-2. Parking frame]
Next, the parking frame will be described. The parking frame here is an area for parking a vehicle in a parking lot. The parking frame is partitioned by a lane marking that divides an area where the vehicle is parked. Here, the two lane markings and the area between the two lane markings are called parking frames. The lane marking is a line for representing a parking frame, and is composed of a white line or a yellow line drawn on the road surface of the parking lot. In the following, for example, the lines constituting the division lines including the lines of colors other than white such as yellow lines are referred to as white lines. The lane marking is composed of at least one white line having a width within a preset range. That is, the lane marking may be composed of a single white line or may be composed of a plurality of white lines.

1つの駐車枠は、少なくとも、車両の幅に応じた長さである横距離だけ離れた互いに平行な2つの区画線によって、区画されている。ここでいう車両とは、一般的な乗用車を表す。すなわち、横距離とは、一般的な乗用車の車幅Wが含まれる予め定められた範囲内の長さである。車幅Wは車両における短手方向の長さである。車幅Wがα>横距離>車幅W>βで表されるとすると、α〜βが予め定められた範囲に相当する。   One parking frame is partitioned by at least two partition lines that are parallel to each other and separated by a lateral distance that is a length corresponding to the width of the vehicle. A vehicle here represents a general passenger car. That is, the lateral distance is a length within a predetermined range including the vehicle width W of a general passenger car. The vehicle width W is the length in the short direction of the vehicle. If the vehicle width W is expressed by α> lateral distance> vehicle width W> β, α to β correspond to a predetermined range.

図3には、3本の白線91〜93からなる区画線81と、2本の白線94〜95からなる区画線82とによって区画された駐車枠71が例示されている。また、2本の白線94〜95からなる区画線82と3本の白線96〜98からなる区画線83とによって区画された駐車枠72が例示されている。   FIG. 3 illustrates a parking frame 71 partitioned by a lane line 81 composed of three white lines 91 to 93 and a lane line 82 composed of two white lines 94 to 95. Moreover, the parking frame 72 partitioned by the lane marking 82 consisting of the two white lines 94-95 and the lane marking 83 consisting of the three white lines 96-98 is illustrated.

車両が駐車枠に駐車される際は、区画線の内側に駐車されることが望ましい。ここでいう内側とは、駐車枠内に車両が駐車された際に該車両に向かう側をいう。すなわち、2つの平行な区画線それぞれついて区画線を構成する白線のうち最も内側に位置する白線間の領域に駐車されることが望ましい。例えば上述の駐車枠71であれば、区画線81及び区画線82を構成する白線のうち、最も内側に位置する白線である白線93と白線94とに挟まれた領域に駐車されることが望ましい。   When the vehicle is parked in the parking frame, it is desirable that the vehicle is parked inside the lane marking. The inside here means the side facing the vehicle when the vehicle is parked in the parking frame. That is, it is desirable that each of the two parallel lane markings is parked in a region between the white lines located on the innermost side among the white lines constituting the lane marking. For example, in the case of the parking frame 71 described above, it is desirable to park in a region sandwiched between the white line 93 and the white line 94 that are the innermost white lines among the white lines constituting the lane lines 81 and 82. .

以下でいう駐車可能領域とは、車両が駐車可能な領域である。つまり、車両が駐車枠に駐車される際は、区画線を構成する白線のうち最も内側に位置する白線間の領域が駐車可能領域として検出されることが望ましい。以下では、このような駐車可能領域を検出するための処理である駐車枠処理について説明する。   The parking possible area mentioned below is an area where the vehicle can be parked. That is, when the vehicle is parked in the parking frame, it is desirable that the area between the white lines located on the innermost side among the white lines constituting the lane markings is detected as a parking area. Below, the parking frame process which is a process for detecting such a parking possible area | region is demonstrated.

[2.処理]
[2−1.駐車枠処理]
次に、画像処理部53が実行する駐車枠処理について、図4のフローチャートを用いて説明する。
[2. processing]
[2-1. Parking frame processing]
Next, parking frame processing executed by the image processing unit 53 will be described with reference to the flowchart of FIG.

画像処理部53は、S10では、撮影信号入力部51を介してカメラ画像を取得する。画像処理部53は、取得したカメラ画像をサンプリングすることでデジタル信号に変換する。   In S <b> 10, the image processing unit 53 acquires a camera image via the shooting signal input unit 51. The image processing unit 53 converts the acquired camera image into a digital signal by sampling.

画像処理部53は、S20では、4つのカメラ11〜14によるデジタル信号化されたカメラ画像を、予め設定された仮想視点から見た鳥瞰図に変換して合成し、車両9の周囲を写した鳥瞰図画像を生成する。特に、本実施形態では、車両9の周囲を鉛直方向から俯瞰した鳥瞰図画像を生成する。なお、本実施形態では、鳥瞰図画像が撮像画像に相当する。   In S <b> 20, the image processing unit 53 converts the camera images converted into digital signals from the four cameras 11 to 14 into a bird's-eye view seen from a preset virtual viewpoint, and synthesizes the bird's-eye view showing the surroundings of the vehicle 9. Generate an image. In particular, in this embodiment, a bird's-eye view image in which the periphery of the vehicle 9 is looked down from the vertical direction is generated. In the present embodiment, the bird's eye view image corresponds to the captured image.

画像処理部53は、S30では、S20で生成した鳥瞰図画像から白線を認識する。例えば、画像処理部53は、生成された鳥瞰図画像から路面よりも明るい部分を表す特徴点を検出する。本実施形態では、画像処理部53は、周囲よりも輝度値が閾値以上高い領域のエッジ点を特徴点とし、鳥瞰図画像にソーベルフィルタ等を適用して特徴点を検出する。そして、画像処理部53は、検出された特徴点にハフ変換等を適用して直線を検出する。   In S30, the image processing unit 53 recognizes a white line from the bird's eye view image generated in S20. For example, the image processing unit 53 detects a feature point representing a brighter part than the road surface from the generated bird's eye view image. In the present embodiment, the image processing unit 53 uses the edge point of the region whose luminance value is higher than the threshold value by more than the surrounding as the feature point, and detects the feature point by applying a Sobel filter or the like to the bird's eye view image. Then, the image processing unit 53 detects a straight line by applying Hough transform or the like to the detected feature point.

白線は所定の範囲内の幅(以下、線幅)を有する。本実施形態では、画像処理部53は、検出された直線のうち、上述の線幅分離れて位置する2本の直線を、白線のエッジを表す直線として検出する。白線のエッジとは、白線と路面との境界である。ここでは、画像処理部53は、白線のエッジを表す2本の直線の中央を通る直線を、白線を代表する直線として検出する。画像処理部53は、該白線を代表する直線を白線とみなして、白線を認識する。   The white line has a width within a predetermined range (hereinafter, line width). In the present embodiment, the image processing unit 53 detects two straight lines that are separated from the above-described line widths among the detected straight lines as straight lines representing the edges of the white line. The edge of the white line is the boundary between the white line and the road surface. Here, the image processing unit 53 detects a straight line passing through the center of two straight lines representing the edge of the white line as a straight line representing the white line. The image processing unit 53 recognizes a white line by regarding the straight line representing the white line as a white line.

画像処理部53は、S40では、S30にて認識した白線に基づいて、駐車可能領域を検出する。駐車可能領域検出の詳細については後述する。
画像処理部53は、S50ではS40にて検出した駐車可能領域に基づいて、車両制御装置40及び表示制御装置30への出力を行う。
In S40, the image processing unit 53 detects a parking area based on the white line recognized in S30. Details of the parking area detection will be described later.
In S50, the image processing unit 53 performs output to the vehicle control device 40 and the display control device 30 based on the available parking area detected in S40.

具体的には、画像処理部53は、駐車可能領域をトラッキングし、駐車可能領域の位置を認識し、駐車可能領域の位置を表す情報を車両制御装置40に出力する。トラッキングとは、自車両9の移動量と撮像画像中の物体が移動する移動量とを対応付けることによって撮像画像中の物体を追跡する処理をいう。本実施形態では、ここでいう撮像画像は上述の鳥瞰図画像に相当する。   Specifically, the image processing unit 53 tracks the parking area, recognizes the position of the parking area, and outputs information representing the position of the parking area to the vehicle control device 40. Tracking refers to processing for tracking an object in a captured image by associating the amount of movement of the host vehicle 9 with the amount of movement of the object in the captured image. In the present embodiment, the captured image referred to here corresponds to the above-described bird's-eye view image.

これにより、車両制御装置40は、駐車可能領域の位置を表す情報に基づいて、例えば、駐車可能領域に駐車するための自車両の軌道を生成し、この軌道に従って自車両を移動させるために、自車両の加減速、自車両の舵角等の制御を行う。   Thereby, the vehicle control device 40 generates, for example, a track of the host vehicle for parking in the parkable region based on the information indicating the position of the parkable region, and moves the host vehicle according to the track. Controls acceleration / deceleration of the host vehicle, steering angle of the host vehicle, and the like.

また、画像処理部53は、自車両の移動量を加味しつつ駐車可能領域を上述の鳥瞰図画像上に重畳した画像(以下、可能領域重畳画像)を生成し、可能領域重畳画像を表示制御装置30に出力する。これにより、表示制御装置30は、表示装置に、可能領域重畳画像を表示させる。可能領域重畳画像は、自車両の移動に伴って、自車両の移動量が加味された画像として表される。   In addition, the image processing unit 53 generates an image (hereinafter referred to as a possible area superimposed image) in which the parking area is superimposed on the above-described bird's-eye view image while taking into account the movement amount of the host vehicle, and the possible area superimposed image is displayed on the display control device. Output to 30. Thereby, the display control device 30 causes the display device to display the possible region superimposed image. The possible region superimposed image is represented as an image in which the amount of movement of the host vehicle is taken into account as the host vehicle moves.

画像処理部53は、以上で駐車枠処理を終了する。
なお、本実施形態では、S10の処理が入力処理部61としての機能を実現する処理に相当し、S20の処理が取得部62としての機能を実現する処理に相当し、S30の処理が白線認識部63としての機能を実現する処理に相当し、S40の処理が領域検出部64としての機能を実現する処理に相当し、S50の処理が出力部65としての機能を実現する処理に相当する。
The image processing unit 53 ends the parking frame process.
In the present embodiment, the process of S10 corresponds to the process of realizing the function as the input processing unit 61, the process of S20 is equivalent to the process of realizing the function as the acquisition unit 62, and the process of S30 is white line recognition. The process of S40 corresponds to the process of realizing the function as the area detector 64, the process of S40 corresponds to the process of realizing the function as the area detector 64, and the process of S50 corresponds to the process of realizing the function as the output unit 65.

[2−2.駐車可能領域処理]
次に、画像処理部53がS40にて実行する駐車可能領域処理について、図5のフローチャートを用いて説明する。
[2-2. Parking area processing]
Next, the parking possible area | region process which the image process part 53 performs in S40 is demonstrated using the flowchart of FIG.

画像処理部53は、はじめにS110〜S130では、S30で認識された白線の中から、横距離離れた2本の平行な白線を特定する。具体的には、画像処理部53は、S110では、S30で認識された白線の中から2本を選出する。   First, in S110 to S130, the image processing unit 53 identifies two parallel white lines that are separated from each other among the white lines recognized in S30. Specifically, in S110, the image processing unit 53 selects two lines from the white lines recognized in S30.

次に、画像処理部53は、S120では、2本の白線が平行であるか否かを判断する。画像処理部53は、2本の白線が平行である場合に処理をS130へ移行させ、平行でない場合に処理をS150へ移行させる。   Next, in S120, the image processing unit 53 determines whether the two white lines are parallel. The image processing unit 53 shifts the process to S130 when the two white lines are parallel, and shifts the process to S150 when they are not parallel.

続いて、画像処理部53は、S130では、2本の平行な白線間の距離が予め定められた横距離離れているか否かを判断する。上述のように、横距離はα〜βの範囲内の値である。つまり、画像処理部53は、2本の平行な白線間の距離が横距離の範囲内すなわち上述のα〜βの範囲内である場合に、横距離離れていると判断する。画像処理部53は、2本の平行な白線間の距離が横距離離れている場合に処理をS140へ移行させ、横距離離れていない場合に処理をS150へ移行させる。   Subsequently, in S130, the image processing unit 53 determines whether or not the distance between the two parallel white lines is a predetermined lateral distance. As described above, the lateral distance is a value within the range of α to β. That is, the image processing unit 53 determines that the lateral distance is separated when the distance between the two parallel white lines is within the range of the lateral distance, that is, within the range of α to β described above. The image processing unit 53 shifts the process to S140 when the distance between the two parallel white lines is separated from the horizontal distance, and shifts the process to S150 when the distance is not separated.

このように、S30で認識された白線の中から、横距離離れた2本の平行な白線が特定された場合に、処理がS140へ移行される。なお以下では、横距離離れた2本の平行な白線を、上述の2本の平行な白線とも記載する。   As described above, when two parallel white lines that are separated from each other are identified from the white lines recognized in S30, the process proceeds to S140. Hereinafter, two parallel white lines that are separated from each other by a lateral distance are also referred to as the above-described two parallel white lines.

画像処理部53は、S140では、候補枠を生成する。候補枠とは、上述の2本の平行な白線間における予め定められた形状(以下、所定形状)の領域である。本実施形態では、所定形状は四角形状であるものとする。ここでいう四角形には、平行四辺形、長方形、及び正方形が含まれ得る。画像処理部53は、上述の2本の平行な白線間における予め定められた幅(以下、検出幅)の四角形状の領域を候補枠として生成する。また、画像処理部53は、鳥瞰図画像に含まれる上述の2本の平行な白線の端部同士を結ぶ仮想線を上述の四角形状の領域の内と外とを分ける境界線として設定する。   In S140, the image processing unit 53 generates a candidate frame. The candidate frame is a region having a predetermined shape (hereinafter, a predetermined shape) between the two parallel white lines described above. In the present embodiment, the predetermined shape is a quadrangular shape. Here, the quadrangle may include a parallelogram, a rectangle, and a square. The image processing unit 53 generates a rectangular region having a predetermined width (hereinafter referred to as a detection width) between the two parallel white lines described above as a candidate frame. In addition, the image processing unit 53 sets a virtual line connecting the ends of the two parallel white lines included in the bird's eye view image as a boundary line that separates the inside and the outside of the rectangular area.

つまり、画像処理部53は、横距離離れた2本の平行な白線間における四角形状の領域であって、仮想線から検出幅の四角形状の領域を候補枠として生成する。
検出幅は、一般的な乗用車の長手方向における長さである一般車両長以下であり得る。本実施形態では、検出幅は、一般車両長の1/2であるものとする。但し、これに限定されるものではなく、検出幅は、鳥瞰図画像内に撮像されている白線が該白線の端部からどの程度の長さ写っているかという写り具合に応じて、任意の値に設定され得る。
In other words, the image processing unit 53 generates a quadrangular area between two parallel white lines that are separated from each other by a lateral distance and has a detection width from the virtual line as a candidate frame.
The detection width may be equal to or less than the general vehicle length that is the length in the longitudinal direction of a general passenger car. In the present embodiment, the detection width is assumed to be 1/2 of the general vehicle length. However, the detection width is not limited to this, and the detection width is set to an arbitrary value depending on how much the white line captured in the bird's eye view image is reflected from the end of the white line. Can be set.

画像処理部53は、生成された候補枠について、重心位置を算出し、候補フラグをセットして、処理をS160へ移行させる。重心位置、候補フラグは、ECU50が備えるメモリに記憶される。候補フラグとは、後述するように、複数の候補枠の中から駐車可能領域を表す候補枠を特定するために用いられるフラグである。   The image processing unit 53 calculates the barycentric position of the generated candidate frame, sets a candidate flag, and causes the process to proceed to S160. The gravity center position and the candidate flag are stored in a memory provided in the ECU 50. As will be described later, the candidate flag is a flag used to specify a candidate frame that represents a parking area from among a plurality of candidate frames.

画像処理部53は、S150では、候補枠を生成せず、処理をS160へ移行させる。
画像処理部53は、S160では、S30で認識された白線の中から2本を選出するにあたって、全ての組み合わせを確認したか否かを判断する。ここで、画像処理部53は、全ての組み合わせを確認し終えていない場合に処理をS110へ移行させ、S110−S160の処理を繰り返す。画像処理部53は、全ての組み合わせを確認し終えた場合に処理をS170へ移行させる。
In S150, the image processing unit 53 does not generate a candidate frame and shifts the process to S160.
In S160, the image processing unit 53 determines whether all combinations have been confirmed in selecting two lines from the white lines recognized in S30. Here, the image processing unit 53 shifts the process to S110 when all the combinations have not been confirmed, and repeats the processes of S110 to S160. The image processing unit 53 shifts the processing to S170 when all the combinations have been confirmed.

ここで、図6及び図7を用いて、図3に示すように車両9の進行方向である矢印Aに対して左側に駐車枠71〜72が位置する状況において生成される候補枠の例を説明する。なお、図6には、上述の2本の平行な白線間における四角形状の領域であって、上述の仮想線110から検出幅Kの領域の例として、候補枠304が示されている。複数の候補枠それぞれは、仮想線110に平行な、上述の検出幅Kを横幅とする同一の帯状の領域内に含まれる。なお、図7では、複数の候補領域それぞれを、横に並べて記載している。   Here, with reference to FIGS. 6 and 7, examples of candidate frames generated in a situation where the parking frames 71 to 72 are positioned on the left side with respect to the arrow A that is the traveling direction of the vehicle 9 as shown in FIG. 3. explain. In FIG. 6, a candidate frame 304 is shown as an example of a rectangular area between the two parallel white lines described above and having a detection width K from the virtual line 110 described above. Each of the plurality of candidate frames is included in the same strip-shaped region parallel to the imaginary line 110 and having the above-described detection width K as a lateral width. In FIG. 7, the plurality of candidate areas are shown side by side.

例えば、図6に示すように、鳥瞰図画像に複数の駐車枠が含まれていたり、区画線が複数の白線からなるものであったりすると、図7に示すように複数の候補枠201〜206、301〜306が生成される。また例えば、図示していないが、鳥瞰図画像に1つの駐車枠が含まれており該駐車枠の区画線が1本の白線からなる場合は、1つの候補枠が生成される。これら一又は複数の候補枠それぞれについて、上述の重心位置と候補フラグとが記憶される。図7では、候補枠における重心位置が黒丸で示されている。   For example, as shown in FIG. 6, if a bird's-eye view image includes a plurality of parking frames, or if the lane marking consists of a plurality of white lines, a plurality of candidate frames 201 to 206, as shown in FIG. 7, 301 to 306 are generated. For example, although not shown, when one bird's-eye view image includes one parking frame and the partition line of the parking frame is composed of one white line, one candidate frame is generated. The center-of-gravity position and the candidate flag are stored for each of the one or more candidate frames. In FIG. 7, the center of gravity position in the candidate frame is indicated by a black circle.

なお、図6は図3の状況においてカメラ画像に基づいて生成された鳥瞰図画像の例であるが、鳥瞰図画像には駐車枠71〜72の一部が含まれている。このように生成される鳥瞰図画像には、必ずしも駐車枠71〜72の全体が含まれるとは限らない。   FIG. 6 is an example of a bird's-eye view image generated based on the camera image in the situation of FIG. 3, but the bird's-eye view image includes a part of the parking frames 71 to 72. The bird's eye view image generated in this way does not necessarily include the entire parking frames 71 to 72.

ただし、本実施形態では、鳥瞰図画像には、駐車枠71〜72の長手方向における端部のうち自車両9に近い側の端部が含まれる。つまり、鳥瞰図画像には、区画線を構成する白線の長手方向における端部のうち自車両9に近い側の端部が含まれる。上述の2本の平行な白線上における該端部同士を結ぶ線が仮想線110に相当する。   However, in the present embodiment, the bird's eye view image includes an end portion on the side close to the host vehicle 9 among the end portions in the longitudinal direction of the parking frames 71 to 72. That is, the bird's-eye view image includes an end portion on the side close to the host vehicle 9 among the end portions in the longitudinal direction of the white lines constituting the lane markings. A line connecting the end portions on the two parallel white lines described above corresponds to the virtual line 110.

画像処理部53は、S170では、複数の候補枠が生成されたか否かを判断する。ここで、画像処理部53は、複数の候補枠が生成された場合は処理をS180へ移行させる。一方、画像処理部53は、1つの候補枠が生成された場合は、該1つの候補枠を後述する最小枠として特定し、処理をS230へ移行させる。   In S170, the image processing unit 53 determines whether a plurality of candidate frames have been generated. Here, when a plurality of candidate frames are generated, the image processing unit 53 shifts the processing to S180. On the other hand, when one candidate frame is generated, the image processing unit 53 identifies the one candidate frame as a minimum frame which will be described later, and shifts the processing to S230.

画像処理部53は、S180〜S220では、少なくとも1つの近接組の中から最小枠を近接組毎に特定する。近接組とは、複数の候補枠のうち重心位置が互いに所定の範囲内に位置する複数の候補枠のことである。すなわち、近接組は、少なくとも2つの候補枠からなるグループである。最小枠とは、近接組において上述の2本の平行な白線間の距離が最も小さい候補枠である。ただし、鳥瞰図画像に基づいて1つの候補枠のみが生成された場合、最小枠とは生成された1つの候補枠をいう。   In S180 to S220, the image processing unit 53 specifies the minimum frame for each proximity group from at least one adjacent group. The adjacent group is a plurality of candidate frames whose center-of-gravity positions are located within a predetermined range among the plurality of candidate frames. That is, the proximity set is a group including at least two candidate frames. The minimum frame is a candidate frame in which the distance between the two parallel white lines described above in the adjacent group is the smallest. However, when only one candidate frame is generated based on the bird's eye view image, the minimum frame means one generated candidate frame.

具体的には、画像処理部53は、S180では、複数の候補枠の中から2つの候補枠を選出する。
画像処理部53は、S190では、選出された2つの候補枠両方において候補フラグがセットされているか否かを判断する。画像処理部53は、両方において候補フラグがセットされている場合に処理をS200へ移行させ、一方においてのみ候補フラグがセットされている場合に処理をS220へ移行させる。
Specifically, the image processing unit 53 selects two candidate frames from a plurality of candidate frames in S180.
In S190, the image processing unit 53 determines whether candidate flags are set in both of the two selected candidate frames. The image processing unit 53 shifts the process to S200 when the candidate flag is set in both, and shifts the process to S220 when the candidate flag is set only in one.

画像処理部53は、S200では、選出された2つの候補枠について、重心位置が所定の範囲内であるか否かを判断する。具体的には、画像処理部53は、重心位置の距離(以下、重心間距離)が予め定められた近接閾値未満である場合に、重心位置が所定の範囲内であると判断する。画像処理部53は、重心位置が所定の範囲内であれば処理をS210へ移行させ、重心位置が所定の範囲内でなければ処理をS220へ移行させる。   In S200, the image processing unit 53 determines whether or not the center of gravity position is within a predetermined range for the two selected candidate frames. Specifically, the image processing unit 53 determines that the centroid position is within a predetermined range when the distance between the centroid positions (hereinafter, the distance between the centroids) is less than a predetermined proximity threshold. The image processing unit 53 shifts the process to S210 if the gravity center position is within the predetermined range, and shifts the process to S220 if the gravity center position is not within the predetermined range.

近接閾値は、例えば、一般的な乗用車の車幅を表す値や、区画線の幅を表す値等に設定され得る。近接閾値は、例えば図6及び図7に示すように、鳥瞰図画像501において隣り合う駐車枠71と駐車枠72について、駐車枠71における候補枠201〜206と、駐車枠72における候補枠301〜306とを異なる近接組にグループ分けできる程度の値に設定されていればよい。   The proximity threshold value can be set to, for example, a value representing the width of a general passenger car, a value representing the width of a lane marking, or the like. For example, as shown in FIG. 6 and FIG. 7, the proximity threshold values are the candidate frames 201 to 206 in the parking frame 71 and the candidate frames 301 to 306 in the parking frame 72 for the adjacent parking frames 71 and 72 in the bird's eye view image 501. As long as the values can be grouped into different adjacent groups.

画像処理部53は、S210では、2つの候補枠それぞれについて、上述の2本の平行な白線間の距離を検出する。そして、画像処理部53は、2つの候補枠のうち上述の2本の平行な白線間の距離が大きい方の候補枠について、候補フラグをリセットする。   In S210, the image processing unit 53 detects the distance between the two parallel white lines described above for each of the two candidate frames. Then, the image processing unit 53 resets the candidate flag for the candidate frame having the larger distance between the two parallel white lines described above among the two candidate frames.

画像処理部53は、S220では、S160にて肯定判断された際に生成されている全ての候補枠の中からS180にて2つの候補枠を選出するにあたって、全ての組み合わせを確認したか否かを判断する。ここで、画像処理部53は、全ての組み合わせを確認し終えていない場合に処理をS180へ移行させ、S180〜S220の処理を繰り返す。画像処理部53は、全ての組み合わせを確認し終えた場合に処理をS230へ移行させる。   In S220, the image processing unit 53 confirms all combinations in selecting two candidate frames in S180 from all candidate frames generated when an affirmative determination is made in S160. Judging. Here, the image processing unit 53 shifts the processing to S180 when not all the combinations have been confirmed, and repeats the processing of S180 to S220. The image processing unit 53 shifts the processing to S230 when all the combinations have been confirmed.

このようなS180〜S220の処理により、図8に示すように、重心位置が所定範囲内である候補枠301〜306においては、例えばA1〜A5の順に選出された2つの候補枠ずつ上述の2本の平行な白線間の距離の比較が行われ、比較結果に基づいて候補フラグが順にリセットされていく。結果として、同じ近接組に含まれる複数の候補枠のうち上述の2本の平行な白線間の距離が最も短い候補枠の候補フラグのみがセットされた状態で残ることになる。   As a result of the processing of S180 to S220, as shown in FIG. 8, in the candidate frames 301 to 306 whose center of gravity is within a predetermined range, for example, two candidate frames selected in the order of A1 to A5, respectively, The distances between the parallel white lines of the books are compared, and the candidate flags are sequentially reset based on the comparison result. As a result, only the candidate flag of the candidate frame having the shortest distance between the above-described two parallel white lines among the plurality of candidate frames included in the same adjacent group remains in a state where it is set.

つまり、図7の例では、候補枠201〜206を含む近接組において、候補枠204の候補フラグのみがセットされ、他の候補枠の候補フラグはリセットされる。また、候補枠301〜306を含む近接組において、候補枠304の候補フラグのみがセットされ、他の候補枠の候補フラグはリセットされる。なお、重心位置が所定範囲内である候補枠201〜206が駐車枠71についての近接組を構成する。また、重心位置が所定範囲内である候補枠301〜306が駐車枠72についての近接組を構成する。   That is, in the example of FIG. 7, only the candidate flag of the candidate frame 204 is set and the candidate flags of the other candidate frames are reset in the adjacent group including the candidate frames 201 to 206. Further, in the proximity group including the candidate frames 301 to 306, only the candidate flag of the candidate frame 304 is set, and the candidate flags of other candidate frames are reset. Note that the candidate frames 201 to 206 whose center-of-gravity positions are within a predetermined range form a proximity set for the parking frame 71. In addition, candidate frames 301 to 306 whose gravity center positions are within a predetermined range constitute a proximity set for the parking frame 72.

画像処理部53は、S230では、最小枠を特定し、最小枠に基づいて駐車可能領域を検出する。画像処理部53は、まず、S220にて肯定判断された際に移行する本ステップにおいて、候補フラグがセットされている候補枠を最小枠として検出する。上述の例では、候補枠201〜206を含む近接組において候補枠204が最小枠として検出され、候補枠301〜306を含む近接組において候補枠304が最小枠として検出される。   In S230, the image processing unit 53 identifies a minimum frame and detects a parking area based on the minimum frame. First, the image processing unit 53 detects a candidate frame in which the candidate flag is set as the minimum frame in this step that is shifted to when the determination is affirmative in S220. In the above-described example, the candidate frame 204 is detected as the minimum frame in the adjacent group including the candidate frames 201 to 206, and the candidate frame 304 is detected as the minimum frame in the adjacent group including the candidate frames 301 to 306.

画像処理部53は、次に、最小枠における白線間の領域を駐車可能領域として検出する。つまり、候補枠201〜206を含む近接組に対しては、換言すれば駐車枠71に対しては、白線93及び白線94間の領域が駐車可能領域401として検出される。また、候補枠301〜306を含む近接組に対しては、換言すれば駐車枠72に対しては、白線95及び白線96間の領域が駐車可能領域402として検出される。   Next, the image processing unit 53 detects an area between white lines in the minimum frame as a parking area. That is, for the proximity group including the candidate frames 201 to 206, in other words, for the parking frame 71, the area between the white line 93 and the white line 94 is detected as the parking area 401. In addition, for the proximity group including the candidate frames 301 to 306, in other words, for the parking frame 72, the area between the white line 95 and the white line 96 is detected as the parking area 402.

なお、図7の例では、鳥瞰図画像501内には駐車枠の一部のみが含まれており、鳥瞰図画像501内に写っている、最小枠における白線間の領域全てが、駐車可能領域として検出される。   In the example of FIG. 7, the bird's-eye view image 501 includes only a part of the parking frame, and all the areas between the white lines in the minimum frame that are reflected in the bird's-eye view image 501 are detected as parking areas. Is done.

画像処理部53は、このようにして検出された駐車可能領域の位置を表す情報をECU50が備えるメモリに記憶させる。例えば、四角形状である駐車可能領域の四隅の位置が駐車可能領域の位置を表す情報として記憶されてもよい。画像処理部53は、以上で処理を終了する。   The image processing unit 53 stores information representing the position of the parking area detected in this way in a memory included in the ECU 50. For example, the positions of the four corners of the rectangular parking area may be stored as information representing the parking area. The image processing unit 53 ends the process.

これにより、例えば駐車可能領域の位置を表す情報が表示制御装置30に出力されると、図9に示すような可能領域重畳画像502が表示装置に表示される。
[3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
Thus, for example, when information indicating the position of the parking area is output to the display control device 30, a possible area superimposed image 502 as shown in FIG. 9 is displayed on the display device.
[3. effect]
According to the embodiment described in detail above, the following effects can be obtained.

(3a)ECU50では、画像処理部53は、カメラ10による撮像画像を取得する。画像処理部53は、撮像画像に基づいて、複数の候補枠を検出し、複数の候補枠のうち重心位置が互いに所定の範囲内に位置する複数の候補枠からなる少なくとも1つの近接組において白線間の距離が最も小さい最小枠を近接組毎に検出し、最小枠における白線間の領域を駐車可能領域として検出する。   (3a) In the ECU 50, the image processing unit 53 acquires an image captured by the camera 10. The image processing unit 53 detects a plurality of candidate frames based on the captured image, and white lines in at least one adjacent set including a plurality of candidate frames whose centroid positions are within a predetermined range among the plurality of candidate frames. The smallest frame with the smallest distance is detected for each adjacent group, and the area between the white lines in the smallest frame is detected as a parking area.

その結果、例えば三重の白線といったような、U字二重線形状以外の形状である区画線により区画された駐車枠において、最も内側の白線間の領域を駐車可能領域として検出することができる。つまり、区画線の形状によらず、駐車可能領域を検出することができる。   As a result, the area between the innermost white lines can be detected as a parking area in a parking frame that is partitioned by a lane marking having a shape other than the U-shaped double line shape, such as a triple white line. That is, it is possible to detect the parking area regardless of the shape of the lane marking.

(3b)画像処理部53は、四角形状の領域であって予め定められた検出幅の領域を候補枠として、該候補枠における重心位置を算出する。
その結果、撮像画像に、駐車枠を区画する白線の全てが写っていなくても、少なくとも検出幅分の白線が写っていれば駐車可能領域を特定することができる。
(3b) The image processing unit 53 calculates a center-of-gravity position in the candidate frame using a quadrangular region having a predetermined detection width as a candidate frame.
As a result, even if not all of the white lines that demarcate the parking frame are captured in the captured image, it is possible to identify the parking area if at least the white lines corresponding to the detection width are captured.

(3c)画像処理部53は、上述の四角形状の領域であって、上述の2本の平行な白線上の長手方向における予め定められた位置同士を結ぶ仮想線を四角形状の領域内外の境界線とする領域、を候補枠として、該候補枠における重心位置を算出する。   (3c) The image processing unit 53 is the above-described quadrangular region, and the virtual line connecting the predetermined positions in the longitudinal direction on the two parallel white lines is bounded between the inside and outside of the quadrangular region. Using the region to be a line as a candidate frame, the position of the center of gravity in the candidate frame is calculated.

その結果、撮像画像に白線の全てが写っていなくても、仮想線を境界線とする四角形状の領域に基づいて、駐車可能領域を特定することができる。
(3d)上述の2本の白線上の長手方向における予め定められた位置は、撮像画像としての鳥瞰図画像中に含まれる2本の白線の端部であるとする。
As a result, even if not all of the white lines are shown in the captured image, it is possible to specify the parking area based on the quadrangular area having the virtual line as the boundary line.
(3d) It is assumed that the predetermined position in the longitudinal direction on the two white lines is the end of the two white lines included in the bird's-eye view image as the captured image.

その結果、撮像画像に白線の全てが写っていなくても、少なくとも白線の端部が写っていれば、駐車可能領域を特定することができる。
(3e)画像処理部53は、複数の近接組において最小枠を近接組毎に検出し、駐車可能領域を最小枠毎に検出する。
As a result, even if not all of the white line is captured in the captured image, the parking area can be specified as long as at least the end of the white line is captured.
(3e) The image processing unit 53 detects the minimum frame for each adjacent group in the plurality of adjacent groups, and detects a parking area for each minimum frame.

その結果、隣り合う複数の駐車枠において、駐車可能領域をそれぞれ検出することができる。
(3f)画像処理部53は、カメラ10によって撮像されたカメラ画像を車両9の上方の視点からの画像に変換した鳥瞰図画像を撮像画像として取得する。画像処理部53は、鳥瞰図画像に基づいて駐車領域を検出する。
As a result, it is possible to detect parking areas in a plurality of adjacent parking frames.
(3f) The image processing unit 53 acquires, as a captured image, a bird's eye view image obtained by converting a camera image captured by the camera 10 into an image from a viewpoint above the vehicle 9. The image processing unit 53 detects a parking area based on the bird's eye view image.

その結果、画像処理部53は、取得した鳥瞰図画像を用いて可能領域重畳画像を容易に生成することができる。
[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
As a result, the image processing unit 53 can easily generate a possible region superimposed image using the acquired bird's-eye view image.
[4. Other Embodiments]
As mentioned above, although embodiment of this indication was described, this indication is not limited to the above-mentioned embodiment, and can carry out various modifications.

(4a)上記実施形態では、四角形状の領域である候補枠が検出されていたが、これに限定されるものではない。例えば円や楕円等といった、四角形以外の任意の所定形状の領域が候補枠として検出されてもよい。また例えば、線状の領域が候補枠として検出されてもよい。この場合、画像処理部53は、線状の領域の中央位置を重心位置に代えて用いて、中央位置に基づいて近接組に含まれる複数の候補枠を特定してもよい。   (4a) In the above embodiment, a candidate frame that is a quadrangular region is detected. However, the present invention is not limited to this. For example, an area having an arbitrary predetermined shape other than a square, such as a circle or an ellipse, may be detected as a candidate frame. For example, a linear region may be detected as a candidate frame. In this case, the image processing unit 53 may specify a plurality of candidate frames included in the proximity group based on the center position using the center position of the linear region instead of the center of gravity position.

(4b)上記実施形態では、撮像画像としての鳥瞰図画像中に含まれる上述の2本の平行な白線の端部同士を結ぶ仮想線を候補枠の境界線として、上述の2本の平行な白線間の領域であって該境界線から検出幅の四角形状の領域が候補枠として検出されていたが、これに限定されるものではない。画像処理部53は、上述の2本の白線の長手方向において予め定められた任意の位置同士を結ぶ仮想線を候補枠の境界線として設定してもよい。そして、画像処理部53は、上述の2本の平行な白線間の領域であって該仮想線から検出幅の四角形状の領域を候補枠として検出してもよい。   (4b) In the above-described embodiment, the above-described two parallel white lines are defined by using the virtual line connecting the ends of the above-described two parallel white lines included in the bird's-eye view image as the captured image as the boundary line of the candidate frame. A rectangular area having a detection width from the boundary line is detected as a candidate frame, but the present invention is not limited to this. The image processing unit 53 may set a virtual line connecting arbitrary positions determined in advance in the longitudinal direction of the two white lines as a boundary line of the candidate frame. Then, the image processing unit 53 may detect a rectangular area having a detection width from the virtual line, which is an area between the two parallel white lines described above, as a candidate frame.

その結果、撮像画像内に白線の一部が撮像されていれば、上述の(3a)と同様に、駐車可能領域を特定することができる。
また、画像処理部53は、撮像画像としての鳥瞰図画像中に駐車枠の全てが含まれている場合、上述の2本の平行な白線に挟まれる領域全部を候補枠として検出してもよい。
As a result, if a part of the white line is captured in the captured image, the parking area can be specified as in (3a) above.
Moreover, when all the parking frames are included in the bird's eye view image as the captured image, the image processing unit 53 may detect all the regions sandwiched between the two parallel white lines described above as candidate frames.

また、画像処理部53は、撮像画像としての鳥瞰図画像中に駐車枠の全てが含まれている場合、上述の2本の平行な白線に挟まれる領域であって一般車両長を検出幅とする四角形状の領域を候補枠として検出してもよい。   In addition, when the bird's-eye view image as the captured image includes all of the parking frame, the image processing unit 53 is a region sandwiched between the two parallel white lines described above, and uses the general vehicle length as the detection width. A rectangular area may be detected as a candidate frame.

また、画像処理部53は、撮像画像としての鳥瞰図画像中に駐車枠の全てが含まれている場合、上述の2本の平行な白線に挟まれる領域であって2本の平行な白線における両端の端部同士を結ぶ2本の仮想線を境界線とする四角形状の領域を候補枠として検出してもよい。   Further, the image processing unit 53 is an area between the two parallel white lines described above when both of the parking frames are included in the bird's eye view image as the captured image, and both ends of the two parallel white lines. A quadrangular region having two imaginary lines connecting the end portions of the two as boundary lines may be detected as a candidate frame.

(4c)上記実施形態では、カメラ10は、フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及びリアカメラ14を備えていたが、これに限定されるものではない。カメラ10は、フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及びリアカメラ14のうち、少なくとも1つを備えるものであってもよい。   (4c) In the above embodiment, the camera 10 includes the front camera 11, the left side camera 12, the right side camera 13, and the rear camera 14. However, the present invention is not limited to this. The camera 10 may include at least one of the front camera 11, the left side camera 12, the right side camera 13, and the rear camera 14.

また、上記実施形態では、フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及びリアカメラ14による全てのカメラ画像に基づいて鳥瞰図画像が生成されていたが、これに限定されるものではない。例えば、駐車枠へ自車両を駐車する動作に応じて、フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及びリアカメラ14のうち少なくとも1つのカメラ画像に基づいて鳥瞰図画像が生成されてもよい。   Moreover, in the said embodiment, although the bird's-eye view image was produced | generated based on all the camera images by the front camera 11, the left side camera 12, the right side camera 13, and the rear camera 14, it is not limited to this. . For example, even if a bird's-eye view image is generated based on at least one camera image among the front camera 11, the left side camera 12, the right side camera 13, and the rear camera 14 according to the operation of parking the host vehicle in the parking frame. Good.

例えば図3に示す駐車枠72に自車両9を後退させて駐車する場合であれば、矢印A〜矢印Cに示すような駐車時における車両9の動作毎に、複数のカメラ11〜14のうち少なくとも1つのカメラが選択され、選択されたカメラによって取得されたカメラ画像に基づいて鳥瞰図画像が生成され駐車可能領域が検出されてもよい。なお、矢印Aは、前進して駐車可能領域を検出する動作を示す。矢印Bは、駐車可能領域をトラッキングしつつ行う後退前の予備動作を示す。矢印Cは、後退して駐車枠72へ停車させるまでの動作を示す。   For example, if the host vehicle 9 is retracted and parked in the parking frame 72 shown in FIG. 3, among the plurality of cameras 11 to 14 for each operation of the vehicle 9 during parking as shown by arrows A to C. At least one camera may be selected, a bird's eye view image may be generated based on a camera image acquired by the selected camera, and a parking area may be detected. An arrow A indicates an operation of moving forward to detect a parking area. An arrow B indicates a preparatory operation before retreat performed while tracking the parking area. An arrow C indicates an operation until the vehicle moves backward and stops on the parking frame 72.

(4d)上記実施形態では、車両9の周囲を鉛直方向から俯瞰した鳥瞰図画像が生成されていたが、これに限定されるものではない。予め設定された任意の仮想視点から見た鳥瞰図画像が生成されてもよい。   (4d) In the above embodiment, a bird's eye view image in which the periphery of the vehicle 9 is viewed from the vertical direction is generated, but the present invention is not limited to this. A bird's-eye view image viewed from an arbitrary virtual viewpoint set in advance may be generated.

(4e)上記実施形態では、複数の白線からなる区画線において先端が四角く閉じている例を示したが、これに限定されるものではない。複数の白線からなる区画線は、先端が閉じられていなくてもよい。また、複数の白線からなる区画線は、先端がU字形状に閉じられていてもよい。また、区画線を構成する白線は、1本以上の任意の数であればよい。   (4e) In the above-described embodiment, an example in which the tip is squarely closed in a lane marking composed of a plurality of white lines is shown, but the present invention is not limited to this. The lane marking composed of a plurality of white lines may not be closed at the tip. Moreover, the tip of the lane marking composed of a plurality of white lines may be closed in a U shape. Moreover, the white line which comprises a division line should just be one or more arbitrary numbers.

(4f)上記実施形態では、画像処理部53は、表示制御装置30に、画像処理部53によって生成された鳥瞰図画像を表示装置に表示させるように構成されていたが、これに限定されるものではない。例えば、画像処理部53は、表示制御装置30に、カメラ11〜14によって撮像されたカメラ画像そのものを表示させるように構成されてもよい。また、画像処理部53は、表示制御装置30に、該カメラ画像に駐車枠を重畳した画像を表示させるように構成されてもよい。   (4f) In the above embodiment, the image processing unit 53 is configured to cause the display control device 30 to display the bird's eye view image generated by the image processing unit 53 on the display device. However, the present invention is not limited to this. is not. For example, the image processing unit 53 may be configured to display the camera image itself captured by the cameras 11 to 14 on the display control device 30. The image processing unit 53 may be configured to cause the display control device 30 to display an image in which a parking frame is superimposed on the camera image.

(4g)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (4g) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(4h)上述したECU50、ECU50が備えるCPU、撮像システム1、ECU50を機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、駐車可能領域の検出方法など、種々の形態で本開示を実現することもできる。   (4h) The above-described ECU 50, the CPU provided in the ECU 50, the imaging system 1, a program for causing the ECU 50 to function, a non-transition actual recording medium such as a semiconductor memory in which the program is recorded, a parking area detection method, and the like The present disclosure can also be realized in the form of.

上記実施形態において、ECU50が検出装置に相当し、画像処理部53が取得部、領域検出部に相当する。また、S20が取得部としての処理に相当し、S40が領域検出部としての処理に相当する。   In the above embodiment, the ECU 50 corresponds to a detection device, and the image processing unit 53 corresponds to an acquisition unit and a region detection unit. Further, S20 corresponds to processing as an acquisition unit, and S40 corresponds to processing as an area detection unit.

10 カメラ、50 ECU、53 画像処理部。   10 camera, 50 ECU, 53 image processing unit.

Claims (6)

車両に搭載される検出装置(50)であって、
前記車両に搭載された少なくとも1つのカメラ(10)によって路面を含む前記車両の周囲が撮像された画像に基づく撮像画像を取得する取得部(53、S20)と、
前記撮像画像に基づいて、車幅に基づく予め定められた横距離離れた2本の平行な白線間における所定形状の領域である複数の候補枠を検出し、前記複数の候補枠のうち重心位置が互いに所定の範囲内に位置する複数の候補枠からなる少なくとも1つの近接組において前記白線間の距離が最も小さい最小枠を前記近接組毎に検出し、前記最小枠に基づいて前記最小枠における前記白線間の領域を前記車両が駐車可能な駐車可能領域として検出する領域検出部(53、S40)と、
を備える検出装置。
A detection device (50) mounted on a vehicle,
An acquisition unit (53, S20) for acquiring a captured image based on an image of the surroundings of the vehicle including a road surface by at least one camera (10) mounted on the vehicle;
Based on the captured image, a plurality of candidate frames that are regions of a predetermined shape between two parallel white lines separated by a predetermined lateral distance based on a vehicle width are detected, and a center of gravity position among the plurality of candidate frames Detects the smallest frame having the smallest distance between the white lines for each of the neighboring groups in at least one neighboring group composed of a plurality of candidate frames positioned within a predetermined range, and based on the smallest frame, An area detection unit (53, S40) for detecting an area between the white lines as a parkable area where the vehicle can be parked;
A detection device comprising:
請求項1に記載の検出装置であって、
前記候補枠は四角形状の領域であり、
前記領域検出部は、前記四角形状の領域であって、予め定められた幅の領域を前記候補枠として、前記候補枠における重心位置を算出する
検出装置。
The detection device according to claim 1,
The candidate frame is a rectangular area;
The said area | region detection part is a square area | region, Comprising: The area | region of a predetermined width is used as the said candidate frame, The detection apparatus calculates the gravity center position in the said candidate frame.
請求項1又は請求項2に記載の検出装置であって、
前記候補枠は四角形状の領域であり、
前記領域検出部は、前記四角形状の領域であって、前記2本の平行な白線上の長手方向における予め定められた位置同士を結ぶ仮想線を領域内外の境界線とする前記四角形状の領域を前記候補枠として、前記候補枠における重心位置を算出する
検出装置。
The detection device according to claim 1 or 2,
The candidate frame is a rectangular area;
The area detection unit is the quadrangular area, wherein the quadrangular area has a virtual line connecting predetermined positions in the longitudinal direction on the two parallel white lines as a boundary line inside and outside the area. A center of gravity position in the candidate frame.
請求項3に記載の検出装置であって、
前記2本の白線上の長手方向における予め定められた位置は、前記撮像画像に含まれる前記2本の白線の端部である
検出装置。
The detection device according to claim 3,
The predetermined position in the longitudinal direction on the two white lines is an end of the two white lines included in the captured image.
請求項1から請求項4のいずれか一項に記載の検出装置であって、
前記領域検出部は、複数の前記近接組において前記最小枠を前記近接組毎に検出し、前記最小枠に基づいて前記駐車可能領域を前記最小枠毎に検出する
検出装置。
The detection device according to any one of claims 1 to 4,
The said area | region detection part detects the said minimum frame in every said adjacent group in the said some adjacent group, and detects the said parking possible area for every said minimum frame based on the said minimum frame.
請求項1から請求項5のいずれか一項に記載の検出装置であって、
前記取得部は、前記カメラによって撮像された画像を前記車両の上方の視点からの画像に変換した鳥瞰図画像を前記撮像画像として取得し、
前記領域検出部は、前記鳥瞰図画像に基づいて、前記駐車可能領域を検出する
検出装置。
The detection device according to any one of claims 1 to 5,
The acquisition unit acquires, as the captured image, a bird's eye view image obtained by converting an image captured by the camera into an image from an upper viewpoint of the vehicle,
The said area | region detection part detects the said parking possible area | region based on the said bird's-eye view image.
JP2018021268A 2018-02-08 2018-02-08 Detection device Pending JP2019137182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018021268A JP2019137182A (en) 2018-02-08 2018-02-08 Detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018021268A JP2019137182A (en) 2018-02-08 2018-02-08 Detection device

Publications (1)

Publication Number Publication Date
JP2019137182A true JP2019137182A (en) 2019-08-22

Family

ID=67692958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018021268A Pending JP2019137182A (en) 2018-02-08 2018-02-08 Detection device

Country Status (1)

Country Link
JP (1) JP2019137182A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7482054B2 (en) 2020-02-27 2024-05-13 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7482054B2 (en) 2020-02-27 2024-05-13 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method

Similar Documents

Publication Publication Date Title
WO2017158983A1 (en) Object recognition device, object recognition method, and object recognition program
JP6163453B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP4875681B2 (en) How to recognize obstacles
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US20170259830A1 (en) Moving amount derivation apparatus
JP6493000B2 (en) Road marking detection device and road marking detection method
JP2020056717A (en) Position detection device
WO2011016257A1 (en) Distance calculation device for vehicle
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
KR101190789B1 (en) Apparatus and method for measurementing distance of vehicle
JP2019137182A (en) Detection device
US10789489B2 (en) Vehicle exterior environment recognition apparatus
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
CN109923586B (en) Parking frame recognition device
JP6174960B2 (en) Outside environment recognition device
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP6677142B2 (en) Parking frame recognition device
JP6729358B2 (en) Recognition device
JP7134780B2 (en) stereo camera device
JP4040620B2 (en) Vehicle periphery monitoring device
JP6593263B2 (en) Lane marking recognition system
JP6564682B2 (en) Object detection device, object detection method, and object detection program
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6495742B2 (en) Object detection device, object detection method, and object detection program
JP6119643B2 (en) Perimeter monitoring apparatus and object determination method