JP2014107696A - On-vehicle image processing device - Google Patents

On-vehicle image processing device Download PDF

Info

Publication number
JP2014107696A
JP2014107696A JP2012259042A JP2012259042A JP2014107696A JP 2014107696 A JP2014107696 A JP 2014107696A JP 2012259042 A JP2012259042 A JP 2012259042A JP 2012259042 A JP2012259042 A JP 2012259042A JP 2014107696 A JP2014107696 A JP 2014107696A
Authority
JP
Japan
Prior art keywords
image
vehicle
white line
detection unit
traveling direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012259042A
Other languages
Japanese (ja)
Inventor
Taketo Ogata
健人 緒方
Masahiro Kiyohara
將裕 清原
Tomohito Suzuki
智史 鈴木
Shoji Muramatsu
彰二 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012259042A priority Critical patent/JP2014107696A/en
Publication of JP2014107696A publication Critical patent/JP2014107696A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To correct information related to a parking frame, the information provided to a vehicle and the driver.SOLUTION: A side-direction approach determination section 311 is configured to determine whether or not a near-side white-line end portion 23LE detected by a first white-line detection section 301 reaches a border 28 between an approach direction bird-view image 22e and side-direction bird-view images 22b, 22c. Further, a second white-line detection section 303 is configured to detect a white line from the side-direction bird-view images 22b, 22c when the side-direction approach determination section 311 determines that the near-side white-line end portion 23LE has reached the border 28.

Description

本発明は、車載画像処理装置に関する。   The present invention relates to an in-vehicle image processing apparatus.

車両の後部に取り付けられたカメラにより撮影して得られた画像から駐車枠線を認識し、駐車枠線を仮想的に延長した枠線を表示することで、ドライバが車両を駐車枠線に平行駐車させることを支援する装置が知られている(特許文献1参照)。   A parking frame line is recognized from an image obtained by a camera attached to the rear part of the vehicle, and a frame line obtained by virtually extending the parking frame line is displayed so that the driver can make the vehicle parallel to the parking frame line. An apparatus for assisting parking is known (see Patent Document 1).

特開2011−16405号公報JP 2011-16405 A

しかし、上述した特許文献に記載の装置では、車両が駐車枠内に進入するにつれて、カメラによって撮影される駐車枠線の長さが徐々に短くなる。そのため、仮想的に延長する枠線の角度が、駐車枠線に対してずれてしまうおそれがある。   However, in the apparatus described in the above-described patent document, the length of the parking frame line photographed by the camera gradually decreases as the vehicle enters the parking frame. Therefore, there is a possibility that the angle of the virtually extending frame line is deviated from the parking frame line.

(1) 請求項1の発明による車載画像処理装置は、車両の進行方向を検出する進行方向検出部と、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像のうち、車両の前方に設けられたカメラで撮影して得られた画像、および、車両の後方に設けられたカメラで撮影して得られた画像のいずれか一方の画像から、進行方向検出部が検出した車両の進行方向に対応する画像を進行方向画像として選択する画像選択部と、画像選択部で選択された進行方向画像から物体の特徴を検出する進行方向物体特徴検出部と、進行方向物体特徴検出部で検出した物体の特徴の端部のうち、車両の手前側に存在する手前側物体特徴端部が、車両の側方に設けられたカメラで撮影して得られた側方画像と、進行方向画像との境界に達したか否かを判定する側方進入判定部と、側方進入判定部で、手前側物体特徴端部が、進行方向画像と側方画像の境界に達したと判定されると、側方画像から物体の特徴を検出する側方物体特徴検出部と、進行方向物体特徴検出部と、側方物体特徴検出部とで検出した物体の特徴を用いて物体を検出する物体検出部を備えることを特徴とする。
(2) 請求項2の発明による車載画像処理装置は、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像を合成して、俯瞰画像を生成する画像合成部と、車両の進行方向を検出する進行方向検出部と、画像合成部で生成した俯瞰画像のうち、車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像、および、画像合成部で生成した俯瞰画像のうち、車両の後方に設けられたカメラで撮影して得られた画像に基づいて生成した後方俯瞰画像のいずれか一方の俯瞰画像から、進行方向検出部が検出した車両の進行方向に対応する俯瞰画像を進行方向俯瞰画像として選択する画像選択部と、画像選択部で選択された進行方向俯瞰画像から白線を検出する進行方向白線検出部と、進行方向白線検出部で検出した白線の端部のうち、車両の手前側に存在する白線の端部である手前側白線端部が、画像合成部で生成した俯瞰画像のうち、車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像と、進行方向俯瞰画像との境界に達したか否かを判定する側方進入判定部と、側方進入判定部で、手前側白線端部が、前方俯瞰画像と進行方向俯瞰画像との境界に達したと判定されると、側方俯瞰画像から白線を検出する側方白線検出部とを備えることを特徴とする。
(3) 請求項12の発明による車載画像処理装置は、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像を合成して、俯瞰画像を生成する画像合成部と、車両の進行方向を検出する進行方向検出部と、画像合成部で生成した俯瞰画像のうち、車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像、および、画像合成部で生成した俯瞰画像のうち、車両の後方に設けられたカメラで撮影して得られた画像に基づいて生成した後方俯瞰画像のいずれか一方の俯瞰画像から、進行方向検出部が検出した車両の進行方向に対応する俯瞰画像を進行方向俯瞰画像として選択する画像選択部と、画像選択部で選択された進行方向俯瞰画像から白線を検出する第1の白線検出部と、第1の白線検出部の検出結果に基づいて、駐車枠を検出する第1の駐車枠検出部と、第1の駐車枠検出部で検出した駐車枠に係る白線の端部のうち、車両の手前側に存在する白線の端部である手前側白線端部が、画像合成部で生成した俯瞰画像のうち、車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像と、進行方向俯瞰画像との境界に達したか否かを判定する側方進入判定部と、側方進入判定部で、手前側白線端部が、前方俯瞰画像と進行方向俯瞰画像との境界に達したと判定されると、第1の駐車枠検出部の検出結果を参照して、側方俯瞰画像から白線を検出する第2の白線検出部とを備えることを特徴とする。
(1) The in-vehicle image processing apparatus according to the invention of claim 1 is an image obtained by photographing with a traveling direction detection unit that detects a traveling direction of the vehicle and cameras provided at the front, rear, and side of the vehicle. Among the acquired images, either one of an image obtained by photographing with a camera provided in front of the vehicle and an image obtained by photographing with a camera provided in the rear of the vehicle An image selection unit that selects an image corresponding to the traveling direction of the vehicle detected by the traveling direction detection unit from the image as a traveling direction image, and a traveling direction object that detects the characteristics of the object from the traveling direction image selected by the image selection unit Out of the object feature ends detected by the feature detection unit and the traveling direction object feature detection unit, the near-side object feature end that exists on the near side of the vehicle is photographed with a camera provided on the side of the vehicle. Lateral image obtained and the direction of travel The side approach determination unit that determines whether or not the boundary with the image has been reached and the side approach determination unit determine that the front object feature end has reached the boundary between the traveling direction image and the side image. Then, an object that detects an object using the feature of the object detected by the side object feature detection unit that detects the feature of the object from the side image, the traveling direction object feature detection unit, and the side object feature detection unit. A detection unit is provided.
(2) The in-vehicle image processing apparatus according to the invention of claim 2 acquires images obtained by photographing with cameras provided at the front, rear, and side of the vehicle, combines the acquired images, and performs an overhead view. Of the overhead image generated by the image composition unit that generates the image, the traveling direction detection unit that detects the traveling direction of the vehicle, and the image composition unit, the image obtained by photographing with the camera provided in front of the vehicle One of the front bird's-eye view image generated based on the image obtained by photographing the front bird's-eye image generated based on the image and the bird's-eye view image generated by the image synthesis unit with the camera provided behind the vehicle. From the overhead image, an image selection unit that selects an overhead image corresponding to the traveling direction of the vehicle detected by the traveling direction detection unit as a traveling direction overhead image, and a progress that detects a white line from the overhead image selected by the image selection unit Direction white line inspection Out of the overhead image generated by the image compositing unit, the front side white line end that is the end of the white line existing on the front side of the vehicle out of the outgoing line and the white line end detected by the traveling direction white line detection unit, A side approach determination unit that determines whether or not the boundary between the front overhead image generated based on the image obtained by photographing with a camera provided on the side of the vehicle and the traveling direction overhead image has been reached; When the side approach determination unit determines that the front white line end has reached the boundary between the front bird's-eye view image and the traveling direction bird's-eye view image, a side white line detection unit that detects a white line from the side bird's-eye view image is displayed. It is characterized by providing.
(3) The in-vehicle image processing apparatus according to the invention of claim 12 acquires images obtained by photographing with cameras provided at the front, rear, and side of the vehicle, and combines the acquired images to obtain an overhead view. Of the overhead image generated by the image composition unit that generates the image, the traveling direction detection unit that detects the traveling direction of the vehicle, and the image composition unit, the image obtained by photographing with the camera provided in front of the vehicle One of the front bird's-eye view image generated based on the image obtained by photographing the front bird's-eye image generated based on the image and the bird's-eye view image generated by the image synthesis unit with the camera provided behind the vehicle. An image selection unit that selects an overhead image corresponding to the traveling direction of the vehicle detected by the traveling direction detection unit from the overhead image as a traveling direction overhead image, and a white line that is detected from the traveling direction overhead image selected by the image selection unit. 1 white line inspection Based on the detection result of the exit portion and the first white line detection unit, the first parking frame detection unit for detecting the parking frame, and the end of the white line related to the parking frame detected by the first parking frame detection unit Out of the overhead images generated by the image composition unit, the image of the front white line end that is the end of the white line existing on the front side of the vehicle is an image obtained by photographing with a camera provided on the side of the vehicle. A side approach determination unit that determines whether or not the boundary between the front bird's-eye view image generated based on the traveling direction bird's-eye view image has been reached, and a side approach determination unit, where the front white line end is the front bird's-eye view image And a second white line detection unit that detects a white line from the side bird's-eye view image with reference to the detection result of the first parking frame detection unit. It is characterized by that.

本発明によれば、車両およびドライバに対して提供される駐車枠に関する情報を適切化できる。   ADVANTAGE OF THE INVENTION According to this invention, the information regarding the parking frame provided with respect to a vehicle and a driver can be optimized.

本発明の一実施の形態による車載画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image processing apparatus by one embodiment of this invention. 車両に搭載されたカメラにより撮影された車両周囲の撮影画像と、画像合成部により合成された俯瞰画像との画像の例を示す図である。It is a figure which shows the example of the image of the picked-up image around the vehicle image | photographed with the camera mounted in the vehicle, and the bird's-eye view image synthesize | combined by the image synthetic | combination part. 演算処理部が行う演算処理の制御ブロック図である。It is a control block diagram of the arithmetic processing which an arithmetic processing part performs. 演算処理部の画像選択部で行われる処理のフローチャートである。It is a flowchart of the process performed in the image selection part of an arithmetic processing part. 演算処理部の第1白線検出部で行われる処理のフローチャートである。It is a flowchart of the process performed in the 1st white line detection part of an arithmetic processing part. 演算処理部の第1駐車枠検出部で行われる処理のフローチャートである。It is a flowchart of the process performed in the 1st parking frame detection part of a calculation process part. 駐車枠を構成する駐車枠線の例を示す模式図である。It is a schematic diagram which shows the example of the parking frame line which comprises a parking frame. 演算処理部の側方進入判定部で行われる処理のフローチャートである。It is a flowchart of the process performed in the side approach determination part of an arithmetic processing part. 進行方向俯瞰画像として前方俯瞰画像が選択された状態の一例を示す図である。It is a figure which shows an example of the state as which the front bird's-eye view image was selected as a traveling direction bird's-eye view image. 演算処理部の第2白線検出部で行われる処理のフローチャートである。It is a flowchart of the process performed in the 2nd white line detection part of an arithmetic processing part. 第2白線検出部における処理に係る俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image which concerns on the process in a 2nd white line detection part. 第2白線検出部における処理について説明する図である。It is a figure explaining the process in a 2nd white line detection part. 演算処理部の第2駐車枠検出部で行われる処理のフローチャートである。It is a flowchart of the process performed in the 2nd parking frame detection part of a calculation process part. 本発明の第2実施の形態による車載画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image processing apparatus by 2nd Embodiment of this invention. 演算処理部が行う演算処理の制御ブロック図である。It is a control block diagram of the arithmetic processing which an arithmetic processing part performs. 演算処理部の画像選択部で行われる処理のフローチャートである。It is a flowchart of the process performed in the image selection part of an arithmetic processing part. 演算処理部の第1白線検出部で行われる処理のフローチャートである。It is a flowchart of the process performed in the 1st white line detection part of an arithmetic processing part. 演算処理部の第1白線検出部で行われる処理の例を示す模式図である。It is a schematic diagram which shows the example of the process performed in the 1st white line detection part of an arithmetic processing part. 本発明の第2実施の形態における前方カメラと側方カメラの処理の関係の例を示す模式図である。It is a schematic diagram which shows the example of the relationship of the process of the front camera and side camera in 2nd Embodiment of this invention. 演算処理部の側方進入判定部で行われる処理のフローチャートである。It is a flowchart of the process performed in the side approach determination part of an arithmetic processing part. 演算処理部の第2白線検出部で行われる処理のフローチャートである。It is a flowchart of the process performed in the 2nd white line detection part of an arithmetic processing part. 演算処理部の第2白線検出部で行われる処理の例を示す模式図である。It is a schematic diagram which shows the example of the process performed in the 2nd white line detection part of an arithmetic processing part. 本発明の第3実施の形態による車載画像処理装置が動作するシーンの例を示す模式図である。It is a schematic diagram which shows the example of the scene where the vehicle-mounted image processing apparatus by 3rd Embodiment of this invention operate | moves. 本発明の第3実施の形態による車載画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image processing apparatus by 3rd Embodiment of this invention. 演算処理部が行う演算処理の制御ブロック図である。It is a control block diagram of the arithmetic processing which an arithmetic processing part performs. 演算処理部の第1白線検出部で行われる処理の例を示す模式図である。It is a schematic diagram which shows the example of the process performed in the 1st white line detection part of an arithmetic processing part. 演算処理部の第1レーン検出部で行われる処理のフローチャートである。It is a flowchart of the process performed in the 1st lane detection part of an arithmetic processing part. 演算処理部の第2白線検出部で行われる処理の例を示す模式図である。It is a schematic diagram which shows the example of the process performed in the 2nd white line detection part of an arithmetic processing part. 演算処理部の第2レーン検出部で行われる処理のフローチャートである。It is a flowchart of the process performed by the 2nd lane detection part of an arithmetic processing part.

[第1の実施の形態]
図1〜13を参照して、本発明による車載画像処理装置の第1の実施の形態を説明する。図1は、本発明の一実施の形態による車載画像処理装置100の構成を示すブロック図である。図1に示す車載画像処理装置100は、車両1(図2参照)に搭載されて使用されるものであり、画像合成部2と、演算処理部3と、出力部4と、を備える。車載画像処理装置100は、不図示のコンピュータに所定の制御プログラムを実行させることにより、これらの機能を実現している。図2は、車両1に搭載されたカメラ1a〜1dにより撮影された車両周囲の撮影画像21a,21b,21c,21dと、画像合成部2により合成された俯瞰画像22との画像の例を示す図である。
[First embodiment]
With reference to FIGS. 1-13, 1st Embodiment of the vehicle-mounted image processing apparatus by this invention is described. FIG. 1 is a block diagram showing a configuration of an in-vehicle image processing apparatus 100 according to an embodiment of the present invention. An in-vehicle image processing apparatus 100 illustrated in FIG. 1 is used by being mounted on a vehicle 1 (see FIG. 2), and includes an image synthesis unit 2, an arithmetic processing unit 3, and an output unit 4. The in-vehicle image processing apparatus 100 realizes these functions by causing a computer (not shown) to execute a predetermined control program. FIG. 2 shows an example of images of captured images 21 a, 21 b, 21 c, 21 d around the vehicle captured by the cameras 1 a to 1 d mounted on the vehicle 1 and the overhead image 22 synthesized by the image composition unit 2. FIG.

車両1に搭載されたカメラ1a〜1dは、車両1の周囲をそれぞれ異なる撮影範囲で撮影する電子式カメラであり、車両1のボディ、バンパー、ドアミラー等の各部に設置されている。これらの各カメラの撮影範囲は、合わせて車両1の全周囲をカバーできるように定められている。本実施の形態では、図2に示すようにカメラ1aは車両1前方の撮影範囲を、カメラ1bは車両1左側方の撮影範囲を、カメラ1cは車両1右側方の撮影範囲を、カメラ1dは車両1後方の撮影範囲をそれぞれ撮影するものとして説明する。カメラ1a〜1dにより所定のフレームレート間隔でそれぞれ取得された撮影画像は、画像合成部2へ出力される。   Cameras 1 a to 1 d mounted on the vehicle 1 are electronic cameras that capture images of the surroundings of the vehicle 1 in different shooting ranges, and are installed in various parts of the vehicle 1 such as a body, a bumper, and a door mirror. The shooting range of each of these cameras is determined so that the entire periphery of the vehicle 1 can be covered together. In the present embodiment, as shown in FIG. 2, the camera 1a has a shooting range in front of the vehicle 1, the camera 1b has a shooting range on the left side of the vehicle 1, the camera 1c has a shooting range on the right side of the vehicle 1, and the camera 1d has A description will be given assuming that the shooting range behind the vehicle 1 is shot. The captured images respectively acquired at predetermined frame rate intervals by the cameras 1 a to 1 d are output to the image composition unit 2.

なお、本実施の形態では、4つのカメラ1a〜1dが上記のような各撮影範囲をそれぞれ撮影するものとして説明するが、車両1に搭載されるカメラの個数および撮影範囲はこれに限定されない。また、各カメラを合わせた撮影範囲は、必ずしも車両1の全周囲をカバーしていなくてもよい。車両1の周囲を適切な範囲で撮影できれば、任意の個数のカメラを用いて、任意の撮影範囲について撮影画像を取得することができる。   In the present embodiment, the four cameras 1a to 1d are described as capturing the respective shooting ranges as described above, but the number of cameras mounted on the vehicle 1 and the shooting range are not limited thereto. In addition, the shooting range including the cameras may not necessarily cover the entire periphery of the vehicle 1. If the periphery of the vehicle 1 can be photographed within an appropriate range, a photographed image can be acquired for any photographing range using any number of cameras.

図2において、紙面左側の画像21a,21b,21c,21dは、車両1に搭載されたカメラ1a〜1dで撮影して得られた車両1の周囲の撮影画像を示し、紙面右側の画像22(22a,22b,22c,22d)は俯瞰画像(オーバーヘッドビュー画像)を示している。   In FIG. 2, images 21a, 21b, 21c, and 21d on the left side of the page indicate captured images of the surroundings of the vehicle 1 obtained by shooting with cameras 1a to 1d mounted on the vehicle 1, and images 22 ( 22a, 22b, 22c, and 22d) show overhead images (overhead view images).

画像合成部2は、カメラ1a〜1dにより取得された各撮影画像21a,21b,21c,21dに基づいて、車両の全周囲を俯瞰した様子を示す俯瞰画像22を合成する。この俯瞰画像22は、カメラ1a〜1dの各撮影画像21a,21b,21c,21dをその撮影方向に応じて座標変換した上で繋ぎ合わせることによって合成されるものである。画像合成部2により合成された俯瞰画像は、演算処理部3へ出力される。   The image composition unit 2 synthesizes the bird's-eye view image 22 that shows a bird's-eye view of the entire periphery of the vehicle based on the captured images 21a, 21b, 21c, and 21d acquired by the cameras 1a to 1d. The bird's-eye view image 22 is synthesized by connecting the photographed images 21a, 21b, 21c, and 21d of the cameras 1a to 1d after coordinate conversion according to the photographing direction. The bird's-eye view image synthesized by the image synthesis unit 2 is output to the arithmetic processing unit 3.

カメラ1aにおける撮影画像21a、すなわち車両1前方の撮影画像21aから生成された俯瞰画像22aを前方俯瞰画像22aと呼ぶ。同様に車両1後方の撮影画像21dから生成された俯瞰画像22dを後方俯瞰画像22dと呼び、車両1側方の撮影画像21b,21cから生成された俯瞰画像22b,22cをそれぞれ側方俯瞰画像22b,22cと呼ぶ。   The captured image 21a in the camera 1a, that is, the overhead image 22a generated from the captured image 21a in front of the vehicle 1 is referred to as a forward overhead image 22a. Similarly, the bird's-eye view image 22d generated from the captured image 21d behind the vehicle 1 is referred to as a rear bird's-eye view image 22d, and the bird's-eye view images 22b and 22c generated from the captured images 21b and 21c on the side of the vehicle 1 are respectively side-viewed images 22b. , 22c.

俯瞰画像22は、たとえば、車両1側では車両1内に設置された表示装置1Mに表示される。俯瞰画像22が表示される領域(画像領域22F)は、車両1の前方、左側方、右側方および後方にそれぞれ対応する4つの画像領域22Fa、22Fb、22Fcおよび22Fdにより構成されている。これらの画像領域22Fに表示される各画像22a,22b,22c,22dは、上述したように、図1のカメラ1a〜1dによってそれぞれ撮影された画像に基づいて作成されたものである。各画像領域22Fa、22Fb、22Fcおよび22Fd内には、駐車枠を構成する駐車枠線23Lの一部が表示されている。   The bird's-eye view image 22 is displayed on the display device 1M installed in the vehicle 1 on the vehicle 1 side, for example. The region (image region 22F) in which the overhead image 22 is displayed is composed of four image regions 22Fa, 22Fb, 22Fc, and 22Fd corresponding to the front, left side, right side, and rear of the vehicle 1, respectively. As described above, the images 22a, 22b, 22c, and 22d displayed in these image areas 22F are created based on images taken by the cameras 1a to 1d in FIG. In each of the image areas 22Fa, 22Fb, 22Fc, and 22Fd, a part of the parking frame line 23L constituting the parking frame is displayed.

演算処理部3は、画像合成部2により合成された俯瞰画像22に基づいて所定の演算処理を行うことにより、車両周囲の駐車枠を認識する。この演算処理部3が行う演算処理の内容については、後で詳しく説明する。演算処理部3による駐車枠の認識結果は、出力部4へ出力される。   The arithmetic processing unit 3 recognizes a parking frame around the vehicle by performing a predetermined arithmetic processing based on the overhead image 22 synthesized by the image synthesizing unit 2. The contents of the arithmetic processing performed by the arithmetic processing unit 3 will be described in detail later. The recognition result of the parking frame by the arithmetic processing unit 3 is output to the output unit 4.

出力部4は、演算処理部3による駐車枠の認識結果に基づいて、車両周囲の駐車枠に対する駐車枠情報を出力する。たとえば、車両1に対する駐車枠の方向や駐車枠までの距離を示す情報を駐車枠情報として出力する。この駐車枠情報は、車載画像処理装置100と接続されている上位の車両制御装置(不図示)へと出力され、車両1の駐車支援や走行制御等に利用される。たとえば、周囲に駐車場が存在する状況であることを自動で認識し、たとえば、駐車場環境である場合には、後述する表示装置1Mに自車周囲の俯瞰映像を自動で切り替えて表示することができる。これにより、公道において駐車場であると誤検知する状況を抑制し、適切なタイミングでユーザへの提示映像を切り替えることができるようになる。   The output unit 4 outputs parking frame information for parking frames around the vehicle based on the recognition result of the parking frame by the arithmetic processing unit 3. For example, information indicating the direction of the parking frame relative to the vehicle 1 and the distance to the parking frame is output as parking frame information. This parking frame information is output to a host vehicle control device (not shown) connected to the in-vehicle image processing device 100, and is used for parking support and travel control of the vehicle 1. For example, it automatically recognizes that there is a parking lot around it, and, for example, when it is a parking lot environment, it automatically switches and displays a bird's-eye view around the vehicle on the display device 1M described later. Can do. As a result, it is possible to suppress a situation in which it is erroneously detected as a parking lot on a public road, and to switch the video presented to the user at an appropriate timing.

また,出力部4は、演算処理部3による駐車枠の認識結果に基づいて、自車からの相対的な位置情報として駐車枠情報を出力する。たとえば、駐車枠の左右枠線の端点座標,駐車枠線の角度および切片といった、実環境中における駐車枠の位置情報を出力する。この駐車枠情報は、車載用駐車枠認識装置と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、自車から駐車枠までの相対的な位置姿勢に基づいて,駐車枠までの走行経路を計算し,ドライバにブレーキやシフトポジション変更のタイミングや,舵角の操作量を通知することによって,駐車支援を行うことが可能となる。これにより、車庫入れ等の運転操作に不慣れなドライバにとっても、短時間で駐車動作が完了できるようになる。   The output unit 4 outputs parking frame information as relative position information from the own vehicle based on the recognition result of the parking frame by the arithmetic processing unit 3. For example, the position information of the parking frame in the actual environment such as the end point coordinates of the left and right frame lines of the parking frame, the angle and intercept of the parking frame line is output. This parking frame information is output to a host vehicle control device (not shown) connected to the on-vehicle parking frame recognition device, and is used for vehicle parking assistance, travel control, and the like. For example, by calculating the travel route to the parking frame based on the relative position and orientation from the vehicle to the parking frame, and notifying the driver of the timing of brake and shift position change and the amount of steering angle operation, Parking assistance can be performed. As a result, a parking operation can be completed in a short time even for a driver who is unfamiliar with driving operations such as garage entry.

さらには、自車から駐車枠までの相対的な位置姿勢に基づいて,駐車枠までの走行経路を計算し、自動で車両の前進・後退・旋回の制御量を計算し、その計算結果に従って車両運動を自動制御してもよい。これにより、車庫入れ等の運転操作に不慣れなドライバにとっても、安全かつ正確に駐車動作を完了できるようになる。   Furthermore, the travel route to the parking frame is calculated based on the relative position and orientation from the own vehicle to the parking frame, the control amount of the vehicle forward / backward / turning is automatically calculated, and the vehicle is calculated according to the calculation result. The movement may be automatically controlled. This makes it possible to complete the parking operation safely and accurately even for a driver who is unfamiliar with driving operations such as garage entry.

以上説明したような画像は、上述したように、たとえば車両1内の表示装置1Mにおいて表示される。なお、表示装置1Mに表示される画像は、俯瞰画像22に変換する前の撮影画像21a等であってもよい。この場合には、表示装置1Mに表示される画像が車両1の進行方向に応じて切り替えられることが好ましい。たとえば、車両1のシフトレバーを前進方向に切り替えたときには、車両1が前進していると判断して、カメラ1aにより撮影された車両前方の撮影画像21aが表示されるようにしてもよい。一方、車両1のシフトレバーを後退方向に切り替えたときには、車両1が後退していると判断して、カメラ1dにより撮影された車両1の後方の撮影画像21dが表示されるようにしてもよい。   As described above, the image described above is displayed on the display device 1M in the vehicle 1, for example. The image displayed on the display device 1M may be a captured image 21a before being converted into the overhead image 22. In this case, it is preferable that the image displayed on the display device 1 </ b> M is switched according to the traveling direction of the vehicle 1. For example, when the shift lever of the vehicle 1 is switched to the forward direction, it may be determined that the vehicle 1 is moving forward, and the captured image 21a in front of the vehicle captured by the camera 1a may be displayed. On the other hand, when the shift lever of the vehicle 1 is switched to the reverse direction, it may be determined that the vehicle 1 is moving backward, and a captured image 21d behind the vehicle 1 captured by the camera 1d may be displayed. .

次に、演算処理部3が行う演算処理の内容について説明する。図3は、演算処理部3が行う演算処理の制御ブロック図である。図3に示すように、演算処理部3は、画像選択部310と、第1白線検出部301と、第1駐車枠検出部302と、側方進入判定部311と、第2白線検出部303と、第2駐車枠検出部304の各制御ブロックを機能的に有する。演算処理部3では、たとえば、これらの各制御ブロックに対応してメモリに記録されているプログラムをマイクロコンピュータで実行することにより、図3の各制御ブロックを実現している。演算処理部3は、たとえば車速が所定の速度(たとえば50km/h)以下となった場合に、処理を実施する。車速が所定の速度以下となったか否かの判断は、車両側から出力される車速パルスの周期に基づいて判断してもよく、車両の不図示の制御装置から出力される車速に関する情報に基づいて判断してもよい。   Next, the contents of the arithmetic processing performed by the arithmetic processing unit 3 will be described. FIG. 3 is a control block diagram of the arithmetic processing performed by the arithmetic processing unit 3. As illustrated in FIG. 3, the arithmetic processing unit 3 includes an image selection unit 310, a first white line detection unit 301, a first parking frame detection unit 302, a side approach determination unit 311, and a second white line detection unit 303. And each control block of the 2nd parking frame detection part 304 is functionally provided. In the arithmetic processing unit 3, for example, each control block of FIG. 3 is realized by executing a program recorded in the memory corresponding to each of these control blocks by a microcomputer. The arithmetic processing unit 3 performs processing when the vehicle speed becomes equal to or lower than a predetermined speed (for example, 50 km / h), for example. The determination as to whether or not the vehicle speed is equal to or lower than a predetermined speed may be made based on the cycle of the vehicle speed pulse output from the vehicle side, or based on information about the vehicle speed output from a control device (not shown) of the vehicle. You may judge.

画像合成部2により合成された俯瞰画像は、演算処理部3において画像選択部310に入力される。画像選択部310は、自車両の進行方向に関する情報として、自車両のシフトポジションに関する情報を検出し、検出したシフトポジションに対応する進行方向(前または後)に応じた俯瞰画像を前方俯瞰画像22aおよび後方俯瞰画像22dのいずれか一方から選択し、進行方向俯瞰画像22eとして第1白線検出部301へ出力される。   The overhead image synthesized by the image synthesis unit 2 is input to the image selection unit 310 in the arithmetic processing unit 3. The image selection unit 310 detects information related to the shift position of the host vehicle as information related to the traveling direction of the host vehicle, and displays an overhead image corresponding to the traveling direction (front or rear) corresponding to the detected shift position. And the rear bird's-eye view image 22d are selected and output to the first white line detection unit 301 as the traveling direction bird's-eye view image 22e.

第1白線検出部301は、入力された進行方向俯瞰画像22eから路面に描かれた白線を検出する。すなわち、第1白線検出部301は、車両1の進行方向側で延在する白線を検出する。第1白線検出部301を進行方向白線検出部301とも呼ぶ。   The first white line detection unit 301 detects a white line drawn on the road surface from the input traveling direction overhead image 22e. That is, the first white line detection unit 301 detects a white line extending on the traveling direction side of the vehicle 1. The first white line detection unit 301 is also referred to as a traveling direction white line detection unit 301.

第1白線検出部301が行う処理内容については、後述する。なお、車速が所定の速度以下となったか否かの判断は、車両側から出力される車速パルスの周期に基づいて判断してもよく、車両の不図示の制御装置から出力される車速に関する情報に基づいて判断してもよい。第1白線検出部301による白線の検出(認識)結果は、第1駐車枠検出部302へ出力される。   Details of processing performed by the first white line detection unit 301 will be described later. The determination as to whether or not the vehicle speed is equal to or lower than a predetermined speed may be made based on the cycle of the vehicle speed pulse output from the vehicle side, and information on the vehicle speed output from a control device (not shown) of the vehicle. You may judge based on. The result of white line detection (recognition) by the first white line detection unit 301 is output to the first parking frame detection unit 302.

第1駐車枠検出部302は、第1白線検出部301による白線の抽出結果に基づいて、駐車枠を検出する。第1駐車枠検出部302が行う処理内容については、後述する。第1駐車枠検出部302による駐車枠の検出結果は、側方進入判定部311および図1の出力部4へ出力される。   The first parking frame detection unit 302 detects a parking frame based on the white line extraction result by the first white line detection unit 301. Details of processing performed by the first parking frame detection unit 302 will be described later. The detection result of the parking frame by the first parking frame detection unit 302 is output to the side approach determination unit 311 and the output unit 4 of FIG.

側方進入判定部311は、第1駐車枠検出部302が行った処理内容に基づいて、第1駐車枠検出部302で検出した駐車枠に係る白線の端部のうち、車両1の手前側に存在する白線の端部である手前側白線端部が、進行方向俯瞰画像22eと側方俯瞰画像22b,22cとの境界に達したか否かを判定する。側方進入判定部311が行う処理内容については、後述する。   The side approach determination unit 311 is based on the processing performed by the first parking frame detection unit 302, and is on the near side of the vehicle 1 among the ends of the white line related to the parking frame detected by the first parking frame detection unit 302. It is determined whether or not the front white line end that is the end of the white line that has reached the boundary between the traveling direction overhead image 22e and the side overhead images 22b and 22c. The contents of processing performed by the side entry determination unit 311 will be described later.

第2白線検出部303は、第1駐車枠検出部302および側方進入判定部311が行った処理内容に基づいて、車両1の側方の俯瞰画像22b,22cにおける白線(駐車枠線23L)の予想位置を算出し、算出した予想位置における駐車枠線23Lを検出する。第2白線検出部303を側方白線検出部303とも呼ぶ。第2白線検出部303が行う処理内容については、後述する。第2白線検出部303による白線の検出(認識)結果は、第2駐車枠検出部304へ出力される。   The second white line detection unit 303 is based on the processing contents performed by the first parking frame detection unit 302 and the side entry determination unit 311, and white lines (parking frame line 23 </ b> L) in the side-view images 22 b and 22 c on the side of the vehicle 1. Is calculated, and a parking frame line 23L at the calculated predicted position is detected. The second white line detection unit 303 is also referred to as a side white line detection unit 303. Details of processing performed by the second white line detection unit 303 will be described later. The result of white line detection (recognition) by the second white line detection unit 303 is output to the second parking frame detection unit 304.

第2駐車枠検出部304は、第1白線検出部301による白線の検出結果および第2白線検出部303の検出結果に基づいて、進行方向俯瞰画像22eに現れる駐車枠線23Lと、側方の俯瞰画像22b,22cに現れる駐車枠線23Lとから、駐車枠を検出する。第2駐車枠検出部304による駐車枠の検出結果は、図1の出力部4へ出力される。   Based on the detection result of the white line by the first white line detection unit 301 and the detection result of the second white line detection unit 303, the second parking frame detection unit 304 has a parking frame line 23L that appears in the traveling direction overhead image 22e, A parking frame is detected from the parking frame line 23L appearing in the overhead images 22b and 22c. The detection result of the parking frame by the second parking frame detection unit 304 is output to the output unit 4 of FIG.

図4は、演算処理部3の画像選択部310で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。ステップS301において、俯瞰画像22およびシフトポジションに関する情報を取得してステップS302へ進む。ステップS302において、ステップS301で取得したシフトポジションに対応する進行方向(前または後)に応じた俯瞰画像を前方俯瞰画像22aおよび後方俯瞰画像22dのいずれか一方から選択し、進行方向俯瞰画像22eとして第1白線検出部301へ出力してリターンする。   FIG. 4 is a flowchart of processing performed by the image selection unit 310 of the arithmetic processing unit 3. The process shown in this flowchart is repeatedly executed every time the arithmetic processing unit 3 performs the process. In step S301, the information regarding the bird's-eye view image 22 and the shift position is acquired, and the process proceeds to step S302. In step S302, an overhead image corresponding to the traveling direction (front or rear) corresponding to the shift position acquired in step S301 is selected from either the front overhead image 22a or the rear overhead image 22d, and is used as the traveling direction overhead image 22e. It outputs to the 1st white line detection part 301, and returns.

図5は、演算処理部3の第1白線検出部301で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。ステップS101において、画像選択部310から出力された進行方向俯瞰画像22eに対して、順次走査(プログレッシブスキャン)を行い、すべての走査線(全ライン)で横方向のエッジフィルタを適用してステップS103へ進む。   FIG. 5 is a flowchart of processing performed by the first white line detection unit 301 of the arithmetic processing unit 3. The process shown in this flowchart is repeatedly executed every time the arithmetic processing unit 3 performs the process. In step S101, the traveling direction overhead image 22e output from the image selection unit 310 is sequentially scanned (progressive scanning), and a horizontal edge filter is applied to all scanning lines (all lines). Proceed to

ステップS103において、ステップS101における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS105へ進む。ステップS105において、ステップS103における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS107へ進む。   In step S103, the rising and falling peaks of luminance are extracted from the processing result in step S101, and the process proceeds to step S105. In step S105, based on the result of the process in step S103, a process of leaving only edges that form a pair with a rising peak of luminance and a falling peak of luminance at a predetermined interval (interval corresponding to the horizontal width of the parking frame line). Go to step S107.

ステップS107において、ステップS105における処理によって残されたエッジに関し、立ち上がりのピーク同士、および立ち下がりピーク同士で、直線状に並んでいると推定されるピークをひとまとまりのグループとして関連づけるグルーピング(グループ化)を行ってステップS109へ進む。ステップS109において、ステップS107における処理によるピークの各グループに対して、ノイズの除去を目的として、各グループの長さによるフィルタリングを行う。すなわち、1つのグループを構成する直線状に並ぶピークのうち、直線の両端に相当する2つのピーク同士の間隔が所定の長さよりも長いグループだけを残す処理を行う。ステップS109における処理を実行するとステップS111へ進む。   In step S107, grouping (grouping) for associating peaks estimated to be linearly arranged between rising peaks and falling peaks with respect to the edges left by the processing in step S105. To go to step S109. In step S109, filtering is performed on each group of peaks obtained in the process in step S107 according to the length of each group in order to remove noise. That is, among the linearly arranged peaks constituting one group, only the group in which the interval between two peaks corresponding to both ends of the straight line is longer than a predetermined length is left. When the process in step S109 is executed, the process proceeds to step S111.

ステップS111において、ステップS109における処理によって残された各グループについて、立ち上がりのエッジの任意の1グループ、およびこの立ち上がりのエッジとペアをなす立ち下がりのエッジのグループにおける、直線の両端に相当する2つの端点(上端および下端)の座標をそれぞれ抽出して、第1駐車枠検出部302へ出力する。   In step S111, for each group left by the processing in step S109, two groups corresponding to both ends of a straight line in an arbitrary group of rising edges and a group of falling edges that form a pair with the rising edges. The coordinates of the end points (upper and lower ends) are extracted and output to the first parking frame detection unit 302.

図6は、演算処理部3の第1駐車枠検出部302で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。ステップS121において、第1白線検出部301から出力された情報に基づいて、任意の2本の白線(駐車枠線)に関する情報を選択してステップS123へ進む。   FIG. 6 is a flowchart of processing performed by the first parking frame detection unit 302 of the arithmetic processing unit 3. The process shown in this flowchart is repeatedly executed every time the arithmetic processing unit 3 performs the process. In step S121, based on the information output from the first white line detection unit 301, information on any two white lines (parking frame lines) is selected, and the process proceeds to step S123.

ステップS123において、ステップS121で選択した2本の白線同士の延在方向の角度差が所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS123では、2本の白線が略平行であるか否かを判断する。ステップS123が肯定判断されるとステップS125へ進み、2本の白線の間隔が所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS125では、駐車枠を構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。   In step S123, it is determined whether or not the angle difference in the extending direction between the two white lines selected in step S121 is equal to or smaller than a predetermined value (Thθmax). That is, in step S123, it is determined whether or not the two white lines are substantially parallel. If a positive determination is made in step S123, the process proceeds to step S125, and it is determined whether or not the interval between the two white lines is within a predetermined range (ThWmin or more and ThWmax or less). That is, in step S125, it is determined whether or not two white lines are arranged at an interval considered as two white lines constituting the parking frame.

ステップS125が肯定判断されるとステップS127へ進み、2本の白線の下端のずれが所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断する。ここで、2本の白線の下端のずれについて、図7を参照して説明する。図7の左図(a)に示すように、駐車場の敷地における車両1の移動方向(図7の紙面における上下方向および左右方向)に対して車両1を平行または直角に駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合、紙面における下端は、ずれない。   If an affirmative determination is made in step S125, the process proceeds to step S127, and it is determined whether or not the deviation between the lower ends of the two white lines is within a predetermined range (ThBmin or more and ThBmax or less). Here, the shift of the lower ends of the two white lines will be described with reference to FIG. As shown to the left figure (a) of FIG. 7, it parks so that the vehicle 1 may be parked in parallel or at right angles to the moving direction of the vehicle 1 in the parking lot site (vertical direction and horizontal direction on the paper surface of FIG. 7). When the frame 23 is provided and the parking frame line 23 </ b> L is drawn so as to correspond to the parking frame 23, the lower end on the paper surface does not shift.

しかし、図7の右図(b)に示すように、駐車場によっては、車両1の移動方向(図7の紙面における上下方向および左右方向)に対して車両1を平行または直角ではなく斜めに駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合がある。この場合、距離Bで示すように、駐車枠23を構成する駐車枠線23Lの下端位置がずれる。これは、図示右側の駐車枠線23Lが紙面下方の車両1が走行する領域に対してはみ出さないようにするために、駐車枠線23Lの下端位置をずらしてあるからである。   However, as shown in the right figure (b) of FIG. 7, depending on the parking lot, the vehicle 1 is not parallel or perpendicular to the moving direction of the vehicle 1 (vertical direction and horizontal direction on the paper surface of FIG. 7). A parking frame 23 may be provided so as to park, and a parking frame line 23 </ b> L may be drawn so as to correspond to the parking frame 23. In this case, as indicated by the distance B, the lower end position of the parking frame line 23L constituting the parking frame 23 is shifted. This is because the lower end position of the parking frame line 23L is shifted so that the parking frame line 23L on the right side of the drawing does not protrude from the area where the vehicle 1 travels below the page.

たとえば、高速道路のサービスエリアやパーキングエリアでは、図7の右図(b)の左側の駐車枠線23Lの下端から駐車枠線23Lの延在方向に対して垂直な線分と、駐車枠線23Lの下端同士を結ぶ線分との交差角度θが0度、30度、45度のいずれかとすることが定められている。また、駐車枠23の幅Wについても取り得る値の範囲が決まっている。そこで、本実施の形態では、上記交差角度θが、0度、30度、45度のいずれかの値であるときに取り得る距離Bの値があらかじめ不図示のメモリ等に記憶されている。   For example, in a highway service area or parking area, a line segment perpendicular to the extending direction of the parking frame line 23L from the lower end of the parking frame line 23L on the left side in FIG. It is determined that the crossing angle θ with the line connecting the lower ends of 23L is 0 degree, 30 degrees, or 45 degrees. Moreover, the range of the value which can be taken also about the width W of the parking frame 23 is decided. Therefore, in the present embodiment, the value of the distance B that can be taken when the intersection angle θ is one of 0 degree, 30 degrees, and 45 degrees is stored in advance in a memory (not shown) or the like.

本実施の形態のステップS127では、あらかじめ記憶されている上述した距離Bと、前方俯瞰画像22aから算出される距離Bとを比較して、その差が上述した所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断することによって、2本の白線が1つの駐車枠23を構成する白線(駐車枠線23L)であるか否かを判断する。   In step S127 of the present embodiment, the above-mentioned distance B stored in advance is compared with the distance B calculated from the front bird's-eye view image 22a, and the difference is within the predetermined range (ThBmin or more and ThBmax). It is determined whether or not two white lines are white lines (parking frame line 23L) constituting one parking frame 23.

ステップS127が肯定判断されるとステップS129へ進み、2本の白線で構成される矩形の駐車枠23の4隅の座標を1つの駐車枠23についての位置の情報として登録する。ステップS129を実行するとステップS131へ進み、第1白線検出部301から出力された情報に基づくすべての白線(駐車枠線)に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS131が肯定判断されると、上述した処理によって得られた結果を側方進入判定部311に出力して、リターンする。ステップS131が否定判断されるとステップS121へ戻る。   If an affirmative determination is made in step S127, the process proceeds to step S129, and the coordinates of the four corners of the rectangular parking frame 23 composed of two white lines are registered as position information for one parking frame 23. If step S129 is performed, it will progress to step S131 and it will be determined whether the process mentioned above about arbitrary two white lines was performed regarding all the white lines (parking frame line) based on the information output from the 1st white line detection part 301. Check. If an affirmative determination is made in step S131, the result obtained by the above-described processing is output to the side entry determination unit 311 and the process returns. If a negative determination is made in step S131, the process returns to step S121.

ステップS123が否定判断されるか、ステップS125が否定判断されるか、ステップS127が否定判断されるとステップS131へ進む。   If a negative determination is made in step S123, a negative determination is made in step S125, or a negative determination is made in step S127, the process proceeds to step S131.

図8は、演算処理部3の側方進入判定部311で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。ステップS311において、上述した第1駐車枠検出部302の図6におけるステップS129で登録された駐車枠23の4隅の座標に基づいて、この駐車枠23を構成する2本の駐車枠線23Lの端部のうち、車両1の手前側に存在する白線の端部である手前側白線端部23LEが進行方向俯瞰画像22eと側方俯瞰画像22b,22cとの境界28に達したか否かを判定する。たとえば図9は、車両1のシフトポジションがD(ドライブ)であって、車両1が前進していると判断されて、進行方向俯瞰画像22eとして前方俯瞰画像22aが選択された状態の一例を示す図である。なお、図9では、手前側白線端部23LEが境界28に達していない状態を示している。   FIG. 8 is a flowchart of processing performed by the side approach determination unit 311 of the arithmetic processing unit 3. The process shown in this flowchart is repeatedly executed every time the arithmetic processing unit 3 performs the process. In step S311, based on the coordinates of the four corners of the parking frame 23 registered in step S129 in FIG. 6 of the first parking frame detection unit 302 described above, the two parking frame lines 23L constituting the parking frame 23 are displayed. Whether or not the front white line end 23LE, which is the end of the white line existing on the front side of the vehicle 1 among the ends, has reached the boundary 28 between the traveling direction overhead image 22e and the side overhead images 22b and 22c. judge. For example, FIG. 9 shows an example of a state where the shift position of the vehicle 1 is D (drive), the vehicle 1 is determined to be moving forward, and the front overhead image 22a is selected as the traveling direction overhead image 22e. FIG. Note that FIG. 9 shows a state in which the front white line end portion 23LE does not reach the boundary 28.

車両1が進行することで、図示左右方向に2つ存在している手前側白線端部23LEのうちの少なくとも一方が境界28に達すると、ステップS311が肯定判断されて、ステップS312へ進む。ステップS312において、図示左右方向に2つ存在する境界28のうち、ステップS311で手前側白線端部23LEが境界28に達したと判断される方の境界28に接する側方俯瞰画像22b,22cにおいて、白線の検出処理を開始するように、第2白線検出部303へ指示を出力してリターンする。   If at least one of the two near-side white line ends 23LE existing in the left-right direction in the drawing as the vehicle 1 travels reaches the boundary 28, an affirmative determination is made in step S311 and the process proceeds to step S312. In step S312, in the side view images 22b and 22c that are in contact with the boundary 28 that is determined that the front white line end portion 23LE has reached the boundary 28 in step S311 among the two boundaries 28 in the illustrated left-right direction. Then, an instruction is output to the second white line detection unit 303 so as to start the white line detection process, and the process returns.

図示左右方向に2つ存在している手前側白線端部23LEの双方が境界28に達していない場合、ステップS311が否定判断されて、リターンする。   If both the front white line ends 23LE existing in the left-right direction in the figure do not reach the boundary 28, a negative determination is made in step S311 and the process returns.

図10は、演算処理部3の第2白線検出部303で行われる処理のフローチャートである。このフローチャートに示す処理は、たとえば側方進入判定部311から白線の検出処理を開始する指示が入力されると、第2白線検出部303において繰り返し実行される。なお、第2白線検出部303で行われる処理によって、側方俯瞰画像22b,22cに表示されている駐車枠線23L(たとえば、図11の俯瞰画像22b,22cに現れている駐車枠線23L)を検出する。   FIG. 10 is a flowchart of processing performed by the second white line detection unit 303 of the arithmetic processing unit 3. The process shown in this flowchart is repeatedly executed by the second white line detection unit 303 when, for example, an instruction to start the white line detection process is input from the side approach determination unit 311. Note that the parking frame line 23L displayed on the side overhead images 22b and 22c (for example, the parking frame line 23L appearing on the overhead images 22b and 22c in FIG. 11) by the processing performed by the second white line detection unit 303. Is detected.

ステップS141において、側方俯瞰画像22b,22cに対して、走査されるラインを間引くために飛び越し走査(インターレススキャン)を行う。このような間引かれた走査を行い、すべての走査線、すなわち間引かれなかったライン(飛び越し走査によって得られた、たとえば1フィールド分)に対して横方向のエッジフィルタを適用する。   In step S141, interlaced scanning is performed on the side overhead images 22b and 22c to thin out the scanned lines. Such thinned-out scanning is performed, and a horizontal edge filter is applied to all the scanning lines, that is, the lines that are not thinned out (for example, one field obtained by interlaced scanning).

このように、飛び越し走査によって得られた、たとえば1フィールド分に対してだけ横方向のエッジフィルタを適用することで、側方俯瞰画像22b,22cに対する白線検出処理の負荷を減らすことができる。   As described above, by applying the edge filter in the horizontal direction only to one field, for example, obtained by interlaced scanning, it is possible to reduce the load of white line detection processing on the side overhead images 22b and 22c.

なお、後述する図12では、上述した飛び越し走査に係る走査線26を模式的に示している。ステップS141を実行するとステップS143へ進む。   In addition, in FIG. 12 mentioned later, the scanning line 26 which concerns on the interlace scanning mentioned above is shown typically. If step S141 is performed, it will progress to step S143.

ステップS143において、ステップS141における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS145へ進む。ステップS145において、ステップS143における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS147へ進む。   In step S143, the rise and fall peaks of the luminance are extracted from the processing result in step S141, and the process proceeds to step S145. In step S145, from the result of the process in step S143, a process of leaving only edges that are paired with a luminance rising peak and a luminance falling peak at a predetermined interval (an interval corresponding to the width of the parking frame line). Go to step S147.

ステップS147において、第1駐車枠検出部302で登録した駐車枠23についての位置の情報に基づいて、駐車枠線23Lの延長線を側方俯瞰画像22b,22cの領域に延ばす。たとえば、図11に示すように、第1駐車枠検出部302で認識した駐車枠23を構成する駐車枠線23Lについての情報から、側方俯瞰画像22b,22cの領域に延在する駐車枠線23Lの延長線25を算出する。なお、図11に図示した例では、駐車枠線23Lの延在方向の中心線を延長線25として延ばしている。   In step S147, the extended line of the parking frame line 23L is extended to the regions of the side overhead images 22b and 22c based on the position information about the parking frame 23 registered by the first parking frame detection unit 302. For example, as shown in FIG. 11, the parking frame line extending from the information about the parking frame line 23 </ b> L constituting the parking frame 23 recognized by the first parking frame detection unit 302 to the area of the side overhead images 22 b and 22 c. An extension line 25 of 23L is calculated. In the example illustrated in FIG. 11, the center line in the extending direction of the parking frame line 23 </ b> L is extended as the extension line 25.

ステップS147が実行されるとステップS149へ進み、飛び越し走査に係る各ライン(各走査線26)とステップS147で算出した延長線25との交点を算出する。すなわち、図12における俯瞰画像22b,22cに示すように、各走査線26と延長線25との交点27を算出する。なお、図11や図12で示している延長線25,走査線26および交点27は、説明の便宜のために図中に表しているだけであり、表示装置1Mに表示される画像には、延長線25,走査線26および交点27は表示されない。   When step S147 is executed, the process proceeds to step S149, and the intersection of each line (each scanning line 26) related to interlaced scanning and the extension line 25 calculated in step S147 is calculated. That is, as shown in the bird's-eye view images 22b and 22c in FIG. 12, the intersection 27 of each scanning line 26 and the extension line 25 is calculated. Note that the extension line 25, the scanning line 26, and the intersection point 27 shown in FIG. 11 and FIG. 12 are only shown in the figure for convenience of explanation, and the image displayed on the display device 1M includes The extension line 25, the scanning line 26, and the intersection point 27 are not displayed.

ステップS149が実行されるとステップS151へ進み、各走査線26上で各交点27の近傍(駐車枠線23Lの幅方向に相当する所定の範囲内)に、輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジが存在するか否かを確認してステップS153へ進む。   When step S149 is executed, the process proceeds to step S151. On each scanning line 26, in the vicinity of each intersection point 27 (within a predetermined range corresponding to the width direction of the parking frame line 23L), the rising peak of luminance and the rising edge of luminance are detected. It is confirmed whether or not there is an edge that forms a pair with the falling peak, and the process proceeds to step S153.

ステップS153において、一番上のライン、すなわち、図12における図示上方の走査線26から順に交点27を辿り、ステップS151で存在を確認したエッジのペアが存在しなかった交点27を特定し、特定した交点27の1つ上の走査線26上の交点27を白線の下端、すなわち駐車枠線23Lの下端として、この交点27の座標を抽出し、第2駐車枠検出部304へ出力する。   In step S153, the intersection 27 is sequentially traced from the uppermost line, that is, the scanning line 26 in the upper part of FIG. 12, and the intersection 27 where the edge pair confirmed to exist in step S151 does not exist is identified and identified. The intersection 27 on the scanning line 26 immediately above the intersection 27 is set as the lower end of the white line, that is, the lower end of the parking frame line 23L, and the coordinates of the intersection 27 are extracted and output to the second parking frame detection unit 304.

図13は、演算処理部3の第2駐車枠検出部304で行われる処理のフローチャートである。このフローチャートに示す処理は、たとえば、上述した第2白線検出部303における白線検出処理が実施されると、第2駐車枠検出部304において実行される。ステップS161において、上述した第2白線検出部303で白線検出を実施したか否かを判断する。ステップS161は肯定判断されるとステップS163へ進む。   FIG. 13 is a flowchart of processing performed by the second parking frame detection unit 304 of the arithmetic processing unit 3. For example, when the white line detection process in the second white line detection unit 303 described above is performed, the process shown in this flowchart is executed in the second parking frame detection unit 304. In step S161, it is determined whether or not the above-described second white line detection unit 303 has performed white line detection. If a positive determination is made in step S161, the process proceeds to step S163.

ステップS163において、第1白線検出部301で検出された白線の下端を、第2白線検出部303で検出した駐車枠線23Lの下端と置き換えて、進行方向俯瞰画像22eと側方俯瞰画像22b,22cとにまたがった白線が、たとえば図12における右側と左側のそれぞれ1本の駐車枠線23Lであると判定し、これら2本の白線によって1つの駐車枠23が構成されるものとして、この駐車枠23の位置の情報を登録する。そして登録した情報を出力部4へ出力してリターンする。   In step S163, the lower end of the white line detected by the first white line detection unit 301 is replaced with the lower end of the parking frame line 23L detected by the second white line detection unit 303, and the traveling direction overhead image 22e and the side overhead image 22b, It is determined that the white line extending over 22c is, for example, one parking frame line 23L on each of the right side and the left side in FIG. 12, and it is assumed that one parking frame 23 is configured by these two white lines. Information on the position of the frame 23 is registered. The registered information is output to the output unit 4 and the process returns.

ステップS161が否定判断されるとリターンする。   If a negative determination is made in step S161, the process returns.

上述した本実施の形態によれば、次の作用効果を奏する。
(1) 第1白線検出部301で検出した手前側白線端部23LEが進行方向俯瞰画像22eと側方俯瞰画像22b,22cとの境界28に達したか否かを判定するように、側方進入判定部311を構成した。そして、側方進入判定部311で、手前側白線端部23LEが境界28に達したと判定されると、側方俯瞰画像22b,22cから白線を検出するように、第2白線検出部303を構成した。これにより、進行方向俯瞰画像22eと側方俯瞰画像22b,22cとにまたがった駐車枠線23Lであっても駐車枠線23Lを正しく認識できるので、車両1およびドライバに対して提供される駐車枠23に関する情報を適切化できる。
According to the above-described embodiment, the following operational effects can be obtained.
(1) The side of the front white line end 23LE detected by the first white line detection unit 301 is determined so as to determine whether or not the boundary 28 between the traveling direction overhead image 22e and the side overhead images 22b and 22c has been reached. An approach determination unit 311 is configured. Then, when the side approach determination unit 311 determines that the front white line end 23LE has reached the boundary 28, the second white line detection unit 303 is configured to detect the white line from the side overhead images 22b and 22c. Configured. Accordingly, the parking frame line 23L can be correctly recognized even if the parking frame line 23L spans the traveling direction overhead image 22e and the side overhead images 22b and 22c, so that the parking frame provided to the vehicle 1 and the driver is provided. 23 information can be optimized.

(2) 第1駐車枠検出部302で検出された駐車枠23に係る白線の延在方向に関する情報に基づいて白線を検出するように第2白線検出部303を構成した。これにより、側方俯瞰画像22b,22cにおける白線の位置を予測できるので、飛び越し走査した場合であっても側方俯瞰画像22b,22cにおける白線を検出できる。したがって、第2白線検出部303における白線検出処理の負荷を減らすことができ、第2白線検出部303に係る演算装置の性能を必要以上に要求しなくて済むため、車載画像処理装置100のコストダウンに貢献できる。 (2) The second white line detection unit 303 is configured to detect a white line based on the information regarding the extending direction of the white line related to the parking frame 23 detected by the first parking frame detection unit 302. Thereby, since the position of the white line in the side overhead images 22b and 22c can be predicted, the white line in the side overhead images 22b and 22c can be detected even when the interlaced scanning is performed. Therefore, the load of the white line detection processing in the second white line detection unit 303 can be reduced, and the performance of the arithmetic device related to the second white line detection unit 303 does not need to be requested more than necessary. Can contribute to down.

(3) より具体的には、第1駐車枠検出部302で認識した駐車枠23を構成する駐車枠線23Lについての情報から、側方俯瞰画像22b,22cの領域に延在する駐車枠線23Lの延長線25を算出するように構成した。そして、延長線25と飛び越し走査に係る各ライン(各走査線26)との交点を算出するように構成した。また、各交点27の近傍に、輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジが存在するか否かを確認するように構成した。これにより、進行方向俯瞰画像22eと側方俯瞰画像22b,22cとにまたがって存在する白線を容易に検出できるので、第2白線検出部303における白線検出処理の負荷を減らすことができ、第2白線検出部303に係る演算装置の性能を必要以上に要求しなくて済むため、車載画像処理装置100のコストダウンに貢献できる。 (3) More specifically, a parking frame line extending from the information about the parking frame line 23L constituting the parking frame 23 recognized by the first parking frame detection unit 302 to the area of the side overhead images 22b and 22c. It was configured to calculate an extension line 25 of 23L. And it was comprised so that the intersection of the extended line 25 and each line (each scanning line 26) concerning an interlaced scan might be calculated. In addition, it is configured to check whether or not there is an edge formed as a pair by the rising peak of luminance and the falling peak of luminance near each intersection 27. This makes it possible to easily detect a white line that extends over the traveling direction bird's-eye view image 22e and the side bird's-eye view images 22b and 22c, thereby reducing the load of white line detection processing in the second white line detection unit 303. Since it is not necessary to request the performance of the arithmetic device related to the white line detection unit 303 more than necessary, it is possible to contribute to the cost reduction of the in-vehicle image processing device 100.

(4) 第1白線検出部301による行方向俯瞰画像22eの走査については順次走査を行い、第2白線検出部303による側方俯瞰画像22b,22cの走査については飛び越し走査を行うように構成した。すなわち、第2白線検出部303による側方俯瞰画像22b,22cの走査密度が、第1白線検出部301による行方向俯瞰画像22eの走査密度よりも粗くなるように構成した。これにより、白線検出に係る処理速度を向上できるので、遅滞なく白線検出ができ、ひいては、遅滞なく駐車枠に関する情報を出力できる。したがって、駐車枠に関する情報を用いた車両1側での処理時間を短縮でき、駐車枠に関する情報を用いた車両1の制御に資する。 (4) The scanning of the row direction overhead image 22e by the first white line detection unit 301 is sequentially performed, and the scanning of the side overhead images 22b and 22c by the second white line detection unit 303 is performed by interlaced scanning. . That is, the scanning density of the side overhead images 22b and 22c by the second white line detection unit 303 is configured to be coarser than the scanning density of the row direction overhead image 22e by the first white line detection unit 301. Thereby, since the processing speed concerning a white line detection can be improved, a white line can be detected without delay, and the information regarding a parking frame can be output without delay. Therefore, the processing time on the vehicle 1 side using the information about the parking frame can be shortened, which contributes to the control of the vehicle 1 using the information about the parking frame.

[第2の実施の形態]
次に、本発明の第2の実施の形態について図14から図22を参照しつつ以下に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described below with reference to FIGS.

図14は、第2実施の形態にかかわる外界認識装置200の構成を説明するブロック図である。図14に示す車載画像処理装置200は、車両1に搭載されて使用されるものであり、演算処理部31と、出力部4と、を備える。なお、第1の実施の形態と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。   FIG. 14 is a block diagram illustrating the configuration of an external environment recognition apparatus 200 according to the second embodiment. An in-vehicle image processing device 200 shown in FIG. 14 is used by being mounted on the vehicle 1, and includes an arithmetic processing unit 31 and an output unit 4. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

本実施の形態において特徴的なことは、画像合成部2を用いず、演算処理部31で直接画像処理を実施していることである。   What is characteristic in the present embodiment is that the image processing unit 31 directly performs image processing without using the image synthesis unit 2.

演算処理部31が行う演算処理の内容について説明する。図15は、演算処理部31が行う演算処理の制御ブロック図である。図12に示すように、演算処理部31は、画像選択部361と、第1白線検出部311と、第1駐車枠検出部302と、側方進入判定部362と、第2白線検出部313と、第2駐車枠検出部304の各制御ブロックを機能的に有する。演算処理部31は、車両に取り付けたカメラ1a〜1dから取得される画像21a〜21dのうち、第1白線検出部311において前方カメラ画像21a、第2白線検出部にて右側方カメラ画像21b、左側方カメラ画像21cを用いる。演算処理部31では、たとえば、これらの各制御ブロックに対応してメモリに記録されているプログラムをマイクロコンピュータで実行することにより、図12の各制御ブロックを実現している。演算処理部31は、たとえば車速が所定の速度(たとえば50km/h)以下となった場合に、処理を実施する。車速が所定の速度以下となったか否かの判断は、車両側から出力される車速パルスの周期に基づいて判断してもよく、車両の不図示の制御装置から出力される車速に関する情報に基づいて判断してもよい。演算処理部31による駐車枠の認識結果は、出力部4へ出力される。   The contents of the arithmetic processing performed by the arithmetic processing unit 31 will be described. FIG. 15 is a control block diagram of arithmetic processing performed by the arithmetic processing unit 31. As illustrated in FIG. 12, the arithmetic processing unit 31 includes an image selection unit 361, a first white line detection unit 311, a first parking frame detection unit 302, a side approach determination unit 362, and a second white line detection unit 313. And each control block of the 2nd parking frame detection part 304 is functionally provided. Among the images 21a to 21d acquired from the cameras 1a to 1d attached to the vehicle, the arithmetic processing unit 31 includes a front camera image 21a in the first white line detector 311 and a right camera image 21b in the second white line detector. A left-side camera image 21c is used. In the arithmetic processing unit 31, for example, each control block of FIG. 12 is realized by executing a program recorded in the memory corresponding to each of these control blocks by a microcomputer. The arithmetic processing unit 31 performs processing when the vehicle speed becomes equal to or lower than a predetermined speed (for example, 50 km / h), for example. The determination as to whether or not the vehicle speed is equal to or lower than a predetermined speed may be made based on the cycle of the vehicle speed pulse output from the vehicle side, or based on information about the vehicle speed output from a control device (not shown) of the vehicle. You may judge. The recognition result of the parking frame by the arithmetic processing unit 31 is output to the output unit 4.

前方カメラ画像21a、後方カメラ画像21dは、演算処理部3において画像選択部361に入力される。画像選択部361は、自車両の進行方向に関する情報として、自車両のシフトポジションに関する情報を検出し、検出したシフトポジションに対応する進行方向(前または後)に応じたカメラ画像を前方カメラ画像21aおよび後方カメラ画像21dのいずれか一方から選択し、進行方向カメラ画像21eとして第1白線検出部311へ出力される。   The front camera image 21 a and the rear camera image 21 d are input to the image selection unit 361 in the arithmetic processing unit 3. The image selection unit 361 detects information on the shift position of the host vehicle as information on the traveling direction of the host vehicle, and displays a camera image corresponding to the traveling direction (front or rear) corresponding to the detected shift position as the front camera image 21a. And either one of the rear camera image 21d and the rear camera image 21d are output to the first white line detection unit 311 as the traveling direction camera image 21e.

第1白線検出部311は、前方カメラ画像21aを入力し、路面に描かれた白線を検出する。第1白線検出部311が行う処理内容については、後述する。第1白線検出部311による白線の検出(認識)結果は、第1駐車枠検出部302へ出力される。   The first white line detection unit 311 receives the front camera image 21a and detects a white line drawn on the road surface. Details of processing performed by the first white line detection unit 311 will be described later. The result of white line detection (recognition) by the first white line detection unit 311 is output to the first parking frame detection unit 302.

第2白線検出部313は、第1駐車枠検出部302が行った処理内容に基づいて、右側方カメラ画像21b、左側方カメラ画像21cにおける白線の予想位置を算出し、算出した予想位置における駐車枠線を検出する。第2白線検出部313が行う処理内容については、後述する。第2白線検出部313による白線の検出(認識)結果は、側方進入判定部362および図14のへ出力部4へ出力される。   The second white line detection unit 313 calculates the predicted position of the white line in the right-side camera image 21b and the left-side camera image 21c based on the processing content performed by the first parking frame detection unit 302, and parks at the calculated predicted position. Detect borders. Details of processing performed by the second white line detection unit 313 will be described later. The result of white line detection (recognition) by the second white line detection unit 313 is output to the side approach determination unit 362 and the output unit 4 in FIG.

側方進入判定部362は、第1駐車枠検出部302が行った処理内容に基づいて、第1駐車枠検出部302で検出した駐車枠に係る白線の端部のうち、車両1の手前側に存在する白線の端部である手前側白線端部41LaE,41LbEが、進行方向カメラ画像21eと側方カメラ画像21b,21cとの境界46L、46Rに達したか否かを判定する。側方進入判定部362が行う処理内容については、後述する。   The side approach determination unit 362 is based on the processing performed by the first parking frame detection unit 302, and is on the near side of the vehicle 1 among the ends of the white lines related to the parking frame detected by the first parking frame detection unit 302. It is determined whether or not the front white line ends 41LaE and 41LbE, which are the ends of the white lines existing in, have reached the boundaries 46L and 46R between the traveling direction camera image 21e and the side camera images 21b and 21c. The processing content performed by the side approach determination unit 362 will be described later.

図17は、演算処理部31の第1白線検出部311で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部31が処理を実施する度に、繰り返し実行される。ステップS201において、車両1の進行方向カメラ画像21eに対して、処理ラインを設定する。処理ラインの設定の例について、図18を用いて説明する。図18(a)は、進行方向カメラ画像21eの一例である。この画像に対して、処理ライン42を設定する。図18(b)はラインを均等に画面全体に適用した場合の一例である。このほかにも、過去の白線や駐車枠の検出結果に基づいて設定したり、自車の挙動に基づいて設定する方法等が考えられるが、ここでは説明を割愛する。   FIG. 17 is a flowchart of processing performed by the first white line detection unit 311 of the arithmetic processing unit 31. The processing shown in this flowchart is repeatedly executed every time the arithmetic processing unit 31 performs processing. In step S201, a processing line is set for the traveling direction camera image 21e of the vehicle 1. An example of processing line setting will be described with reference to FIG. FIG. 18A is an example of the traveling direction camera image 21e. A processing line 42 is set for this image. FIG. 18B shows an example in which lines are equally applied to the entire screen. In addition to this, a method of setting based on the detection result of the past white line or parking frame, a method of setting based on the behavior of the own vehicle, and the like can be considered, but the description is omitted here.

ステップS203において、ステップS201にて設定したすべての処理ラインに対して横方向のエッジフィルタを適用してステップS205へ進む。ステップS205において、ステップS203における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS207へ進む。ステップS207において、ステップS205における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS209へ進む。   In step S203, the horizontal edge filter is applied to all the processing lines set in step S201, and the process proceeds to step S205. In step S205, the rising and falling peaks of luminance are extracted from the processing result in step S203, and the process proceeds to step S207. In step S207, based on the result of the process in step S205, a process of leaving only edges that form a pair with a rising peak of luminance and a falling peak of luminance at a predetermined interval (an interval corresponding to the horizontal width of the parking frame line). Go to step S209.

ステップS209において、ステップS207における処理によって残されたエッジに関し、立ち上がりのピーク同士、および立ち下がりピーク同士で、直線状に並んでいると推定されるピークをひとまとまりのグループとして関連づけるグルーピング(グループ化)を行う。ここで、本実施例ではカメラ画像をそのまま用いているため、エッジのピークは第1の実施例のように画像上で直線上に並ばない。そこで、本実施例では、カメラ幾何情報を用いてすべてのエッジ点を世界座標へ変換し、世界座標上でグルーピングを実施する。グルーピング後、ステップS211へ進む。ステップS211において、ステップS209における処理によるピークの各グループに対して、ノイズの除去を目的として、各グループの長さによるフィルタリングを行う。すなわち、1つのグループを構成する直線状に並ぶピークのうち、直線の両端に相当する2つのピーク同士の間隔が所定の長さよりも長いグループだけを残す処理を行う。ステップS211における処理を実行するとステップS213へ進む。   In step S209, with respect to the edge left by the processing in step S207, grouping (grouping) that associates peaks estimated to be linearly arranged between rising peaks and falling peaks as a group. I do. Here, since the camera image is used as it is in the present embodiment, the peak of the edge is not aligned on the straight line on the image as in the first embodiment. Therefore, in this embodiment, all edge points are converted into world coordinates using camera geometric information, and grouping is performed on the world coordinates. After grouping, the process proceeds to step S211. In step S211, filtering is performed on each group of peaks obtained by the processing in step S209 according to the length of each group in order to remove noise. That is, among the linearly arranged peaks constituting one group, only the group in which the interval between two peaks corresponding to both ends of the straight line is longer than a predetermined length is left. When the process in step S211 is executed, the process proceeds to step S213.

ステップS213において、ステップS211における処理によって残された各グループについて、立ち上がりのエッジの任意の1グループ、およびこの立ち上がりのエッジとペアをなす立ち下がりのエッジのグループにおける、直線の両端に相当する2つの端点(上端および下端)の座標をそれぞれ抽出して、側方進入判定部362へ出力する。   In step S213, for each group left by the processing in step S211, two groups corresponding to both ends of the straight line in an arbitrary group of rising edges and a group of falling edges paired with the rising edges. The coordinates of the end points (upper end and lower end) are extracted and output to the side approach determination unit 362.

図20は、演算処理部31の側方進入判定部362で行われる処理のフローチャートである。ステップS362において、上述した第1駐車枠検出部302の図6におけるステップS129で登録された駐車枠23の4隅の座標に基づいて、この駐車枠23を構成する2本の駐車枠線41La,41Lbの端部のうち、車両1の手前側に存在する白線の端部である手前側白線端部41LaE,41LbEが進行方向カメラ画像21eと側方カメラ画像21b,21cとの境界46L,46Rに達したか否かを判定する。たとえば図19は、車両1のシフトポジションがD(ドライブ)であって、車両1が前進していると判断されて、進行方向カメラ画像21eとして前方カメラ画像21aが選択された状態の一例を示す図である。なお、図19では、手前側白線端部41LaE,41LbEが境界46L,46Rに達していない状態を示している。   FIG. 20 is a flowchart of processing performed by the side approach determination unit 362 of the arithmetic processing unit 31. In step S362, based on the coordinates of the four corners of the parking frame 23 registered in step S129 in FIG. 6 of the first parking frame detection unit 302 described above, the two parking frame lines 41La constituting the parking frame 23, Among the end portions of 41Lb, the front side white line end portions 41LaE and 41LbE, which are the end portions of the white line existing on the front side of the vehicle 1, are at the boundaries 46L and 46R between the traveling direction camera image 21e and the side camera images 21b and 21c. It is determined whether it has been reached. For example, FIG. 19 shows an example of a state where the shift position of the vehicle 1 is D (drive), the vehicle 1 is determined to be moving forward, and the front camera image 21a is selected as the traveling direction camera image 21e. FIG. FIG. 19 shows a state in which the front white line end portions 41LaE and 41LbE have not reached the boundaries 46L and 46R.

車両1が進行することで、図示左右方向に2つ存在している手前側白線端部23LEのうちの少なくとも一方が境界46L,46Rに達すると、ステップS521が肯定判断されて、ステップS523へ進む。ステップS523において、図示左右方向に2つ存在する境界46L,46Rのうち、ステップS521で手前側白線端部41LaE,41LbEが境界46L,46Rに達したと判断される方の境界46L,46Rに接する側方カメラ画像21b,21cにおいて、白線の検出処理を開始するように、第2白線検出部313へ指示を出力してリターンする。   When at least one of the two front side white line ends 23LE existing in the left-right direction in the drawing reaches the boundaries 46L and 46R as the vehicle 1 advances, an affirmative determination is made in step S521 and the process proceeds to step S523. . In step S523, of the two borders 46L and 46R existing in the horizontal direction in the figure, the front white line ends 41LaE and 41LbE touch the borders 46L and 46R that are determined to have reached the borders 46L and 46R in step S521. In the side camera images 21b and 21c, an instruction is output to the second white line detection unit 313 so as to start the white line detection process, and the process returns.

図示左右方向に2つ存在している手前側白線端部41LaE,41LbEの双方が境界46L,46Rに達していない場合、ステップS311が否定判断されて、リターンする。   If both of the front white line ends 41LaE and 41LbE existing in the left-right direction in the figure do not reach the boundaries 46L and 46R, a negative determination is made in step S311 and the process returns.

図21は、演算処理部31の第2白線検出部313で行われる処理のフローチャートである。このフローチャートに示す処理は、たとえば側方進入判定部362から白線の検出処理を開始する指示が入力されると、第2白線検出部313において繰り返し実行される。なお、第2白線検出部313で行われる処理によって、車両1側方のカメラ画像21b,21cに表示されている駐車枠線41Lc(たとえば、図19に現れている駐車枠線41Lc)を検出する。以下、このフローチャートを用いて左側方カメラ画像21bに関する処理を説明するが、右側方カメラ画像21cに対する処理も同様である。   FIG. 21 is a flowchart of processing performed by the second white line detection unit 313 of the arithmetic processing unit 31. The process shown in this flowchart is repeatedly executed by the second white line detection unit 313 when an instruction to start the white line detection process is input from the side approach determination unit 362, for example. Note that the parking frame line 41Lc (for example, the parking frame line 41Lc appearing in FIG. 19) displayed in the camera images 21b and 21c on the side of the vehicle 1 is detected by the processing performed by the second white line detection unit 313. . Hereinafter, the processing related to the left-side camera image 21b will be described using this flowchart, but the processing for the right-side camera image 21c is also the same.

ステップS221において、第1駐車枠検出部302で登録した駐車枠23についての位置の情報に基づいて、側方カメラ画像21b,21cにおいて存在すると予測される駐車枠線43Lの予想位置を算出する。図22に示すのは左側方カメラ画像21bに対する処理の例である。以下、図に基づいて説明する。図に示すように、第1駐車枠検出部302にて認識した駐車枠23を構成する線41Lbについての情報から、側方カメラ画像21b,21cにおいて存在すると予測される駐車枠線41Lbの予想位置を示す仮想線43Lを算出する。   In step S221, the predicted position of the parking frame line 43L that is predicted to exist in the side camera images 21b and 21c is calculated based on the position information about the parking frame 23 registered by the first parking frame detection unit 302. FIG. 22 shows an example of processing for the left-side camera image 21b. Hereinafter, a description will be given based on the drawings. As shown in the figure, the predicted position of the parking frame line 41Lb that is predicted to exist in the side camera images 21b and 21c from the information about the line 41Lb constituting the parking frame 23 recognized by the first parking frame detection unit 302. An imaginary line 43L is calculated.

ステップS223において、仮想線43Lを、カメラ幾何情報を用いて側方画像21b上へ重畳し、その線の周囲に処理ライン44Lを設定する。   In step S223, the virtual line 43L is superimposed on the side image 21b using the camera geometric information, and a processing line 44L is set around the line.

ステップS225において、ステップS223において設定した処理ラインに対して横方向のエッジフィルタを適用する。
このように、処理ライン42よりY方向の間隔が疎な横方向のエッジフィルタを適用することで、側方カメラ画像21b,21cに対する白線検出処理の負荷を減らすことができる。
In step S225, a lateral edge filter is applied to the processing line set in step S223.
In this way, by applying a lateral edge filter whose Y-direction spacing is sparser than the processing line 42, it is possible to reduce the load of white line detection processing on the side camera images 21b and 21c.

ステップS227において、ステップS225における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS229へ進む。ステップS229において、ステップS227における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS231へ進む。   In step S227, the rise and fall peaks of the luminance are extracted from the processing result in step S225, and the process proceeds to step S229. In step S229, from the result of the process in step S227, a process of leaving only edges that form a pair with a rising peak of luminance and a falling peak of luminance at a predetermined interval (interval corresponding to the horizontal width of the parking frame line). Go to step S231.

ステップS231において、各処理ライン44と仮想線43の各交点45の近傍に存在している輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジペアを抽出する。   In step S <b> 231, an edge pair is extracted that is formed as a pair by the rising peak of luminance and the falling peak of luminance existing in the vicinity of each intersection 45 of each processing line 44 and virtual line 43.

ステップS233において、延長予測線43Lと、ライン43Lの交点47Lから、順次処理エリアを探索し、エッジペアが存在するか否かを判定する。エッジペアが存在しなかった、もしくは最終ラインまで探索に成功したら、そのラインで処理を終了し、ステップS235へ移る。そして、ステップS235において、ステップS233において、交点47Lと探索を終了した点の一つ手前の点を白線として登録する。   In step S233, the processing area is sequentially searched from the extended prediction line 43L and the intersection 47L of the line 43L to determine whether or not an edge pair exists. If the edge pair does not exist or if the search is successful up to the final line, the process is terminated on that line, and the process proceeds to step S235. In step S235, in step S233, the intersection 47L and the point immediately before the point at which the search is completed are registered as white lines.

[第3の実施の形態]
次に、本発明の第3の実施の形態について図23から図29を参照しつつ以下に説明する。
[Third embodiment]
Next, a third embodiment of the present invention will be described below with reference to FIGS.

図24は、第3の実施の形態にかかわる外界認識装置300の構成を説明するブロック図である。図24に示す車載画像処理装置300は、車両1に搭載されて使用されるものであり、演算処理部32と、出力部4と、を備える。なお、第1実施の形態および第2実施の形態と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。   FIG. 24 is a block diagram illustrating the configuration of an external environment recognition device 300 according to the third embodiment. An in-vehicle image processing device 300 shown in FIG. 24 is used by being mounted on the vehicle 1, and includes an arithmetic processing unit 32 and an output unit 4. The same components as those in the first embodiment and the second embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

本実施の形態において特徴的なことは、駐車枠ではなく、白線抽出結果から走行レーンを検出していることである。図23(a)に示すように、自車1がレーンを逸脱しそうな場合、実際に前輪がレーンを跨いだか否かは、サイドカメラで確認するほうが望ましく、
本実施例はこのような場合に側方カメラを用いて前輪が車線を逸脱するタイミングを正確に認識するものである。
What is characteristic in the present embodiment is that the traveling lane is detected from the white line extraction result instead of the parking frame. As shown in FIG. 23 (a), when the vehicle 1 is likely to deviate from the lane, it is preferable to check with the side camera whether the front wheels actually crossed the lane.
In this case, the present embodiment accurately recognizes the timing at which the front wheels depart from the lane using the side camera.

演算処理部32が行う演算処理の内容について説明する。図24は、演算処理部32が行う演算処理の制御ブロック図である。図24に示すように、演算処理部32は、第1白線検出部311と、第1レーン検出部322と、第2白線検出部313と、第2レーン検出部324の各制御ブロックを機能的に有する。演算処理部32は、車両に取り付けたカメラ1a〜1dから取得される画像21a〜21dのうち、第1白線検出部311において前方カメラ画像21a、第2白線検出部にて右側方カメラ画像21b、左側方カメラ画像21cを用いる。演算処理部32では、たとえば、これらの各制御ブロックに対応してメモリに記録されているプログラムをマイクロコンピュータで実行することにより、図20の各制御ブロックを実現している。演算処理部32は、たとえば車速が所定の速度(たとえば40km/h)以上となった場合に、処理を実施する。車速が所定の速度以下となったか否かの判断は、車両側から出力される車速パルスの周期に基づいて判断してもよく、車両の不図示の制御装置から出力される車速に関する情報に基づいて判断してもよい。演算処理部32による駐車枠の認識結果は、出力部4へ出力され、例えばレーン逸脱警報等に用いられる。   The contents of the arithmetic processing performed by the arithmetic processing unit 32 will be described. FIG. 24 is a control block diagram of the arithmetic processing performed by the arithmetic processing unit 32. As shown in FIG. 24, the arithmetic processing unit 32 functionally controls each control block of the first white line detection unit 311, the first lane detection unit 322, the second white line detection unit 313, and the second lane detection unit 324. Have. Among the images 21a to 21d acquired from the cameras 1a to 1d attached to the vehicle, the arithmetic processing unit 32 includes a front camera image 21a in the first white line detector 311 and a right camera image 21b in the second white line detector. A left-side camera image 21c is used. In the arithmetic processing unit 32, for example, each control block of FIG. 20 is realized by executing a program recorded in a memory corresponding to each of these control blocks with a microcomputer. The arithmetic processing unit 32 performs the process when the vehicle speed becomes equal to or higher than a predetermined speed (for example, 40 km / h), for example. The determination as to whether or not the vehicle speed is equal to or lower than a predetermined speed may be made based on the cycle of the vehicle speed pulse output from the vehicle side, or based on information about the vehicle speed output from a control device (not shown) of the vehicle. You may judge. The recognition result of the parking frame by the arithmetic processing unit 32 is output to the output unit 4 and used for, for example, a lane departure warning.

第3実施の形態における第1の白線抽出部311の処理は第2実施の形態で説明したフローと同一であるため詳細な説明は割愛する。図26(a)に示すように、前方カメラ画像21aに写る白線41La、41Lbに対し、処理エリア42を設定する。処理エリアは、過去のレーン認識結果の近傍に設けたり、画面全体を処理するように設定される。本実施形態においては、前方カメラ画像21aを左右に分割し、それぞれの領域から左側レーン、右側レーンを検出している。第1白線検出部311による白線の検出(認識)結果は、第1レーン検出部322へ出力される。   Since the processing of the first white line extraction unit 311 in the third embodiment is the same as the flow described in the second embodiment, a detailed description thereof is omitted. As shown in FIG. 26A, a processing area 42 is set for the white lines 41La and 41Lb shown in the front camera image 21a. The processing area is set in the vicinity of the past lane recognition result or set so as to process the entire screen. In the present embodiment, the front camera image 21a is divided into left and right, and the left lane and the right lane are detected from each region. The result of white line detection (recognition) by the first white line detection unit 311 is output to the first lane detection unit 322.

図27は、演算処理部32の第1レーン検出部322で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部32が処理を実施する度に、繰り返し実行される。ステップS301において、第1白線検出部311から出力された情報に基づいて、任意の2本の白線に関する情報を選択してステップS303へ進む。   FIG. 27 is a flowchart of processing performed by the first lane detection unit 322 of the arithmetic processing unit 32. The processing shown in this flowchart is repeatedly executed every time the arithmetic processing unit 32 performs processing. In step S301, based on the information output from the first white line detection unit 311, information on any two white lines is selected, and the process proceeds to step S303.

ステップS303において、ステップS301で選択した2本の白線同士の延在方向の角度差が所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS303では、2本の白線が略平行であるか否かを判断する。ステップS303が肯定判断されるとステップS305へ進み、2本の白線の間隔が所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS305では、レーンを構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。   In step S303, it is determined whether or not the angular difference in the extending direction between the two white lines selected in step S301 is equal to or less than a predetermined value (Thθmax). That is, in step S303, it is determined whether or not the two white lines are substantially parallel. If an affirmative determination is made in step S303, the process proceeds to step S305, and it is determined whether or not the interval between the two white lines is within a predetermined range (ThWmin or more and ThWmax or less). That is, in step S305, it is determined whether or not two white lines are lined up at an interval considered as two white lines constituting the lane.

ステップS305が肯定判断されるとステップS307へ進み、2本の白線で構成される4隅の座標をレーンついての位置の情報として登録する。ステップS305を実行するとステップS307へ進み、第1白線検出部311から出力された情報に基づくすべての白線に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS307が肯定判断されると、上述した処理によって得られた結果を第2白線検出部313に出力して、リターンする。ステップS309が否定判断されるとステップS301へ戻る。   If an affirmative determination is made in step S305, the process proceeds to step S307, where the coordinates of the four corners composed of two white lines are registered as position information about the lane. When step S305 is executed, the process proceeds to step S307, and it is confirmed whether or not the above-described processing for any two white lines has been performed for all the white lines based on the information output from the first white line detection unit 311. If the determination in step S307 is affirmative, the result obtained by the above-described processing is output to the second white line detection unit 313, and the process returns. If a negative determination is made in step S309, the process returns to step S301.

ステップS303が否定判断されるか、ステップS305が否定判断されるとステップS309へ進む。   If a negative determination is made in step S303 or a negative determination is made in step S305, the process proceeds to step S309.

第3実施の形態における第2の白線検出部313の処理は、第2実施の形態で説明したフローと同一であるため詳細な説明は割愛する。図28(a)に示すように、前方カメラ画像21aから検出したレーンを成す白線の情報に基づき、仮想線43を引き、仮想線を中心として処理エリア44を設定する。第2の白線検出部の白線検出結果は、第2レーン検出部324へ出力される。   Since the processing of the second white line detection unit 313 in the third embodiment is the same as the flow described in the second embodiment, a detailed description thereof is omitted. As shown in FIG. 28A, the virtual line 43 is drawn based on the information of the white line forming the lane detected from the front camera image 21a, and the processing area 44 is set around the virtual line. The white line detection result of the second white line detection unit is output to the second lane detection unit 324.

図29は、演算処理部32の第2レーン検出部324で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部32が処理を実施する度に、繰り返し実行される。ステップS321において、上述した第2白線検出部313で白線を検出できたか否かを判断する。ステップS321は肯定判断されるとステップS323へ進む。   FIG. 29 is a flowchart of processing performed by the second lane detection unit 324 of the arithmetic processing unit 32. The processing shown in this flowchart is repeatedly executed every time the arithmetic processing unit 32 performs processing. In step S321, it is determined whether the above-described second white line detection unit 313 has detected a white line. If a positive determination is made in step S321, the process proceeds to step S323.

ステップS323において、第2白線検出部313で検出した白線と、第1白線検出部311で検出された白線のうち、第2白線検出部313で検出した白線の近くに存在する白線とによって構成されるレーンを、第1レーン検出部322で登録したレーンを棄却して新規登録する。そして、登録した情報を出力部4へ出力してリターンする。   In step S323, the white line detected by the second white line detection unit 313 and the white line detected by the second white line detection unit 313 among the white lines detected by the first white line detection unit 311 are formed. The lane registered by the first lane detector 322 is rejected and newly registered. Then, the registered information is output to the output unit 4 and the process returns.

ステップS321は否定判断されるとリターンする。   If a negative determination is made in step S321, the process returns.

以上説明したように、本発明は駐車枠の検出に限定されるものではなく、旋回時に前方カメラの視野に一部しか入らない物体を検出する際に、前方カメラの検出結果に基づいて、側方カメラで物体の一部を検出し、前方カメラと側方カメラの検出結果を用いて物体を検出するものである。   As described above, the present invention is not limited to the detection of the parking frame, and when detecting an object that only partially enters the field of view of the front camera when turning, the side is determined based on the detection result of the front camera. A part of the object is detected by the side camera, and the object is detected using the detection results of the front camera and the side camera.

−−−変形例−−−
(1) 上述の説明では、たとえば車速が所定の速度(たとえば50km/h)以下となった場合に、演算処理部3の各部で上述した処理が行われるように構成したが、本発明はこれに限定されない。上述した所定の速度としての50km/hは一例であり、演算処理部3の各部で上述した処理を行う閾値としての車速が、50km/hよりも速い速度や遅い速度であってもよい。また、たとえば、車両1に搭載されたナビゲーション装置から、車両1の現在位置が駐車場内であるか否かを表す情報に基づいて、演算処理部3の各部で上述した処理が行われるように構成してもよい。
---- Modified example ---
(1) In the above description, for example, when the vehicle speed becomes a predetermined speed (for example, 50 km / h) or less, the above-described processing is performed in each unit of the arithmetic processing unit 3. It is not limited to. The above-mentioned predetermined speed of 50 km / h is an example, and the vehicle speed as a threshold for performing the above-described processing in each part of the arithmetic processing unit 3 may be a speed higher or lower than 50 km / h. Further, for example, the above-described processing is performed by each unit of the arithmetic processing unit 3 based on information indicating whether or not the current position of the vehicle 1 is in a parking lot from a navigation device mounted on the vehicle 1. May be.

(2) 上述の説明では、第1駐車枠検出部302および第2駐車枠検出部304で駐車枠23の検出を行うように構成したが、本発明はこれに限定されない。たとえば、第1駐車枠検出部302で行われる処理を第2駐車枠検出部304で行われるように構成してもよい。すなわち、第1駐車枠検出部302を設けることは必須ではない。
(3) 上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
(2) In the above description, the parking frame 23 is detected by the first parking frame detection unit 302 and the second parking frame detection unit 304, but the present invention is not limited to this. For example, you may comprise so that the process performed by the 1st parking frame detection part 302 may be performed by the 2nd parking frame detection part 304. FIG. That is, it is not essential to provide the first parking frame detection unit 302.
(3) You may combine each embodiment and modification which were mentioned above, respectively.

なお、本発明は、上述した実施の形態のものに何ら限定されず、車両の進行方向を検出する進行方向検出部と、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像のうち、車両の前方に設けられたカメラで撮影して得られた画像、および、車両の後方に設けられたカメラで撮影して得られた画像のいずれか一方の画像から、進行方向検出部が検出した車両の進行方向に対応する画像を進行方向画像として選択する画像選択部と、画像選択部で選択された進行方向画像から物体の特徴を検出する進行方向物体特徴検出部と、進行方向物体特徴検出部で検出した物体の特徴の端部のうち、車両の手前側に存在する手前側物体特徴端部が、車両の側方に設けられたカメラで撮影して得られた側方画像と、進行方向画像との境界に達したか否かを判定する側方進入判定部と、側方進入判定部で、手前側物体特徴端部が、進行方向画像と側方画像の境界に達したと判定されると、側方画像から物体の特徴を検出する側方物体特徴検出部と、進行方向物体特徴検出部と、側方物体特徴検出部とで検出した物体の特徴を用いて物体を検出する物体検出部を備えることを特徴とする各種構造の車載画像処理装置を含むものである。
また、本発明は、上述した実施の形態のものに何ら限定されず、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像を合成して、俯瞰画像を生成する画像合成部と、車両の進行方向を検出する進行方向検出部と、画像合成部で生成した俯瞰画像のうち、車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像、および、画像合成部で生成した俯瞰画像のうち、車両の後方に設けられたカメラで撮影して得られた画像に基づいて生成した後方俯瞰画像のいずれか一方の俯瞰画像から、進行方向検出部が検出した車両の進行方向に対応する俯瞰画像を進行方向俯瞰画像として選択する画像選択部と、画像選択部で選択された進行方向俯瞰画像から白線を検出する進行方向白線検出部と、進行方向白線検出部で検出した白線の端部のうち、車両の手前側に存在する白線の端部である手前側白線端部が、画像合成部で生成した俯瞰画像のうち、車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像と、進行方向俯瞰画像との境界に達したか否かを判定する側方進入判定部と、側方進入判定部で、手前側白線端部が、前方俯瞰画像と進行方向俯瞰画像との境界に達したと判定されると、側方俯瞰画像から白線を検出する側方白線検出部とを備えることを特徴とする各種構造の車載画像処理装置を含むものである。
また、本発明は、上述した実施の形態のものに何ら限定されず、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像を合成して、俯瞰画像を生成する画像合成部と、車両の進行方向を検出する進行方向検出部と、画像合成部で生成した俯瞰画像のうち、車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像、および、画像合成部で生成した俯瞰画像のうち、車両の後方に設けられたカメラで撮影して得られた画像に基づいて生成した後方俯瞰画像のいずれか一方の俯瞰画像から、進行方向検出部が検出した車両の進行方向に対応する俯瞰画像を進行方向俯瞰画像として選択する画像選択部と、画像選択部で選択された進行方向俯瞰画像から白線を検出する第1の白線検出部と、第1の白線検出部の検出結果に基づいて、駐車枠を検出する第1の駐車枠検出部と、第1の駐車枠検出部で検出した駐車枠に係る白線の端部のうち、車両の手前側に存在する白線の端部である手前側白線端部が、画像合成部で生成した俯瞰画像のうち、車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像と、進行方向俯瞰画像との境界に達したか否かを判定する側方進入判定部と、側方進入判定部で、手前側白線端部が、前方俯瞰画像と進行方向俯瞰画像との境界に達したと判定されると、第1の駐車枠検出部の検出結果を参照して、側方俯瞰画像から白線を検出する第2の白線検出部とを備えることを特徴とする各種構造の車載画像処理装置を含むものである。
Note that the present invention is not limited to the embodiment described above, and is taken by a traveling direction detection unit that detects the traveling direction of the vehicle and cameras provided at the front, rear, and sides of the vehicle. The obtained image is acquired, and among the acquired images, an image obtained by photographing with a camera provided in front of the vehicle, and an image obtained by photographing with a camera provided at the rear of the vehicle. From either image, an image selection unit that selects an image corresponding to the traveling direction of the vehicle detected by the traveling direction detection unit as the traveling direction image, and a feature of the object is detected from the traveling direction image selected by the image selection unit. Of the object direction detected by the traveling direction object feature detecting unit and the end of the object feature detected by the traveling direction object feature detecting unit is provided on the side of the vehicle. Side image obtained by camera In the side approach determination unit that determines whether or not the boundary between the traveling direction image and the side approach determination unit is reached, the near-side object feature edge reaches the boundary between the traveling direction image and the side image. Is detected using the feature of the object detected by the side object feature detection unit that detects the feature of the object from the side image, the traveling direction object feature detection unit, and the side object feature detection unit. It includes an in-vehicle image processing apparatus having various structures, characterized in that it includes an object detection unit for detection.
Further, the present invention is not limited to the above-described embodiment, and acquires images obtained by photographing with cameras provided in front, rear, and side of the vehicle, and combines the acquired images. Among the overhead images generated by the image composition unit that generates the bird's-eye view image, the traveling direction detection unit that detects the traveling direction of the vehicle, and the image composition unit, the image is captured by a camera provided in front of the vehicle. Of the front overhead image generated based on the obtained image and the overhead image generated by the image composition unit, the rear overhead image generated based on the image obtained by photographing with the camera provided behind the vehicle An image selection unit that selects an overhead image corresponding to the traveling direction of the vehicle detected by the traveling direction detection unit from either one of the overhead direction images, and a white line from the traveling direction overhead image selected by the image selection unit Detect hex Of the white line ends detected by the direction white line detection unit and the white line detection unit of the traveling direction, the front white line end that is the end of the white line existing on the front side of the vehicle is an overhead image generated by the image composition unit. Of these, a side approach determination unit that determines whether or not a boundary between a front overhead image generated based on an image obtained by photographing with a camera provided on the side of the vehicle and a traveling direction overhead image has been reached. When the side approach determination unit determines that the front white line end has reached the boundary between the front bird's-eye view image and the traveling direction bird's-eye view image, the side white line detection unit that detects a white line from the side bird's-eye view image The vehicle-mounted image processing apparatus of various structures characterized by comprising.
Further, the present invention is not limited to the above-described embodiment, and acquires images obtained by photographing with cameras provided in front, rear, and side of the vehicle, and combines the acquired images. Among the overhead images generated by the image composition unit that generates the bird's-eye view image, the traveling direction detection unit that detects the traveling direction of the vehicle, and the image composition unit, the image is captured by a camera provided in front of the vehicle. Of the front overhead image generated based on the obtained image and the overhead image generated by the image composition unit, the rear overhead image generated based on the image obtained by photographing with the camera provided behind the vehicle An image selection unit that selects an overhead image corresponding to the traveling direction of the vehicle detected by the traveling direction detection unit from either one of the overhead direction images, and a white line from the traveling direction overhead image selected by the image selection unit Detect the second The white line detection unit, the first parking frame detection unit that detects the parking frame based on the detection result of the first white line detection unit, and the end of the white line related to the parking frame detected by the first parking frame detection unit The white line end on the near side, which is the end of the white line existing on the near side of the vehicle, is obtained by photographing with a camera provided on the side of the vehicle in the overhead view image generated by the image composition unit. In the side approach determination unit that determines whether or not the boundary between the forward bird's-eye view image generated based on the image and the traveling direction bird's-eye view image has been reached, A second white line detection unit that detects a white line from the side overhead image with reference to a detection result of the first parking frame detection unit when it is determined that the boundary between the overhead image and the traveling direction overhead image has been reached; The vehicle-mounted image processing apparatus of various structures characterized by comprising.

2 画像合成部、3 演算処理部、4 出力部、22 俯瞰画像、22a 前方俯瞰画像、22b,22c 側方俯瞰画像、22d 後方俯瞰画像、22e 進行方向俯瞰画像、100 車載画像処理装置、301 第1白線検出部、302 第1駐車枠検出部、303 第2白線検出部、304 第2駐車枠検出部、310 画像選択部、311 側方進入判定部 2 image compositing unit, 3 arithmetic processing unit, 4 output unit, 22 overhead image, 22a front overhead image, 22b, 22c side overhead image, 22d rear overhead image, 22e traveling direction overhead image, 100 in-vehicle image processing device, 301 1 white line detection unit, 302 first parking frame detection unit, 303 second white line detection unit, 304 second parking frame detection unit, 310 image selection unit, 311 side entry determination unit

Claims (12)

車両の進行方向を検出する進行方向検出部と、
前記車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、前記取得した画像のうち、前記車両の前方に設けられたカメラで撮影して得られた画像、および、前記車両の後方に設けられたカメラで撮影して得られた画像のいずれか一方の画像から、前記進行方向検出部が検出した前記車両の進行方向に対応する画像を進行方向画像として選択する画像選択部と、
前記画像選択部で選択された前記進行方向画像から物体の特徴を検出する進行方向物体特徴検出部と、
前記進行方向物体特徴検出部で検出した物体の特徴の端部のうち、車両の手前側に存在する手前側物体特徴端部が、前記車両の側方に設けられたカメラで撮影して得られた側方画像と、前記進行方向画像との境界に達したか否かを判定する側方進入判定部と、
前記側方進入判定部で、前記手前側物体特徴端部が、前記進行方向画像と前記側方画像の境界に達したと判定されると、前記側方画像から物体の特徴を検出する側方物体特徴検出部と、
前記進行方向物体特徴検出部と、前記側方物体特徴検出部とで検出した物体の特徴を用いて物体を検出する物体検出部を備えることを特徴とする車載画像処理装置。
A traveling direction detector for detecting the traveling direction of the vehicle;
An image obtained by photographing with a camera provided at the front, rear, and side of the vehicle was obtained, and of the obtained images, obtained by photographing with a camera provided at the front of the vehicle. An image corresponding to the traveling direction of the vehicle detected by the traveling direction detection unit from either one of an image and an image obtained by photographing with a camera provided behind the vehicle. An image selector to select as,
A traveling direction object feature detection unit that detects a feature of the object from the traveling direction image selected by the image selection unit;
Out of the object features detected by the advancing direction object feature detector, the front object feature end located on the front side of the vehicle is obtained by photographing with a camera provided on the side of the vehicle. A side approach determination unit that determines whether or not the boundary between the side image and the traveling direction image has been reached,
When the side approach determining unit determines that the near-side object feature edge has reached the boundary between the traveling direction image and the side image, the side detecting the feature of the object from the side image An object feature detection unit;
An in-vehicle image processing apparatus comprising: an object detection unit that detects an object using a feature of an object detected by the traveling direction object feature detection unit and the side object feature detection unit.
車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した前記画像を合成して、俯瞰画像を生成する画像合成部と、
前記車両の進行方向を検出する進行方向検出部と、
前記画像合成部で生成した俯瞰画像のうち、前記車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像、および、前記画像合成部で生成した俯瞰画像のうち、前記車両の後方に設けられたカメラで撮影して得られた画像に基づいて生成した後方俯瞰画像のいずれか一方の俯瞰画像から、前記進行方向検出部が検出した前記車両の進行方向に対応する俯瞰画像を進行方向俯瞰画像として選択する画像選択部と、
前記画像選択部で選択された前記進行方向俯瞰画像から白線を検出する進行方向白線検出部と、
前記進行方向白線検出部で検出した白線の端部のうち、車両の手前側に存在する白線の端部である手前側白線端部が、前記画像合成部で生成した俯瞰画像のうち、前記車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像と、前記進行方向俯瞰画像との境界に達したか否かを判定する側方進入判定部と、
前記側方進入判定部で、前記手前側白線端部が、前方俯瞰画像と前記進行方向俯瞰画像との境界に達したと判定されると、前記側方俯瞰画像から白線を検出する側方白線検出部とを備えることを特徴とする車載画像処理装置。
An image synthesizing unit that obtains images obtained by photographing with cameras provided in front, rear, and side of the vehicle, synthesizes the obtained images, and generates an overhead image;
A traveling direction detector for detecting a traveling direction of the vehicle;
Among the overhead images generated by the image composition unit, a front overhead image generated based on an image obtained by photographing with a camera provided in front of the vehicle, and an overhead image generated by the image composition unit Of these, in the traveling direction of the vehicle detected by the traveling direction detection unit, from any one of the overhead view images generated based on an image obtained by photographing with a camera provided behind the vehicle. An image selection unit that selects a corresponding overhead image as a traveling direction overhead image;
A traveling direction white line detection unit that detects a white line from the traveling direction overhead image selected by the image selection unit;
Among the white line ends detected by the advancing direction white line detection unit, the front white line end that is the end of the white line present on the front side of the vehicle is the vehicle out of the overhead image generated by the image composition unit. A side approach determination unit that determines whether or not a boundary between the front bird's-eye view image generated based on an image obtained by photographing with a camera provided on the side of the vehicle and the traveling direction bird's-eye view image has been reached,
When the side approach determination unit determines that the end of the front white line has reached the boundary between the front bird's-eye view image and the traveling direction bird's-eye view image, a side white line that detects a white line from the side bird's-eye view image A vehicle-mounted image processing apparatus comprising: a detection unit.
請求項2に記載の車載画像処理装置において、
前記側方白線検出部は、前記進行方向白線検出部で検出した白線についての延在方向に関する情報を少なくとも参照して、前記側方俯瞰画像から白線を検出することを特徴とする車載画像処理装置。
The in-vehicle image processing apparatus according to claim 2,
The in-vehicle image processing apparatus, wherein the side white line detection unit detects a white line from the side bird's-eye view image with reference to at least information regarding an extending direction of the white line detected by the traveling direction white line detection unit. .
請求項3に記載の車載画像処理装置において、
前記側方白線検出部は、前記進行方向白線検出部で検出した白線についての延在方向に関する情報を少なくとも参照して、前記側方俯瞰画像における白線の位置を予測することを特徴とする車載画像処理装置。
The in-vehicle image processing device according to claim 3,
The in-vehicle image characterized in that the side white line detection unit predicts the position of the white line in the side overhead image with reference to at least information on the extending direction of the white line detected by the traveling direction white line detection unit. Processing equipment.
請求項4に記載の車載画像処理装置において、
前記側方白線検出部は、予測した前記側方俯瞰画像における白線の位置と、前記側方俯瞰画像の走査線との交点を算出し、前記側方俯瞰画像に存在する白線を横切るように走査することで得られる輝度の立ち上がりおよび立ち下がりを検出し、検出した輝度の立ち上がりおよび立ち下がりの存在する位置と前記算出した交点とが一致するか否かを判定することで予測した白線を検出することを特徴とする車載画像処理装置。
The in-vehicle image processing device according to claim 4,
The side white line detection unit calculates an intersection of the predicted position of the white line in the side overhead image and the scanning line of the side overhead image, and scans to cross the white line existing in the side overhead image. The detected white line is detected by detecting the rise and fall of the luminance obtained and determining whether or not the position where the detected rise and fall of the luminance are coincident with the calculated intersection point. An in-vehicle image processing apparatus characterized by the above.
請求項2〜5のいずれか一項に記載の車載画像処理装置において、
前記側方白線検出部による前記側方俯瞰画像の走査密度は、前記進行方向白線検出部による前記進行方向俯瞰画像の走査密度よりも粗いことを特徴とする車載画像処理装置。
In the in-vehicle image processing device according to any one of claims 2 to 5,
The in-vehicle image processing apparatus according to claim 1, wherein a scanning density of the side overhead image by the side white line detection unit is coarser than a scanning density of the traveling direction overhead image by the traveling direction white line detection unit.
請求項6に記載の車載画像処理装置において、
前記進行方向白線検出部は、前記進行方向方俯瞰画像を順次走査することで白線を検出し、
前記側方白線検出部は、前記側方俯瞰画像を飛び越し走査することで白線を検出することを特徴とする車載画像処理装置。
The in-vehicle image processing device according to claim 6,
The advancing direction white line detection unit detects a white line by sequentially scanning the advancing direction direction overhead image,
The in-vehicle image processing apparatus, wherein the side white line detection unit detects a white line by interlaced scanning the side overhead image.
請求項2〜7のいずれか一項に記載の車載画像処理装置において、
前記進行方向白線検出部の検出結果に基づいて、駐車枠を検出する進行方向駐車枠検出部をさらに備え、
前記手前側白線端部は、前記進行方向駐車枠検出部で検出した駐車枠に係る白線の端部のうち、車両の手前側に存在する白線の端部であること特徴とする車載画像処理装置。
In the in-vehicle image processing device according to any one of claims 2 to 7,
Based on the detection result of the traveling direction white line detection unit, further comprising a traveling direction parking frame detection unit for detecting a parking frame,
The in-vehicle image processing apparatus, wherein the front white line end is an end of a white line existing on the front side of the vehicle among the end of the white line related to the parking frame detected by the traveling direction parking frame detection unit. .
請求項2〜8のいずれか一項に記載の車載画像処理装置において、
少なくとも前記側方白線検出部で検出した白線に関する情報に基づいて駐車枠を検出する駐車枠検出手段をさらに備えることを特徴とする車載画像処理装置。
In the in-vehicle image processing device according to any one of claims 2 to 8,
An in-vehicle image processing apparatus further comprising a parking frame detection means for detecting a parking frame based on at least information on the white line detected by the side white line detection unit.
請求項1において、物体特徴は白線であり、物体は駐車枠であることを特徴とする車載画像処理装置。   The in-vehicle image processing apparatus according to claim 1, wherein the object feature is a white line, and the object is a parking frame. 請求項1において、物体特徴は白線であり、物体はレーンであることを特徴とする車載画像処理装置。   The in-vehicle image processing apparatus according to claim 1, wherein the object feature is a white line, and the object is a lane. 車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した前記画像を合成して、俯瞰画像を生成する画像合成部と、
前記車両の進行方向を検出する進行方向検出部と、
前記画像合成部で生成した俯瞰画像のうち、前記車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像、および、前記画像合成部で生成した俯瞰画像のうち、前記車両の後方に設けられたカメラで撮影して得られた画像に基づいて生成した後方俯瞰画像のいずれか一方の俯瞰画像から、前記進行方向検出部が検出した前記車両の進行方向に対応する俯瞰画像を進行方向俯瞰画像として選択する画像選択部と、
前記画像選択部で選択された前記進行方向俯瞰画像から白線を検出する第1の白線検出部と、
前記第1の白線検出部の検出結果に基づいて、駐車枠を検出する第1の駐車枠検出部と、
前記第1の駐車枠検出部で検出した駐車枠に係る白線の端部のうち、車両の手前側に存在する白線の端部である手前側白線端部が、前記画像合成部で生成した俯瞰画像のうち、前記車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像と、前記進行方向俯瞰画像との境界に達したか否かを判定する側方進入判定部と、
前記側方進入判定部で、前記手前側白線端部が、前方俯瞰画像と前記進行方向俯瞰画像との境界に達したと判定されると、前記第1の駐車枠検出部の検出結果を参照して、前記側方俯瞰画像から白線を検出する第2の白線検出部とを備えることを特徴とする車載画像処理装置。
An image synthesizing unit that obtains images obtained by photographing with cameras provided in front, rear, and side of the vehicle, synthesizes the obtained images, and generates an overhead image;
A traveling direction detector for detecting a traveling direction of the vehicle;
Among the overhead images generated by the image composition unit, a front overhead image generated based on an image obtained by photographing with a camera provided in front of the vehicle, and an overhead image generated by the image composition unit Of these, in the traveling direction of the vehicle detected by the traveling direction detection unit, from any one of the overhead view images generated based on an image obtained by photographing with a camera provided behind the vehicle. An image selection unit that selects a corresponding overhead image as a traveling direction overhead image;
A first white line detection unit for detecting a white line from the traveling direction overhead image selected by the image selection unit;
A first parking frame detection unit for detecting a parking frame based on a detection result of the first white line detection unit;
Of the white line end portions related to the parking frame detected by the first parking frame detection unit, the front white line end portion that is the end portion of the white line existing on the front side of the vehicle is generated by the image composition unit. The side which determines whether the boundary of the front bird's-eye view image produced | generated based on the image obtained by image | photographing with the camera provided in the side of the said vehicle among the images and the said advancing direction bird's-eye view image was reached. A direction entry determination unit;
When it is determined by the side approach determination unit that the front white line end has reached the boundary between the front overhead image and the traveling direction overhead image, refer to the detection result of the first parking frame detection unit. An in-vehicle image processing apparatus comprising: a second white line detection unit that detects a white line from the side overhead image.
JP2012259042A 2012-11-27 2012-11-27 On-vehicle image processing device Pending JP2014107696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012259042A JP2014107696A (en) 2012-11-27 2012-11-27 On-vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012259042A JP2014107696A (en) 2012-11-27 2012-11-27 On-vehicle image processing device

Publications (1)

Publication Number Publication Date
JP2014107696A true JP2014107696A (en) 2014-06-09

Family

ID=51028830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012259042A Pending JP2014107696A (en) 2012-11-27 2012-11-27 On-vehicle image processing device

Country Status (1)

Country Link
JP (1) JP2014107696A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017024598A (en) * 2015-07-23 2017-02-02 Kyb株式会社 Parking guidance system
WO2020194848A1 (en) * 2019-03-22 2020-10-01 株式会社Jvcケンウッド Parking assistance control device, parking assistance device, parking assistance method, and program
CN111824129A (en) * 2019-04-22 2020-10-27 歌乐株式会社 Image processing apparatus and image processing method
JP2020190416A (en) * 2019-05-17 2020-11-26 アイシン・エィ・ダブリュ株式会社 Recognition system, recognition method and recognition program
JP2021068124A (en) * 2019-10-21 2021-04-30 アイシン精機株式会社 Parking support device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017024598A (en) * 2015-07-23 2017-02-02 Kyb株式会社 Parking guidance system
WO2020194848A1 (en) * 2019-03-22 2020-10-01 株式会社Jvcケンウッド Parking assistance control device, parking assistance device, parking assistance method, and program
CN111824129A (en) * 2019-04-22 2020-10-27 歌乐株式会社 Image processing apparatus and image processing method
CN111824129B (en) * 2019-04-22 2024-04-05 歌乐株式会社 Image processing apparatus and image processing method
JP2020190416A (en) * 2019-05-17 2020-11-26 アイシン・エィ・ダブリュ株式会社 Recognition system, recognition method and recognition program
JP2021068124A (en) * 2019-10-21 2021-04-30 アイシン精機株式会社 Parking support device
JP7380073B2 (en) 2019-10-21 2023-11-15 株式会社アイシン parking assist device

Similar Documents

Publication Publication Date Title
JP6801787B2 (en) Parking support method and parking support device
CN108140319B (en) Parking assistance method and parking assistance device
JP4412380B2 (en) Driving support device, driving support method, and computer program
JP5003946B2 (en) Parking assistance device
JP3947375B2 (en) Parking assistance device
JP6642906B2 (en) Parking position detection system and automatic parking system using the same
JP4952421B2 (en) Driving support system
JP2013541915A (en) Blind Spot Zone Display Device and Method
CN110831818B (en) Parking assist method and parking assist device
JP2007230371A (en) Parking assisting device and parking assisting method
JP2014107696A (en) On-vehicle image processing device
JP2004240480A (en) Operation support device
JP2009033743A (en) Method for recognition of object
JP6152261B2 (en) Car parking frame recognition device
JP2010028432A (en) Parking support system and image display method
JP6148848B2 (en) In-vehicle image processing device
KR20130072709A (en) A parking assist system which based on technical composition of image recognition and supersonic sensor
JP2009071659A (en) Parking assistance system
JP2008213647A (en) Parking assist method and parking assist system
JP6044429B2 (en) Parking assistance device and parking assistance method
JP6349890B2 (en) Driving assistance device
JP2012061989A (en) Device and method for image processing
JP2014104840A (en) On-vehicle image processing system
KR101191040B1 (en) Road displaying apparatus for a car
JP2019117581A (en) vehicle