JP2012178639A - Image processing device, parking control system, and image processing method - Google Patents

Image processing device, parking control system, and image processing method Download PDF

Info

Publication number
JP2012178639A
JP2012178639A JP2011039439A JP2011039439A JP2012178639A JP 2012178639 A JP2012178639 A JP 2012178639A JP 2011039439 A JP2011039439 A JP 2011039439A JP 2011039439 A JP2011039439 A JP 2011039439A JP 2012178639 A JP2012178639 A JP 2012178639A
Authority
JP
Japan
Prior art keywords
image
vehicle
image processing
processing apparatus
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011039439A
Other languages
Japanese (ja)
Inventor
Katsutoshi Shimizu
勝敏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2011039439A priority Critical patent/JP2012178639A/en
Publication of JP2012178639A publication Critical patent/JP2012178639A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing technique capable of sufficiently exhibiting plural functions without increasing a processing load of an image processing device.SOLUTION: An image processing device causes an image with corrected distortion to be output to a display and displayed thereon, and meanwhile recognizes an image of a target based on an image with uncorrected distortion. Thus, the image processing device can prevent a processing load from being increased, and can exhibit plural functions sufficiently.

Description

本発明は、カメラが撮影した画像を処理する画像処理の技術に関する。   The present invention relates to an image processing technique for processing an image captured by a camera.

近年、カメラが撮影した画像に対して種々の補正を施したのちに、その画像をディスプレイへ出力する画像処理装置が知られている。例えば、カメラによって撮影された画像に映る像が、そのカメラに備わるレンズの特性によって歪んでしまう場合がある。このように歪んだ像を映す画像を歪みの無い像を映す画像に補正する(以降、歪み補正という)技術が提案されている(例えば、特許文献1参照。)。   2. Description of the Related Art In recent years, an image processing apparatus that outputs various images to a display after various corrections are performed on an image captured by a camera is known. For example, an image shown in an image taken by a camera may be distorted due to the characteristics of a lens provided in the camera. There has been proposed a technique for correcting an image showing a distorted image into an image showing an image without distortion (hereinafter referred to as distortion correction) (see, for example, Patent Document 1).

特開2006−279739号公報JP 2006-29739 A

ところで、カメラによって撮影された画像をディスプレイへ出力する機能と、カメラによって撮影された画像に基づいて人間などのターゲットを認識する機能とを備える画像処理装置がある。このような画像処理装置において、それぞれの機能を発揮するたびに歪み補正を施した画像を利用するとなると処理負荷が増大してしまうという問題がある。   By the way, there is an image processing apparatus having a function of outputting an image captured by a camera to a display and a function of recognizing a target such as a human based on the image captured by the camera. In such an image processing apparatus, there is a problem that the processing load increases when an image subjected to distortion correction is used every time the respective functions are performed.

本発明は、上記課題に鑑みてなされたものであり、画像処理装置の処理負荷を増大させないでそれぞれの機能を十分に発揮させることができる画像処理の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing technique capable of sufficiently exhibiting each function without increasing the processing load of the image processing apparatus.

上記課題を解決するため、請求項1の発明は、カメラが撮影した画像を処理する画像処理装置であって、前記カメラが撮影した前記画像を取得する取得手段と、取得された前記画像中の像の歪みを補正する補正手段と、補正前の前記画像に基づいてターゲットの像を認識する認識手段と、補正後の前記画像をディスプレイへ出力して表示させる出力手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is an image processing apparatus for processing an image captured by a camera, an acquisition means for acquiring the image captured by the camera, and an image in the acquired image Correction means for correcting image distortion, recognition means for recognizing a target image based on the image before correction, and output means for outputting the corrected image to a display for display. And

また、請求項2の発明は、請求項1に記載の画像処理装置において、前記認識手段は、補正前の前記画像の略中央に設定される対象領域を対象にして前記ターゲットの像を認識することを特徴とする。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the recognizing unit recognizes the image of the target with respect to a target region set at a substantially center of the image before correction. It is characterized by that.

また、請求項3の発明は、請求項1に記載の画像処理装置において、前記認識手段は、補正前の前記画像の端部近傍に設定される対象領域を対象にして前記ターゲットの像を認識し、前記対象領域の像の歪みの程度に応じて前記ターゲットの像を認識する方向を変更することを特徴とする。   According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the recognition unit recognizes the target image with respect to a target region set in the vicinity of an end portion of the image before correction. The direction of recognizing the target image is changed according to the degree of distortion of the image of the target area.

また、請求項4の発明は、請求項1乃至3の何れかに記載の画像処理装置において、前記カメラは車両に搭載され、前記車両の周辺を撮影するものであり、前記ターゲットは前記車両が走行する経路上の障害物であり、前記認識手段が前記障害物の像を認識した場合は、ユーザへその旨を報知する報知手段、をさらに備えることを特徴とする。   According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the camera is mounted on a vehicle and photographs the periphery of the vehicle, and the target is the vehicle. It is an obstacle on the traveling route, and when the recognition means recognizes the image of the obstacle, it further comprises notification means for notifying the user to that effect.

また、請求項5の発明は、請求項4に記載の画像処理装置において、前記障害物は人間であり、前記認識手段が前記人間の像を認識した場合は、ユーザへその旨を報知する報知手段、をさらに備えることを特徴とする。   Further, in the image processing apparatus according to claim 4, when the obstacle is a human and the recognition unit recognizes the human image, a notification for informing the user of the fact is provided. Means.

また、請求項6の発明は、請求項1乃至5の何れかに記載の画像処理装置において、前記カメラのレンズは魚眼レンズであることを特徴とする。   According to a sixth aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the lens of the camera is a fisheye lens.

また、請求項7の発明は、車両を駐車させる制御をする駐車制御システムであって、車両に備わるカメラが撮影した前記車両の周辺の画像を取得する取得手段と、取得された前記画像中の像の歪みを補正する補正手段と、補正前の前記画像に基づいて路面に表示された駐車枠の像を認識する認識手段と、補正後の前記画像をディスプレイへ出力して表示させる出力手段と、前記認識手段に認識された前記駐車枠の像に基づいて、前記車両の挙動を制御して前記駐車枠へ前記車両を駐車させる制御手段と、をさらに備えることを特徴とする。   Further, the invention of claim 7 is a parking control system for controlling the vehicle to be parked, an acquisition means for acquiring an image around the vehicle taken by a camera provided in the vehicle, and an image in the acquired image Correction means for correcting image distortion, recognition means for recognizing an image of a parking frame displayed on the road surface based on the image before correction, and output means for outputting and displaying the corrected image on a display And a control means for controlling the behavior of the vehicle based on the image of the parking frame recognized by the recognition means to park the vehicle in the parking frame.

また、請求項8の発明は、カメラが撮影した画像を処理する画像処理方法であって、(a)前記カメラが撮影した前記画像を取得する工程と、(b)取得された前記画像中の像の歪みを補正する工程と、(c)補正前の前記画像に基づいてターゲットの像を認識する工程と、(d)補正後の前記画像をディスプレイへ表示する工程と、を備えることを特徴とする。   The invention of claim 8 is an image processing method for processing an image taken by a camera, wherein (a) acquiring the image taken by the camera; and (b) in the acquired image. A step of correcting image distortion; (c) a step of recognizing an image of a target based on the image before correction; and (d) a step of displaying the image after correction on a display. And

請求項1及び8の発明によれば、画像中の像の歪みを補正した画像がディスプレイへ表示される一方で、その歪みを補正しない画像がターゲットの像を認識する処理に利用されるため、画像処理装置の処理負荷を増大させないようにできる。   According to the first and eighth aspects of the invention, an image in which distortion of the image in the image is corrected is displayed on the display, while an image that does not correct the distortion is used for processing for recognizing the target image. The processing load on the image processing apparatus can be prevented from increasing.

また、請求項2の発明によれば、像の歪みの程度が小さい画像の略中央に設定される対象領域を対象にしてターゲットの像が認識されるため、その認識の精度を高くできる。   According to the second aspect of the present invention, since the target image is recognized with respect to the target region set at the approximate center of the image with a small degree of image distortion, the recognition accuracy can be increased.

また、請求項3の発明によれば、像の歪みの程度が大きい画像の端部近傍に設定された対象領域を対象にしてターゲットの像が認識される場合に、その歪みの程度に応じてターゲットの像を認識する方向が変更されるため、その認識する精度を高めることができる。   According to the third aspect of the present invention, when a target image is recognized for a target region set in the vicinity of an edge of an image with a large degree of image distortion, the image is determined according to the degree of distortion. Since the direction in which the target image is recognized is changed, the recognition accuracy can be increased.

また、請求項4の発明によれば、歪みを補正しない画像が障害物の像を認識する処理に利用されるため、画像処理装置の処理負荷を増大させないようにできる。結果、車両の走行する経路上に存在する障害物を遅延することなくユーザへ報知できる。   According to the fourth aspect of the present invention, an image whose distortion is not corrected is used for processing for recognizing an image of an obstacle, so that the processing load of the image processing apparatus can be prevented from increasing. As a result, it is possible to notify the user of an obstacle present on the route traveled by the vehicle without delay.

また、請求項5の発明によれば、歪みを補正しない画像が人間の像を認識する処理に利用されるため、画像処理装置の処理負荷を増大させないようにできる。結果、車両の周辺に存在する人間を遅延することなくユーザへ報知できる。   According to the fifth aspect of the present invention, since an image whose distortion is not corrected is used for processing for recognizing a human image, the processing load of the image processing apparatus can be prevented from increasing. As a result, it is possible to notify the user who is present around the vehicle without delay.

また、請求項6の発明によれば、カメラのレンズに魚眼レンズが用いられるため、広範囲の画像を取得することができる。   According to the invention of claim 6, since a fisheye lens is used as the lens of the camera, a wide range of images can be acquired.

また、請求項7の発明によれば、歪みを補正をする前の画像が車両を駐車させる制御に用いられるため、駐車制御システムの処理負荷を増大させないようにできる。結果、その制御を遅延することなく実行できる。   According to the invention of claim 7, since the image before correcting the distortion is used for the control of parking the vehicle, the processing load of the parking control system can be prevented from increasing. As a result, the control can be executed without delay.

図1は、第1の実施の形態の駐車制御システムのブロックを示す図である。FIG. 1 is a block diagram of the parking control system according to the first embodiment. 図2は、第1の実施の形態の車両におけるカメラの取り付け位置を示す図である。FIG. 2 is a diagram illustrating a camera mounting position in the vehicle according to the first embodiment. 図3は、第1の実施の形態の車両に搭載されたカメラの撮影範囲を示す図である。FIG. 3 is a diagram illustrating a shooting range of the camera mounted on the vehicle according to the first embodiment. 図4は、第1の実施の形態の第1制御フローを示す図である。FIG. 4 is a diagram illustrating a first control flow according to the first embodiment. 図5は、第1の実施の形態の車両に搭載された複数のカメラそれぞれが撮影した画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image captured by each of a plurality of cameras mounted on the vehicle according to the first embodiment. 図6は、第1の実施の形態の樽型に歪んだ像を映す画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image showing a distorted image in a barrel shape according to the first embodiment. 図7は、第1の実施の形態の歪み補正の手法を説明するための図である。FIG. 7 is a diagram for explaining a distortion correction method according to the first embodiment. 図8は、第1の実施の形態の歪み補正の手法を説明するための図である。FIG. 8 is a diagram for explaining a distortion correction method according to the first embodiment. 図9は、第1の実施の形態の歪み補正の手法を説明するための図である。FIG. 9 is a diagram for explaining a distortion correction method according to the first embodiment. 図10は、第1の実施の形態の歪み補正の手法を説明するための図である。FIG. 10 is a diagram for explaining a distortion correction method according to the first embodiment. 図11は、第1の実施の形態の歪み補正の手法を説明するための図である。FIG. 11 is a diagram for explaining a distortion correction method according to the first embodiment. 図12は、第1の実施の形態の第2制御フローを示す図である。FIG. 12 is a diagram illustrating a second control flow according to the first embodiment. 図13は、第1の実施の形態のリヤカメラが撮影した画像の一例を示す図である。FIG. 13 is a diagram illustrating an example of an image captured by the rear camera according to the first embodiment. 図14は、第1の実施の形態の画像の略中央に設定される領域に対して縦エッジを検出したことを示す図である。FIG. 14 is a diagram illustrating that a vertical edge is detected in a region set at the approximate center of the image according to the first embodiment. 図15は、第1の実施の形態の画像の略中央に設定される領域に対して横エッジを検出したことを示す図である。FIG. 15 is a diagram illustrating that a horizontal edge is detected in a region set at a substantially center of the image according to the first embodiment. 図16は、第1の実施の形態の「車庫入れ駐車」を説明するための図である。FIG. 16 is a diagram for explaining “garage parking” according to the first embodiment. 図17は、第1の実施の形態の第3制御フローを示す図である。FIG. 17 is a diagram illustrating a third control flow according to the first embodiment. 図18は、第1の実施の形態のリヤカメラが撮影した画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of an image captured by the rear camera according to the first embodiment. 図19は、第1の実施の形態の駐車枠と車両との相対距離を導出する手法を説明するための図である。FIG. 19 is a diagram for explaining a method of deriving a relative distance between the parking frame and the vehicle according to the first embodiment. 図20は、第2の実施の形態の第4制御フローを示す図である。FIG. 20 is a diagram illustrating a fourth control flow according to the second embodiment. 図21は、第2の実施の形態の左サイドカメラが撮影した画像の一例を示す図である。FIG. 21 is a diagram illustrating an example of an image captured by the left side camera according to the second embodiment. 図22は、第2の実施の形態の画像の端部近傍に設定された領域に映る像の縦エッジを検出する手法を説明する図である。FIG. 22 is a diagram for explaining a method for detecting a vertical edge of an image appearing in an area set in the vicinity of an end portion of an image according to the second embodiment. 図23は、第2の実施の形態の画像の端部近傍に設定された領域に映る像の縦エッジの検出結果を示す図である。FIG. 23 is a diagram illustrating a detection result of a vertical edge of an image shown in an area set in the vicinity of an end portion of an image according to the second embodiment. 図24は、第2の実施の形態の画像の端部近傍に設定された領域に映る像の横エッジの検出結果を示す図である。FIG. 24 is a diagram illustrating a detection result of a horizontal edge of an image shown in an area set in the vicinity of an end portion of an image according to the second embodiment.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施の形態>
<1.構成>
図1は、第1の実施の形態の画像処理装置2の構成を示す図である。この画像処理装置2は、車両1に搭載されるリヤカメラ6などが撮影した車両1の周辺の画像をディスプレイ10へ表示する機能(以降、表示機能という)を備える。また、画像処理装置2は、リヤカメラ6などが撮影した車両1の周辺の画像に基づいて車両1の走行する経路上のターゲットを認識した場合に、ユーザ(代表的には車両1のドライバ)へその旨を報知する機能(以降、報知機能という)を備える。また、画像処理装置2は、リヤカメラ6などが撮影した車両1の周辺の画像に基づいて車両1を制御して、車両1を駐車枠内の駐車スペースへ駐車させる機能(以降、駐車機能という)を備える。
<First Embodiment>
<1. Configuration>
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus 2 according to the first embodiment. The image processing apparatus 2 has a function (hereinafter referred to as a display function) for displaying an image around the vehicle 1 taken by a rear camera 6 mounted on the vehicle 1 on the display 10. Further, when the image processing apparatus 2 recognizes a target on a route traveled by the vehicle 1 based on an image around the vehicle 1 captured by the rear camera 6 or the like, the image processing apparatus 2 is directed to a user (typically a driver of the vehicle 1). A function for notifying that effect (hereinafter referred to as a notification function) is provided. Further, the image processing device 2 controls the vehicle 1 based on an image around the vehicle 1 taken by the rear camera 6 or the like, and parks the vehicle 1 in a parking space in the parking frame (hereinafter referred to as a parking function). Is provided.

この画像処理装置2は図1に示すように駐車制御システムSYに備わる。つまり、この駐車制御システムSYは、画像処理装置2、フロントカメラ3、左サイドカメラ4、右サイドカメラ5、リヤカメラ6(以降において、カメラ3〜6という)、ディスプレイ10、及び、駐車制御装置12などを備える。画像処理装置2は、カメラ3〜6、ディスプレイ10、スピーカ11、及び、駐車制御装置12などとケーブルによって電気的に接続される。駐車制御装置12は、画像処理装置2、エンジン制御装置7、操舵装置8、及び、ブレーキ装置9などとケーブルによって電気的に接続される。   The image processing apparatus 2 is provided in a parking control system SY as shown in FIG. That is, the parking control system SY includes an image processing device 2, a front camera 3, a left side camera 4, a right side camera 5, a rear camera 6 (hereinafter referred to as cameras 3 to 6), a display 10, and a parking control device 12. Etc. The image processing device 2 is electrically connected to the cameras 3 to 6, the display 10, the speaker 11, the parking control device 12, and the like through cables. The parking control device 12 is electrically connected to the image processing device 2, the engine control device 7, the steering device 8, the brake device 9, and the like through cables.

図2に示すようにフロントカメラ3は、車両1の前端にあるナンバープレート取り付け位置の近傍に設けられ、その光軸は車両1の直進方向へ向けられている。左サイドカメラ4は、左サイドミラーに設けられており、その光軸は車両1の直進方向を基準にした左方向に沿って外部へ向けられている。右サイドカメラ5は、右サイドミラーに設けられており、その光軸は車両1の直進方向を基準にした右方向に沿って外部へ向けられている。リヤカメラ6は、車両1の後端にあるナンバープレート取り付け位置の近傍に設けられ、その光軸は車両1の直進方向の逆方向へ向けられている。なお、フロントカメラ3やリヤカメラ6の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。カメラ3〜6はそれぞれ魚眼レンズを備えている。魚眼レンズを備えたカメラ3〜6の画角は180度以上である。このため、カメラ3〜6を利用することで、図3に示すように、車両1の全周囲H1〜H4の撮影が可能となっている。   As shown in FIG. 2, the front camera 3 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 1, and its optical axis is directed in the straight traveling direction of the vehicle 1. The left side camera 4 is provided on the left side mirror, and its optical axis is directed to the outside along the left direction based on the straight traveling direction of the vehicle 1. The right side camera 5 is provided on the right side mirror, and its optical axis is directed to the outside along the right direction based on the straight traveling direction of the vehicle 1. The rear camera 6 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 1, and its optical axis is directed in the direction opposite to the straight traveling direction of the vehicle 1. Note that the attachment position of the front camera 3 and the rear camera 6 is preferably approximately the center in the left-right direction, but may be a position slightly shifted in the left-right direction from the center in the left-right direction. Each of the cameras 3 to 6 includes a fisheye lens. The angle of view of the cameras 3 to 6 equipped with the fisheye lens is 180 degrees or more. For this reason, by using the cameras 3 to 6, as shown in FIG. 3, it is possible to capture the entire periphery H <b> 1 to H <b> 4 of the vehicle 1.

画像処理装置2は、取得部20、画像処理部21、制御部22、及び、出力部23などを備える。取得部20は、例えば、インターフェースであり、カメラ3〜6が撮影した画像などを取得する。出力部23は、例えば、インターフェースであり、画像処理部21が補正した画像などをディスプレイ10などの外部へ出力する。画像処理部21は、認識部30、及び、補正部31などを備える。画像処理部21は、例えば、ASIC(Application Specific Integrated Circuit)などのハードウェア回路である。認識部30は、補正前の画像に基づいてターゲットである人間の像を認識する処理(以降、第1認識処理という)を実行する。更に、認識部30は、補正前の画像に基づいてターゲットである駐車枠の像を認識する処理(以降、第2認識処理という)を実行する。認識部30が実行する第1認識処理及び第2認識処理の詳細については後述する。補正部31は、取得部20を介して取得された画像中の像の歪みを補正する処理(以降、補正処理という)を実行する。補正部31が実行するこの補正処理の詳細については後述する。   The image processing apparatus 2 includes an acquisition unit 20, an image processing unit 21, a control unit 22, and an output unit 23. The acquisition unit 20 is an interface, for example, and acquires images taken by the cameras 3 to 6. The output unit 23 is an interface, for example, and outputs an image corrected by the image processing unit 21 to the outside of the display 10 or the like. The image processing unit 21 includes a recognition unit 30, a correction unit 31, and the like. The image processing unit 21 is, for example, a hardware circuit such as an ASIC (Application Specific Integrated Circuit). The recognition unit 30 executes a process for recognizing a human image as a target based on the image before correction (hereinafter referred to as a first recognition process). Furthermore, the recognition unit 30 executes a process for recognizing an image of the target parking frame based on the image before correction (hereinafter referred to as a second recognition process). Details of the first recognition process and the second recognition process executed by the recognition unit 30 will be described later. The correction unit 31 executes processing for correcting image distortion in the image acquired via the acquisition unit 20 (hereinafter referred to as correction processing). Details of the correction processing executed by the correction unit 31 will be described later.

制御部22は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、及び、RAM(Random Access Memory)などを備えるマイクロコンピュータである。CPUは、ROMに記憶された種々のプログラムに従って演算処理を行うことで種々の機能を実現させる。この制御部22は、不揮発性記憶部32、導出部33、及び、報知部34などを備える。不揮発性記憶部32は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)などである。この不揮発性記憶部32は、補正部31が補正処理を実行する際の補正用パラメータなどを記憶している。導出部33は、認識されたターゲットである路面に表示された駐車枠の像に基づいて、駐車枠と車両1との相対距離を導出する処理(以降、導出処理という)を実行する。導出部33が実行するこの導出処理の詳細については後述する。報知部34は、認識部30が第1認識処理を実行することによりターゲットである人間を認識した場合に、スピーカ11を制御してユーザへその旨を報知する。   The control unit 22 is a microcomputer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The CPU realizes various functions by performing arithmetic processing according to various programs stored in the ROM. The control unit 22 includes a nonvolatile storage unit 32, a derivation unit 33, a notification unit 34, and the like. The nonvolatile storage unit 32 is, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory) or the like. The nonvolatile storage unit 32 stores correction parameters when the correction unit 31 executes correction processing. The deriving unit 33 executes a process of deriving a relative distance between the parking frame and the vehicle 1 (hereinafter referred to as a derivation process) based on the image of the parking frame displayed on the road surface that is the recognized target. Details of the derivation process executed by the derivation unit 33 will be described later. When the recognizing unit 30 recognizes the target person by executing the first recognition process, the notifying unit 34 controls the speaker 11 to notify the user of the fact.

駐車制御装置12は、例えば、マイクロコンピュータなどの電子部品が実装された電子基板などを備える。この駐車制御装置12は、駐車制御部35などを備える。駐車制御部35は、エンジン制御装置7、操舵装置8、及び、ブレーキ装置9などと協働して車両1の速度、方向、及び、停止位置などを制御して駐車枠内の駐車スペースへ車両1を駐車させる。つまり、駐車制御部35は、導出部33によって導出された駐車枠と車両1との相対距離に基づいて車両1を駐車枠内の駐車スペースへ駐車させる制御(以降、駐車制御という)を実行する。駐車制御部35が実行するこの駐車制御の詳細については後述する。   The parking control device 12 includes, for example, an electronic board on which electronic components such as a microcomputer are mounted. The parking control device 12 includes a parking control unit 35 and the like. The parking control unit 35 controls the speed, direction, stop position, etc. of the vehicle 1 in cooperation with the engine control device 7, the steering device 8, the brake device 9, and the like to the parking space in the parking frame. Park 1 That is, the parking control unit 35 performs control (hereinafter referred to as parking control) for parking the vehicle 1 in the parking space in the parking frame based on the relative distance between the parking frame derived by the deriving unit 33 and the vehicle 1. . Details of the parking control executed by the parking control unit 35 will be described later.

<2.制御>
次に、画像処理装置2が表示機能、報知機能、及び駐車機能を発揮するために実行する制御について説明する。画像処理装置2は、表示機能を実現する第1制御、報知機能を実現する第2制御、及び、駐車機能を実現する第3制御をそれぞれ所定のタイミングで実行する。なお、それぞれの機能の制御を同時期に実行する場合は、画像処理装置2はそれぞれの機能の制御を並列に実行する。
<2. Control>
Next, the control executed by the image processing apparatus 2 to exhibit the display function, the notification function, and the parking function will be described. The image processing device 2 executes first control for realizing the display function, second control for realizing the notification function, and third control for realizing the parking function at predetermined timings. Note that when the control of each function is executed at the same time, the image processing apparatus 2 executes the control of each function in parallel.

<2.1.第1制御>
まず、表示機能を実現する第1制御について説明する。図4は第1制御の処理フロー(以降、第1制御フローという)を示す図である。ユーザにより「駐車制御」を実行するボタンが操作された場合に、画像処理装置2は図4に示す第1制御フローを所定の周期(以降、第1の周期という)で実行する。なお、第1の周期は、例えば、25msである。つまり、画像処理装置2は、第1の周期ごとに第1制御フローのステップSA1の処理を実行する。そのときに、取得部20が、リヤカメラ6によって撮影された車両1の後方周辺の画像、即ち、図5に示す画像Z4を取得する(ステップSA1)。
<2.1. First control>
First, the first control for realizing the display function will be described. FIG. 4 is a diagram showing a processing flow of the first control (hereinafter referred to as a first control flow). When a button for executing “parking control” is operated by the user, the image processing apparatus 2 executes the first control flow shown in FIG. 4 at a predetermined cycle (hereinafter referred to as a first cycle). Note that the first period is, for example, 25 ms. That is, the image processing apparatus 2 executes the process of step SA1 of the first control flow every first cycle. At that time, the acquisition unit 20 acquires an image of the rear periphery of the vehicle 1 taken by the rear camera 6, that is, an image Z4 shown in FIG. 5 (step SA1).

リヤカメラ6が撮影した画像Z4を取得するのは、車両1が駐車制御により後進している場合である。また、車両1が駐車制御により左方向に曲がりつつ後進する場合は、左サイドカメラ4及びリヤカメラ6が撮影した画像、即ち、図5に示す画像Z2及びZ4を取得する。また、車両1が駐車制御により右方向に曲がりつつ後進する場合は、右サイドカメラ5及びリヤカメラ6が撮影した画像、即ち、図5に示す画像Z3及びZ4を取得する。また、車両1が駐車制御により駐車枠内の駐車スペースに停車した場合は、フロントカメラ3が撮影した画像、即ち、図5に示す画像Z1を取得する。   The image Z4 captured by the rear camera 6 is acquired when the vehicle 1 is moving backward due to parking control. Further, when the vehicle 1 moves backward while turning to the left by the parking control, images taken by the left side camera 4 and the rear camera 6, that is, images Z2 and Z4 shown in FIG. 5 are acquired. Further, when the vehicle 1 moves backward while turning right by parking control, images taken by the right side camera 5 and the rear camera 6, that is, images Z3 and Z4 shown in FIG. 5 are acquired. Moreover, when the vehicle 1 stops in the parking space in a parking frame by parking control, the image which the front camera 3 image | photographed, ie, the image Z1 shown in FIG. 5, is acquired.

次に、補正部31は補正処理を実行することによって画像中の像の歪みを補正する(ステップSA2)。   Next, the correction unit 31 corrects image distortion in the image by executing correction processing (step SA2).

180度以上の画角θを有する魚眼レンズを備えたカメラ3〜6は、車両1の周辺の広い範囲を撮影できる一方で、その撮影された画像に映る像は樽型に歪んでしまう。本来、画像は、画像に映る物体の像と実際の物体とが相似形になっていることが理想である。   While the cameras 3 to 6 having fisheye lenses having an angle of view θ of 180 degrees or more can shoot a wide range around the vehicle 1, the image shown in the captured image is distorted into a barrel shape. Originally, it is ideal that the image of the object shown in the image is similar to the actual object.

従って、画像処理装置2は、樽型に歪んだ像が映る画像をそのような理想の形状の像が映る画像へと補正(以降、この補正を歪み補正という)する必要がある。この歪み補正の方法としては周知の種々の手法が利用可能であるが、そのうちの一例について説明する。まず、補正部31が、図6に示すような樽型に歪んだ像を映す画像Z2の四隅を対角線上において画像Z2の中心とは逆方向へ引っ張ったような画像、即ち、図7に示すような画像Z2Xを生成する。これによって、樽型に歪んだ像を映す画像Z2をそのような理想の画像Z2Xへと補正することができる。   Therefore, the image processing apparatus 2 needs to correct an image in which an image distorted in a barrel shape is reflected into an image in which such an ideal image is reflected (hereinafter, this correction is referred to as distortion correction). Various known methods can be used as the distortion correction method, and an example thereof will be described. First, an image in which the correction unit 31 pulls the four corners of an image Z2 showing a barrel-distorted image as shown in FIG. 6 in a direction opposite to the center of the image Z2 on a diagonal line, that is, as shown in FIG. Such an image Z2X is generated. As a result, the image Z2 that reflects the barrel-distorted image can be corrected to such an ideal image Z2X.

その生成方法を具体的に説明する。補正部31は、図6に示すように、樽型に歪んだ像を映す画像Z2へ複数のブロックBLをその歪みに沿って配置する。換言すると、補正部31は、図6に示すような樽型の歪みに沿った碁盤の目が重畳された画像Z2を把握する。そして、補正部31は、図7に示すように、樽型の歪みとは逆に歪んだ仮想の画像Z2Xへ複数のブロックBLXをその歪みに沿って配置する。換言すると、補正部31は、図7に示すような樽型の歪みとは逆の歪みに沿った碁盤の目が重畳された画像Z2Xを把握する。   The generation method will be specifically described. As illustrated in FIG. 6, the correction unit 31 arranges a plurality of blocks BL along an image Z <b> 2 that shows an image distorted in a barrel shape. In other words, the correction unit 31 grasps the image Z2 on which the grids along the barrel distortion as shown in FIG. 6 are superimposed. Then, as illustrated in FIG. 7, the correction unit 31 arranges a plurality of blocks BLX along the distortion in a virtual image Z2X that is distorted in reverse to the barrel distortion. In other words, the correction unit 31 grasps the image Z2X in which the grids along the distortion opposite to the barrel distortion as shown in FIG. 7 are superimposed.

そして、補正部31は、画像Z2に配置した複数のブロックBL内に含まれる複数のピクセルのそれぞれの座標を、不揮発性記憶部32に記憶されている補正用パラメータに従って、仮想の画像Z2X内に配置した複数のブロックBLX内の座標に変換する。この補正用パラメータは、魚眼レンズの特性に合わせたパラメータである。具体的には、補正用パラメータは、画像Z2に配置した複数のブロックBL内に含まれる複数のピクセルのそれぞれの座標と、仮想の画像Z2Xに配置したブロックBLX内の座標との対応関係を示している。   Then, the correction unit 31 stores the coordinates of the plurality of pixels included in the plurality of blocks BL arranged in the image Z2 in the virtual image Z2X according to the correction parameters stored in the nonvolatile storage unit 32. The coordinates are converted into coordinates in a plurality of arranged blocks BLX. This correction parameter is a parameter that matches the characteristics of the fisheye lens. Specifically, the correction parameter indicates a correspondence relationship between the coordinates of the plurality of pixels included in the plurality of blocks BL arranged in the image Z2 and the coordinates in the block BLX arranged in the virtual image Z2X. ing.

そして、補正部31は、変換した座標に基づいて画像Z2の複数のピクセルを仮想の画像Z2Xへ転送する。ここで、仮想の画像Z2Xの多くのブロックBLは、画像Z2のブロックBLより面積が大きくなる。このため。画像Z2のそれぞれのピクセルを仮想の画像Z2Xの座標位置へ単純に転送すると、理想の画像Z2Xのブロック内にはピクセルが転送されていないエリアが存在してしまう。従って、補正部31は、このエリアを周囲のピクセルが持つ色情報に基づいて補完する。つまり、補正部31は、周囲のピクセルが持つ色の中間の色の情報を持つピクセルをそのエリアへ配置する。   Then, the correcting unit 31 transfers the plurality of pixels of the image Z2 to the virtual image Z2X based on the converted coordinates. Here, many blocks BL of the virtual image Z2X have a larger area than the blocks BL of the image Z2. For this reason. If each pixel of the image Z2 is simply transferred to the coordinate position of the virtual image Z2X, an area where no pixel is transferred exists in the block of the ideal image Z2X. Therefore, the correction unit 31 complements this area based on the color information of surrounding pixels. That is, the correction unit 31 arranges a pixel having information about an intermediate color of surrounding pixels in the area.

このような補正処理を補正部31が実行することによって、例えば、図8に示すように、フロントカメラ3が撮影した歪んだ画像Z1を、歪んでいない画像Z1Xへと変換することができる。また、図9に示すように、左サイドカメラ4が撮影した歪んだ画像Z2を、歪んでいない画像Z2Xへと変換することができる。また、図10に示すように、右サイドカメラ5が撮影した歪んだ画像Z3を、歪んでいない画像Z3Xへと変換することができる。また、図11に示すように、リヤカメラ6が撮影した歪んだ画像Z4を、歪んでいない画像Z4Xへと変換することができる。一方で、このような複雑な補正処理が頻繁に実行されると、画像処理装置2の処理負荷を増大させてしまうことになる。結果、それぞれの機能が十分に発揮されない虞がある。   When the correction unit 31 executes such correction processing, for example, as shown in FIG. 8, a distorted image Z1 photographed by the front camera 3 can be converted into an undistorted image Z1X. Further, as shown in FIG. 9, the distorted image Z2 captured by the left side camera 4 can be converted into an undistorted image Z2X. As shown in FIG. 10, the distorted image Z3 captured by the right side camera 5 can be converted into an undistorted image Z3X. Moreover, as shown in FIG. 11, the distorted image Z4 photographed by the rear camera 6 can be converted into an undistorted image Z4X. On the other hand, if such a complicated correction process is frequently executed, the processing load of the image processing apparatus 2 is increased. As a result, there is a possibility that each function may not be sufficiently exhibited.

このような補正処理が完了すると、出力部23は、補正後の画像をディスプレイ10へ出力して表示させる(図4のステップSA3)。これにより、像の歪みが補正された画像がディスプレイ10に表示される。   When such correction processing is completed, the output unit 23 outputs and displays the corrected image on the display 10 (step SA3 in FIG. 4). As a result, an image whose image distortion has been corrected is displayed on the display 10.

画像処理装置2がこのような第1制御フローを実行することによって、その表示機能を適切に機能させることができる。また、第1の周期で第1制御フローが実行されるため、車両1が駐車制御されるのと同時に、ディスプレイ10において車両1の周辺の画像をリアルタイムに表示させることができる。結果、ユーザは車両1を駐車させるときの車両1の周辺の様子をディスプレイ11に映る画像によって確認できる。   When the image processing apparatus 2 executes such a first control flow, the display function can be appropriately functioned. In addition, since the first control flow is executed in the first cycle, an image of the periphery of the vehicle 1 can be displayed on the display 10 in real time at the same time as the vehicle 1 is parked. As a result, the user can confirm the state of the periphery of the vehicle 1 when the vehicle 1 is parked by an image displayed on the display 11.

<2−2.第2制御>
次に、報知機能を実現する第2制御について説明する。図12は第2制御の処理フロー(以降、第2制御フローという)を示す図である。画像処理装置2は、ユーザにより「駐車制御」を実行するボタンが操作された場合に、図12に示す第2制御フローを第1の周期よりも長い周期(以降、第2の周期という)で実行する。なお、第2の周期は、例えば、33msである。まず、画像処理装置2は、第2の周期ごとに図12に示す第2制御フローのステップSB1の処理を実行する。そのときに、取得部20が、リヤカメラ6によって撮影された車両1の後方周辺の画像、即ち、図5に示す画像Z4を取得する(ステップSB1)。なお、リヤカメラ6が撮影した画像Z4を取得するのは、車両1が駐車制御により後進している場合である。
<2-2. Second control>
Next, the second control for realizing the notification function will be described. FIG. 12 is a diagram showing a processing flow of the second control (hereinafter referred to as a second control flow). When the user operates a button for executing “parking control”, the image processing apparatus 2 performs the second control flow shown in FIG. 12 in a cycle longer than the first cycle (hereinafter referred to as the second cycle). Execute. Note that the second period is, for example, 33 ms. First, the image processing apparatus 2 executes the process of step SB1 of the second control flow shown in FIG. 12 every second period. At that time, the acquisition unit 20 acquires an image of the rear periphery of the vehicle 1 taken by the rear camera 6, that is, an image Z4 shown in FIG. 5 (step SB1). Note that the image Z4 captured by the rear camera 6 is acquired when the vehicle 1 is moving backward due to parking control.

次に、認識部30は第1認識処理を実行して画像に含まれるターゲットである人間の像を認識する(ステップSB2)。ここで、ターゲットとはそれぞれの機能が、その機能を発揮させるために画像に基づいて認識すべき対象をいう。   Next, the recognition unit 30 executes a first recognition process to recognize a human image that is a target included in the image (step SB2). Here, the target refers to an object that each function should recognize based on an image in order to exhibit the function.

その第1認識処理をわかりやすく説明するために、車両1が駐車制御により後進している場合を前提にして説明する。この場合においては、リヤカメラ6が撮影した画像に基づいて認識部30がターゲットである人間の像を認識したときに、ユーザへその旨を報知して、車両1と人間との接触を回避させる。   In order to explain the first recognition process in an easy-to-understand manner, a description will be given on the assumption that the vehicle 1 is moving backward by parking control. In this case, when the recognition unit 30 recognizes the target human image based on the image captured by the rear camera 6, the user is informed so that contact between the vehicle 1 and the human is avoided.

車両1が駐車制御により後進している場合においては、車両1は比較的低速(例えば、時速3km/h)で後進する。このため、車両1の後部から後方の狭い範囲内(例えば、1m以内)に存在する人間を認識した場合にその旨をユーザへ報知しても、ユーザは車両1と人間とが接触する前に車両1を停止させることができる。結果、ユーザは車両1と人間との接触を回避させることができる。   When the vehicle 1 moves backward by the parking control, the vehicle 1 moves backward at a relatively low speed (for example, 3 km / h). For this reason, even if the user is informed when a person existing within a narrow range (for example, within 1 m) behind the rear portion of the vehicle 1 is recognized, the user is informed before the vehicle 1 comes into contact with the person. The vehicle 1 can be stopped. As a result, the user can avoid contact between the vehicle 1 and a human.

つまり、車両1と人間との接触の危険性をユーザへ報知してその接触を回避させるためには、認識部30は車両1の後部から後方1m以内に存在する人間の存在を認識するだけで十分である。   That is, in order to notify the user of the danger of contact between the vehicle 1 and a human and to avoid the contact, the recognition unit 30 only recognizes the presence of a human being within 1 m behind the rear of the vehicle 1. It is enough.

図13に示す画像Z4Xはリヤカメラ6が撮影した画像である。この画像Z4Xの中央近傍には車両1の後部から後方1m以内に存在する人間の像Hmが映る。この画像Z4Xのように、車両1の後部から後方1m以内に存在する人間は、画像Z4Xの略中央に設定される領域F1において、その人間の像Hmが映ることが経験的に多く認められる。   An image Z4X shown in FIG. 13 is an image taken by the rear camera 6. In the vicinity of the center of the image Z4X, a human image Hm existing within 1 m behind the rear of the vehicle 1 is shown. As shown in this image Z4X, it is empirically recognized that a person existing within 1 m from the rear of the vehicle 1 shows the image Hm of the person in the area F1 set at the approximate center of the image Z4X.

従って、認識部30は、画像Z4Xに設定される領域F1に対してだけ人間の像Hmを認識する第1認識処理を実行すれば、画像Z4Xの全体に対して人間の像Hmを認識する処理を実行する場合と比較して処理負荷を少なくできる。   Accordingly, when the recognition unit 30 executes the first recognition process for recognizing the human image Hm only for the region F1 set in the image Z4X, the recognition unit 30 recognizes the human image Hm for the entire image Z4X. The processing load can be reduced compared with the case of executing.

また、前述したように、魚眼レンズを備えたリヤカメラ6によって撮影された画像Z4Xに映る像は樽型に歪んでしまう特性を有している。この樽型に歪んだ像を映す画像Z4Xは、その画像Z4Xの中央から周辺に向かうほどその歪みの程度が大きくなっていくため、このような画像Z4Xに基づいて第1認識処理を行うとその周辺に位置する人間の像Hmの認識精度は比較的低くなる。   Further, as described above, the image shown in the image Z4X photographed by the rear camera 6 provided with the fisheye lens has a characteristic of being distorted into a barrel shape. The image Z4X that reflects the barrel-shaped image increases in degree of distortion from the center to the periphery of the image Z4X. Therefore, when the first recognition process is performed based on such an image Z4X, The recognition accuracy of the human image Hm located around is relatively low.

逆にいうと、樽型に歪んだ像を映す画像Z4Xは、その画像Z4Xの周辺から中心に向かうほどその歪みの程度が小さくなっていくため、このような画像Z4Xに基づいて第1認識処理を行うとその中央に位置する人間の像Hmの認識精度は比較的高くなる。   In other words, the image Z4X showing a barrel-distorted image becomes smaller in the degree of distortion from the periphery of the image Z4X toward the center. Therefore, the first recognition process is performed based on the image Z4X. If it performs, the recognition accuracy of the human image Hm located in the center will become comparatively high.

従って、リヤカメラ6が撮影した画像Z4Xの略中央に設定される領域F1に対して第1認識処理を実行すれば、車両1の後部から後方1m以内に存在する人間を十分な精度で検出できる。このため、前述した補正処理を施さない画像Z4X、即ち、樽型に歪んだ像を映す画像Z4Xに基づいて第1認識処理を実行できる。換言すると、第2制御フローにおいて比較的処理負荷が大きい補正処理を実行しないことにより画像処理装置2の処理負荷を増大させないようにできる。   Therefore, if the first recognition process is executed on the area F1 set at the approximate center of the image Z4X taken by the rear camera 6, it is possible to detect a person existing within 1 m behind the rear of the vehicle 1 with sufficient accuracy. Therefore, the first recognition process can be executed based on the image Z4X that is not subjected to the above-described correction process, that is, the image Z4X that shows an image distorted in a barrel shape. In other words, it is possible to prevent the processing load of the image processing apparatus 2 from increasing by not executing correction processing with a relatively large processing load in the second control flow.

この第1認識処理をより具体的に説明する。まず、認識部30は、画像Z4Xの略中央に設定される領域F1に対してエッジ検出処理を実行する。エッジ検出処理は、画像Z4Xに設定される領域F1の縦方向、即ち、図13に示すY軸方向のエッジを検出する。更に、エッジ検出処理は、画像Z4Xに設定される領域F1の横方向、即ち、図13に示すX軸方向のエッジを検出する。図14は、画像Z4Xに設定される領域F1に対して縦方向のエッジ(以降、縦エッジという)を検出したことを示す図である。また、図15は、画像Z4Xに設定される領域F1に対して横方向のエッジ(以降、横エッジという)を検出したことを示す図である。そして、領域F1に比較的短い横エッジEd2と比較的長い縦エッジEd1とが交わる状態で存在する場合、或いは、それらが近接する状態で存在する場合に、認識部30は人間の下半身が領域F1に存在する確度が高いと判断して、人間を認識する。   This first recognition process will be described more specifically. First, the recognizing unit 30 performs an edge detection process on the region F1 set at the approximate center of the image Z4X. In the edge detection process, an edge in the vertical direction of the area F1 set in the image Z4X, that is, an edge in the Y-axis direction shown in FIG. 13 is detected. Further, the edge detection process detects an edge in the horizontal direction of the region F1 set in the image Z4X, that is, an X-axis direction edge shown in FIG. FIG. 14 is a diagram illustrating that a vertical edge (hereinafter referred to as a vertical edge) is detected for the region F1 set in the image Z4X. FIG. 15 is a diagram showing that a horizontal edge (hereinafter referred to as a horizontal edge) is detected with respect to the region F1 set in the image Z4X. When the relatively short horizontal edge Ed2 and the relatively long vertical edge Ed1 exist in the region F1, or in the state where they are close to each other, the recognition unit 30 recognizes that the lower body of the human is the region F1. Recognize human beings by judging that the probability of being present is high.

このような第1認識処理が完了すると、報知部34は、ターゲットである人間が認識部30によって認識されたか否かを判断する(図12のステップSB3)。   When such first recognition processing is completed, the notification unit 34 determines whether or not the target person has been recognized by the recognition unit 30 (step SB3 in FIG. 12).

人間が認識された場合は、報知部34はその旨を知らせる音をスピーカ11へ出力させる制御信号を出力部23を介して出力する(ステップSB4)。   When a human is recognized, the notification unit 34 outputs a control signal for outputting a sound to that effect to the speaker 11 via the output unit 23 (step SB4).

一方で、ステップSB3において、人間が認識されなかった場合には、報知処理が実行されずにそのまま処理を終了する。   On the other hand, if no human is recognized in step SB3, the notification process is not executed and the process is terminated as it is.

画像処理装置2がこのような第2制御フローを実行することによって、その報知機能を適切に機能させることができる。また、第2制御において画像Z4Xに補正処理を施さない画像Z4X、即ち、樽型に歪んだ像を映す画像Z4Xに基づいて人間の像Hmを認識するため、画像処理装置2の処理負荷を増大させないようにできる。結果、ユーザは車両1を駐車させるときに、車両1の周辺に存在する人間を遅延することなく知ることができる。   When the image processing apparatus 2 executes such a second control flow, the notification function can be appropriately functioned. In addition, since the human image Hm is recognized based on the image Z4X in which the correction process is not performed on the image Z4X in the second control, that is, the image Z4X that shows an image distorted in a barrel shape, the processing load on the image processing device 2 is increased. You can avoid it. As a result, when the user parks the vehicle 1, the user can know a person existing around the vehicle 1 without delay.

<2−3.第3制御>
次に、駐車機能を実現する第3制御について説明する。まず、駐車制御システムSYが実行する駐車制御の駐車方法について説明する。駐車制御システムSYが実行する駐車方法は、所謂、「車庫入れ駐車」である。
<2-3. Third control>
Next, 3rd control which implement | achieves a parking function is demonstrated. First, a parking control parking method executed by the parking control system SY will be described. The parking method executed by the parking control system SY is so-called “garage parking”.

図16は、車両1の「車庫入れ駐車」を説明するための図である。図16に示すような駐車場において、車両1が初期位置P1でその駐車を開始させる指示をユーザから受け付けたときに、駐車制御システムSYは車両1を、初期位置P1から後進開始位置P2へと前進させる。次に、駐車制御システムSYは車両1を後進開始位置P2で一旦停車させる。次に、駐車制御システムSYは車両1を後進開始位置P2から後進させて駐車枠内の駐車スペースPSで停車させる。   FIG. 16 is a diagram for explaining “garage parking” of the vehicle 1. In the parking lot as shown in FIG. 16, when the vehicle 1 receives an instruction from the user to start parking at the initial position P1, the parking control system SY moves the vehicle 1 from the initial position P1 to the reverse start position P2. Move forward. Next, the parking control system SY temporarily stops the vehicle 1 at the reverse start position P2. Next, the parking control system SY moves the vehicle 1 backward from the reverse start position P2 and stops at the parking space PS in the parking frame.

図17は第3制御の処理フロー(以降、第3制御フローという)を示す図である。画像処理装置2はユーザにより「駐車制御」を実行するボタンが操作された場合で、車両1が後進開始位置P2で一旦停車したときに、図17に示す第3制御フローを第2の周期よりも長い周期(以降、第3の周期という)で実行する。なお、第3の周期は、例えば、45msである。まず、画像処理装置2は、第3の周期ごとに第3制御フローのステップSC1の処理を実行する。そのときに、取得部20は、リヤカメラ6によって撮影された画像を取得する(ステップSC1)。   FIG. 17 is a diagram showing a third control process flow (hereinafter referred to as a third control flow). When the button for executing “parking control” is operated by the user and the vehicle 1 once stops at the reverse drive start position P2, the image processing apparatus 2 performs the third control flow shown in FIG. 17 from the second cycle. Are executed in a long cycle (hereinafter referred to as a third cycle). Note that the third period is, for example, 45 ms. First, the image processing apparatus 2 executes the process of step SC1 of the third control flow every third cycle. At that time, the acquisition unit 20 acquires an image photographed by the rear camera 6 (step SC1).

次に、認識部30は、取得部20を介して取得したリヤカメラ6によって撮影された画像に基づいて、駐車場の駐車枠内の駐車スペースPSを認識する第2認識処理を実行する(ステップSC2)。   Next, the recognition unit 30 executes a second recognition process for recognizing the parking space PS in the parking frame of the parking lot based on the image captured by the rear camera 6 acquired via the acquisition unit 20 (step SC2). ).

駐車制御システムSYが車両1を後進開始位置P2で一旦停車させた場合に、認識部30はリヤカメラ6によって撮影された図18に示す画像Z4Yに基づいて、車両1の後方に存在する駐車枠の像Lを認識する。   When the parking control system SY stops the vehicle 1 at the reverse start position P2, the recognizing unit 30 recognizes the parking frame existing behind the vehicle 1 based on the image Z4Y shown in FIG. Recognize the image L.

具体的には、認識部30は、エッジ検出処理を画像Z4Yの略中央に設定される領域F2に対して実行する。そして、検出されたエッジにより把握されたものが駐車枠の像Lであるとする確度が高い場合に、認識部30は駐車枠の像Lの存在を認識する。領域F2を対象にして駐車枠の像Lを認識する理由は、車両1が後進開始位置P2に位置するときに、リヤカメラ6によって撮影された画像Z4Yの略中央に設定される領域F2において駐車枠の像Lが映ることが経験的に多く認められるからである。   Specifically, the recognizing unit 30 performs the edge detection process on the region F2 set at the approximate center of the image Z4Y. Then, when there is a high probability that the object grasped by the detected edge is the image L of the parking frame, the recognition unit 30 recognizes the presence of the image L of the parking frame. The reason for recognizing the image L of the parking frame for the area F2 is that the parking frame is set in the area F2 set at the approximate center of the image Z4Y photographed by the rear camera 6 when the vehicle 1 is positioned at the reverse start position P2. This is because it is empirically recognized that the image L is reflected.

従って、認識部30は、画像Z4Yに設定される領域F2に対してだけ第2認識処理を実行することによって、画像Z4Yの全体に対して第2認識処理を実行する場合と比較してその処理負荷を少なくできる。   Accordingly, the recognition unit 30 performs the second recognition process only on the region F2 set in the image Z4Y, thereby performing the process as compared with the case where the second recognition process is performed on the entire image Z4Y. The load can be reduced.

また、前述したように、魚眼レンズを備えたリヤカメラ6が撮影した画像Z4Yに映る像は樽型に歪んでしまう特性を有している。この樽型に歪んだ像を映す画像Z4Yは、その画像Z4Yの中央から周辺に向かうほどその歪みの程度が大きくなっていくため、この画像Z4Yに基づいて第2認識処理を実行するとその周辺に位置する駐車枠の像Lの認識精度は比較的低くなる。   Further, as described above, the image shown in the image Z4Y photographed by the rear camera 6 equipped with the fisheye lens has a characteristic of being distorted into a barrel shape. The image Z4Y that reflects the barrel-shaped image has a degree of distortion that increases from the center to the periphery of the image Z4Y. Therefore, when the second recognition process is executed based on the image Z4Y, The recognition accuracy of the image L of the parking frame located is relatively low.

逆にいうと、樽型に歪んだ像を映す画像Z4Yは、その画像Z4Yの周辺から中心に向かうほどその歪みの程度が小さくなっていくため、画像Z4Yに基づいて第2認識処理をしてもその略中央に位置する駐車枠の像Lの認識精度は比較的高くなる。   In other words, the image Z4Y that shows an image distorted in a barrel shape has a smaller degree of distortion as it goes from the periphery of the image Z4Y to the center, so the second recognition process is performed based on the image Z4Y. However, the recognition accuracy of the image L of the parking frame located approximately in the center is relatively high.

従って、車両1が後進開始位置P2に位置するときにリヤカメラ6が撮影した画像Z4Yの略中央に設定される領域F2に対して第2認識処理を実行すれば駐車枠を十分に検出できる。   Therefore, the parking frame can be sufficiently detected by executing the second recognition process on the area F2 set at the approximate center of the image Z4Y captured by the rear camera 6 when the vehicle 1 is positioned at the reverse start position P2.

このため、前述した補正処理を施さない画像Z4Y、即ち、樽型に歪んだ像を映す画像Z4Yに基づいて第2認識処理を実行できる。換言すると、第3制御フローで比較的処理負荷が大きい補正処理を実行しないことにより画像処理装置2の処理負荷を増大させないようにできる。   Therefore, the second recognition process can be executed based on the image Z4Y that is not subjected to the above-described correction process, that is, the image Z4Y that shows an image distorted in a barrel shape. In other words, it is possible to prevent the processing load of the image processing apparatus 2 from being increased by not executing the correction process having a relatively large processing load in the third control flow.

第2認識処理が完了すると、導出部33は、認識された路面に表示された駐車枠の像Lに基づいて、駐車枠と車両1との相対距離を導出する導出処理を実行する(図17のステップSC3)。   When the second recognition process is completed, the derivation unit 33 performs a derivation process for deriving the relative distance between the parking frame and the vehicle 1 based on the image L of the parking frame displayed on the recognized road surface (FIG. 17). Step SC3).

図19は、駐車枠と車両1との相対距離を導出する手法を説明するための図である。導出部33は、認識部30によって認識された駐車枠の像Lに基づいて駐車枠と車両1との相対距離を導出する。具体的には、駐車枠の像Lに基づいて把握される駐車スペースPSと車両1の位置である後進開始位置P2との相対距離を導出部33が導出する。そして、導出部33は、導出した相対距離に基づいて車両1を駐車スペースPSへと誘導するための仮想マップ上のルートRを導出する。この仮想マップ上のルートRは、後進開始位置P2から駐車スペースPSへ車両1を最短で誘導できるように導出される。更に、この仮想マップ上のルートRは、車両1を誘導する際に車両1と駐車されている他の車両などとが接触しないように導出される。この仮想マップは、図19に示すように、車両1を仮想の視点から俯瞰した際のxy座標によって定義される。この仮想マップにおいて、車両1の後進開始位置P2は座標の原点(x=0、y=0)に設定される。また、仮想マップ上のルートRについても適切な座標が設定される。   FIG. 19 is a diagram for explaining a method for deriving the relative distance between the parking frame and the vehicle 1. The deriving unit 33 derives the relative distance between the parking frame and the vehicle 1 based on the parking frame image L recognized by the recognition unit 30. Specifically, the deriving unit 33 derives the relative distance between the parking space PS that is grasped based on the image L of the parking frame and the reverse start position P2 that is the position of the vehicle 1. Then, the deriving unit 33 derives a route R on the virtual map for guiding the vehicle 1 to the parking space PS based on the derived relative distance. The route R on the virtual map is derived so that the vehicle 1 can be guided from the reverse start position P2 to the parking space PS in the shortest time. Further, the route R on the virtual map is derived so that the vehicle 1 does not come into contact with other parked vehicles when the vehicle 1 is guided. As shown in FIG. 19, the virtual map is defined by xy coordinates when the vehicle 1 is looked down from a virtual viewpoint. In this virtual map, the reverse start position P2 of the vehicle 1 is set to the coordinate origin (x = 0, y = 0). Appropriate coordinates are also set for the route R on the virtual map.

導出処理が完了すると、駐車制御部35は、導出部33によって導出された駐車枠と車両1との相対距離に基づいて車両1を駐車枠内の駐車スペースPSへ駐車させる駐車制御を実行する(図17のステップSC4)。   When the derivation process is completed, the parking control unit 35 executes parking control for parking the vehicle 1 in the parking space PS in the parking frame based on the relative distance between the parking frame derived by the derivation unit 33 and the vehicle 1 ( Step SC4 in FIG.

駐車制御部35は、導出部33によって導出された仮想マップ上のルートRに基づいて車両1を駐車させる。つまり、駐車制御部35は、仮想マップ上のルートRと仮想マップ上の車両1の現在位置とを一致させるようにして、車両1の挙動を制御して車両1を駐車スペースPSへ移動させる。   The parking control unit 35 parks the vehicle 1 based on the route R on the virtual map derived by the deriving unit 33. That is, the parking control unit 35 moves the vehicle 1 to the parking space PS by controlling the behavior of the vehicle 1 so that the route R on the virtual map matches the current position of the vehicle 1 on the virtual map.

画像処理装置2がこのような第3制御フローを実行することによって、その駐車機能を適切に機能させることができる。また、第3制御において補正処理を施さない画像Z4Y、即ち、樽型に歪んだ像が映る画像Z4Yに基づいて駐車枠の像Lを認識し、認識した駐車枠の像Lに基づいて駐車制御を実行するため、その制御を遅延することなく実行できる。   When the image processing apparatus 2 executes such a third control flow, the parking function can be appropriately functioned. In addition, the parking frame image L is recognized based on the image Z4Y that is not subjected to the correction process in the third control, that is, the image Z4Y in which a barrel-shaped image is displayed, and the parking control is performed based on the recognized parking frame image L. Therefore, the control can be executed without delay.

以上説明したように、第1制御、第2制御、及び、第3制御を実行する画像処理装置2は、歪みを補正した画像をディスプレイ10へ出力して表示させる一方で、歪みを補正しない画像に基づいてターゲットの像を認識するため、画像処理装置2の処理負荷を増大させないようにできる。   As described above, the image processing device 2 that executes the first control, the second control, and the third control outputs an image with corrected distortion to the display 10 and displays the image without correcting distortion. Since the target image is recognized based on this, the processing load on the image processing apparatus 2 can be prevented from increasing.

<3.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態においては、車両1が駐車制御により後進しているときに、リヤカメラ6によって撮影された画像に基づいて車両1の後方に存在する人間の像Hmを認識部30が認識していた。これに対して、第2の実施の形態では車両1が駐車制御により左方向へ曲がりつつ後進しているときに、左サイドカメラ4によって撮影された画像に基づいて車両1の左側後方に存在する他の車両の像を認識部30が認識する。
<3. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, when the vehicle 1 is moving backward due to parking control, the recognition unit 30 recognizes the human image Hm existing behind the vehicle 1 based on the image captured by the rear camera 6. It was. On the other hand, in the second embodiment, the vehicle 1 is located behind the left side of the vehicle 1 based on the image taken by the left side camera 4 when the vehicle 1 moves backward while turning leftward by the parking control. The recognition unit 30 recognizes an image of another vehicle.

以下、第2の実施の形態の画像処理装置2の構成及び処理フローは第1の実施の形態と略同様であるため、第1の実施の形態との相違点を中心に説明する。   In the following, the configuration and processing flow of the image processing apparatus 2 of the second embodiment are substantially the same as those of the first embodiment, and therefore, description will be made focusing on differences from the first embodiment.

図20は、第2の実施の形態の画像処理装置2が発揮する報知機能を実現する第4制御の処理フロー(以降、第4制御フローという)を示す図である。この第4制御フローは、ユーザにより「駐車制御」を実行するボタンが操作された場合に、第1の周期よりも長い周期(以降、第2の周期という)で画像処理装置2によって実行される。なお、第2の周期は、例えば、33msある。   FIG. 20 is a diagram illustrating a fourth control process flow (hereinafter referred to as a fourth control flow) for realizing the notification function exhibited by the image processing apparatus 2 according to the second embodiment. This fourth control flow is executed by the image processing apparatus 2 in a cycle longer than the first cycle (hereinafter referred to as the second cycle) when a button for executing “parking control” is operated by the user. . The second cycle is 33 ms, for example.

図20に示すステップSD1、SD3、及び、SD4の処理は、図12に示すステップSB1、SB3、及び、SB4の処理と同一である。つまり、左サイドカメラ4が撮影した車両1の側方周辺の画像、即ち、図5に示す画像Z2を取得部20が取得する(ステップSD1)。次に、認識部30は第3認識処理を実行して画像Z2に含まれるターゲットである他の車両の像を認識する(ステップSD2)。   The processes in steps SD1, SD3, and SD4 shown in FIG. 20 are the same as the processes in steps SB1, SB3, and SB4 shown in FIG. That is, the acquisition unit 20 acquires an image around the side of the vehicle 1 taken by the left side camera 4, that is, the image Z2 shown in FIG. 5 (step SD1). Next, the recognition unit 30 performs a third recognition process to recognize an image of another vehicle that is a target included in the image Z2 (step SD2).

図21は、左サイドカメラ4が撮影した画像Z2Yの一例を示す図である。この画像Z2Yの左端近傍には車両1の側方後部から後方1m以内に存在する他の車両の像CRが映る。この画像Z2Yのように、車両1の側方後部から後方1m以内に存在する他の車両は、画像Z2Yの左端近傍に設定される領域F3において、他の車両の四隅の一部の像が映ることが経験的に多く認められる。   FIG. 21 is a diagram illustrating an example of an image Z2Y captured by the left side camera 4. In the vicinity of the left end of the image Z2Y, an image CR of another vehicle existing within 1 m behind the lateral rear portion of the vehicle 1 is shown. As shown in this image Z2Y, the other vehicles existing within 1 m from the rear side of the vehicle 1 show images of some of the four corners of the other vehicle in the region F3 set near the left end of the image Z2Y. This is often empirically recognized.

従って、認識部30は、画像Z2Yの近傍に設定される領域F3に対して、第3認識処理を実行することによって、他の車両の像CRの認識の精度を高めることができ、その処理負荷を増大させないようにできる。この第3認識処理について詳細に説明する。   Therefore, the recognition unit 30 can increase the accuracy of recognition of the image CR of another vehicle by executing the third recognition process on the region F3 set in the vicinity of the image Z2Y, and the processing load Can be prevented from increasing. This third recognition process will be described in detail.

認識部30は、まず、図21に示す画像Z2Yの端部近傍に設定された領域F3を対象にしてエッジ検出処理を実行する。画像に映る像に歪みが少ない場合は、認識部30は領域F3に映る像の縦エッジと横エッジとを検出することによって、他の車両の像CRを比較的容易に認識できる。しかしながら、認識部30が利用する画像Z2Yには、映る像に歪みがあり、さらに、画像Z2Yの中央から周辺に向かうほどその歪みの程度は大きくなる特性を有している。このため、画像Z2Yの端部近傍に設定された領域F3に映る像の歪みは比較的大きくなっている。従って、この領域F3を対象にして縦エッジ及び横エッジを検出しても、認識部30は他の車両の像CRの縦エッジ及び横エッジを正しく検出できない虞がある。結果、認識部30は他の車両を認識する精度を低下させてしまう。   First, the recognizing unit 30 performs an edge detection process on a region F3 set near the end of the image Z2Y shown in FIG. When the image shown in the image is less distorted, the recognition unit 30 can relatively easily recognize the image CR of the other vehicle by detecting the vertical edge and the horizontal edge of the image shown in the region F3. However, the image Z2Y used by the recognizing unit 30 has a characteristic in which a projected image is distorted, and further, the degree of distortion increases from the center of the image Z2Y toward the periphery. For this reason, the distortion of the image shown in the region F3 set near the end of the image Z2Y is relatively large. Therefore, even if the vertical edge and the horizontal edge are detected for the region F3, the recognition unit 30 may not correctly detect the vertical edge and the horizontal edge of the image CR of another vehicle. As a result, the recognition unit 30 decreases the accuracy of recognizing other vehicles.

このような虞があるため、認識部30は、領域F3に映る像の歪みを考慮して他の車両の像CRの横エッジ及び縦エッジを検出する必要がある。つまり、認識部30は、領域F3に映る像の歪みの程度に応じて他の車両の像を認識する方向を変更する。   Since there is such a possibility, the recognition unit 30 needs to detect the horizontal edge and the vertical edge of the image CR of another vehicle in consideration of the distortion of the image shown in the region F3. That is, the recognition unit 30 changes the direction in which the image of another vehicle is recognized according to the degree of distortion of the image shown in the region F3.

図22は、画像Z2Yの端部近傍に設定された領域F3に映る像の縦エッジを検出する手法を説明する図である。図22においては、左サイドカメラ4で得られた像の歪みの程度が多い画像(以下、「歪画像」という。)Z2Yとともに、像の歪みの程度が少ない画像(以下、「通常画像」という。)Z2aを比較対象として示している。これらの歪画像Z2Y及び通常画像Z2aの双方の同一の位置に、像の検出対象とする領域F3を設定している。   FIG. 22 is a diagram illustrating a method for detecting a vertical edge of an image shown in the region F3 set near the end of the image Z2Y. In FIG. 22, an image obtained by the left side camera 4 having a high degree of image distortion (hereinafter referred to as “distorted image”) Z2Y and an image having a low degree of image distortion (hereinafter referred to as “normal image”). .) Z2a is shown for comparison. A region F3 that is an image detection target is set at the same position in both the distorted image Z2Y and the normal image Z2a.

通常画像Z2aでは、領域F3において、他の車両の像CRの垂直ラインは水平ラインHzに対して90度の角度をなして映る。これに対して、歪画像Z2Yでは、領域F3において、他の車両の像CRの垂直ラインは水平ラインHzに対して120度の角度をなして映る。なお、水平ラインHzはそれぞれの画像の左右方向(X軸方向)に沿ったラインである。   In the normal image Z2a, the vertical line of the image CR of the other vehicle appears in the region F3 at an angle of 90 degrees with respect to the horizontal line Hz. On the other hand, in the distorted image Z2Y, the vertical line of the image CR of another vehicle appears at an angle of 120 degrees with respect to the horizontal line Hz in the region F3. The horizontal line Hz is a line along the left-right direction (X-axis direction) of each image.

したがって、通常画像Z2aの像の方向を基準方向とした場合、歪画像Z2Yの像の方向は、基準方向に対して30度傾いていることになる。認識部30は、このような基準方向に対する実際の像の方向の傾きの角度をオフセット値Ovとして予め記憶している。このようなオフセット値Ovは、領域F3における像の歪みの程度に相当する。像の歪みの程度は画像中の光軸に対応する位置から離れるほど大きくなる。したがって、画像中の光軸に対応する位置に対する領域F3の位置に応じて、オフセット値Ovは規定される。   Therefore, when the direction of the image of the normal image Z2a is the reference direction, the direction of the image of the distorted image Z2Y is inclined by 30 degrees with respect to the reference direction. The recognizing unit 30 stores in advance such an angle of inclination of the actual image direction with respect to the reference direction as an offset value Ov. Such an offset value Ov corresponds to the degree of image distortion in the region F3. The degree of image distortion increases as the distance from the position corresponding to the optical axis in the image increases. Therefore, the offset value Ov is defined according to the position of the region F3 with respect to the position corresponding to the optical axis in the image.

認識部30は、このオフセット値Ovを、歪画像Z2Yに基づいて他の車両の像CRを認識する際に適用して、オフセット値Ovに応じて他の車両の像を認識する方向を変更する。これにより、他の車両の像CRの認識精度を高くするようにしている。具体的には、認識部30は、縦エッジを検出する際には、画像Z2Yの領域F3において、水平ラインHzに対して90度となる垂直ラインを基準とし、その基準の垂直ラインに対してオフセット値Ovの角度を傾かせた想定ラインを導出する。そして、この想定ラインに略平行なエッジを検出することによって、領域F3に映る像の縦エッジを高精度に検出できる。一方、認識部30は、横エッジを検出する際には、画像Z2Yの領域F3において、水平ラインHzを基準とし、その基準の水平ラインに対してオフセット値Ovの角度を傾かせた想定ラインを導出する。そして、この想定ラインに略平行なエッジを検出することによって、領域F3に映る像の横エッジを高精度に検出できる。   The recognition unit 30 applies the offset value Ov when recognizing the image CR of another vehicle based on the distorted image Z2Y, and changes the direction in which the image of the other vehicle is recognized according to the offset value Ov. . Thereby, the recognition accuracy of the image CR of the other vehicle is increased. Specifically, when detecting the vertical edge, the recognizing unit 30 uses a vertical line that is 90 degrees with respect to the horizontal line Hz in the region F3 of the image Z2Y as a reference, and the vertical line of the reference An assumed line in which the angle of the offset value Ov is inclined is derived. Then, by detecting an edge substantially parallel to the assumed line, the vertical edge of the image shown in the region F3 can be detected with high accuracy. On the other hand, when detecting the horizontal edge, the recognizing unit 30 uses the horizontal line Hz as a reference in the region F3 of the image Z2Y, and an assumed line in which the angle of the offset value Ov is inclined with respect to the reference horizontal line. To derive. Then, by detecting an edge substantially parallel to the assumed line, the horizontal edge of the image shown in the region F3 can be detected with high accuracy.

図23は、領域F3に映る像の縦エッジの検出結果を示す図である。図23に示すように、オフセット値Ovが考慮されて導出された想定ライン、即ち、垂直ラインに対して30度傾いた想定ラインと略平行な縦エッジが検出されている。なお、この場合においては、検出された縦エッジには、他の車両の像CR以外の像の縦エッジも含んでいる。また、図24は、領域F3に映る像の横エッジの検出結果を示す図である。認識部30は、オフセット値Ovが考慮されて導出された想定ライン、即ち、水平ラインに対して30度傾いた想定ラインと略平行な横エッジが検出されている。   FIG. 23 is a diagram showing the detection result of the vertical edge of the image shown in the region F3. As shown in FIG. 23, an assumed line derived in consideration of the offset value Ov, that is, a vertical edge substantially parallel to the assumed line inclined by 30 degrees with respect to the vertical line is detected. In this case, the detected vertical edge includes a vertical edge of an image other than the image CR of another vehicle. FIG. 24 is a diagram showing the detection result of the horizontal edge of the image shown in the region F3. The recognizing unit 30 detects a horizontal edge substantially parallel to an assumed line derived in consideration of the offset value Ov, that is, an assumed line inclined by 30 degrees with respect to the horizontal line.

そして、認識部30は検出された複数の縦エッジと横エッジに基づいて他の車両の像を認識する。すなわち、領域F3において、横エッジと縦エッジとが交わる状態で存在する場合、或いは、それらエッジが相互に近接する状態で存在する場合に、認識部30は他の車両の像を認識する。   And the recognition part 30 recognizes the image of another vehicle based on the detected several vertical edge and horizontal edge. That is, in the region F3, when the horizontal edge and the vertical edge exist in a state where they intersect, or when these edges exist close to each other, the recognition unit 30 recognizes an image of another vehicle.

このような第3認識処理が完了すると、報知部34は、ターゲットである他の車両が認識部30によって認識されたか否かを判断する(図20のステップSD3)。   When such third recognition processing is completed, the notification unit 34 determines whether another target vehicle has been recognized by the recognition unit 30 (step SD3 in FIG. 20).

他の車両が認識されたと場合は、報知部34はその旨を知らせる音をスピーカ11へ出力させる制御信号を出力部23を介して出力する(ステップSD4)。   When another vehicle is recognized, the notification unit 34 outputs a control signal for outputting a sound to that effect to the speaker 11 via the output unit 23 (step SD4).

また、ステップSD3において、他の車両が認識されなかった場合には報知処理が実行されずそのまま処理を終了する。   In step SD3, if no other vehicle is recognized, the notification process is not executed and the process ends.

以上説明したように、画像処理装置2がこの第4制御フローを実行することによって、その報知機能を適切に機能させることができる。また、第3認識処理においては、認識部30は、領域F3の像の歪みの程度を示すオフセット値に応じて、他の車両の像を認識する方向を変更する。すなわち、認識部30は、オフセット値Ovを考慮して領域F3に映る像のエッジを検出し、検出したエッジに基づいて他の車両の像CRを認識するため、画像Z2Yの全体に対して歪み補正をしたのちに他の車両の像CRを認識する場合と比較して、その処理負荷を少なくできる。結果、ユーザは車両1を駐車させるときに、車両1の後方に存在する他の車両を遅延することなく知ることができる。   As described above, when the image processing apparatus 2 executes the fourth control flow, the notification function can be appropriately functioned. In the third recognition process, the recognition unit 30 changes the direction of recognizing an image of another vehicle according to an offset value indicating the degree of distortion of the image in the region F3. That is, the recognizing unit 30 detects the edge of the image shown in the region F3 in consideration of the offset value Ov, and recognizes the image CR of another vehicle based on the detected edge. Compared with the case of recognizing an image CR of another vehicle after correction, the processing load can be reduced. As a result, the user can know other vehicles existing behind the vehicle 1 without delay when the vehicle 1 is parked.

<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下ではこのような変形例について説明する。上記実施の形態で説明した形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Hereinafter, such a modification will be described. All forms including those described in the above embodiment and those described below can be combined as appropriate.

上記第1の実施の形態では、画像処理装置2が駐車機能を発揮する場合に、報知機能を発揮させていた。これに対して、ユーザがシフトギヤを「R」にして自ら車両1を運転して駐車させる場合に、報知機能を発揮させても良い。   In the first embodiment, the notification function is exhibited when the image processing device 2 exhibits the parking function. On the other hand, when the user sets the shift gear to “R” and drives and parks the vehicle 1, the notification function may be exhibited.

上記第1の実施の形態では、ターゲットを人間及び駐車枠であるとしていた。また、上記第2の実施の形態では、ターゲットを他の車両であるとしていた。これに対して、ターゲットを車両1が走行する経路上の障害物としても良い。例えば、障害物は、車両1が走行する経路上に存在するダンボール、三角コーン、自転車、三輪車などである。   In the first embodiment, the target is a person and a parking frame. In the second embodiment, the target is another vehicle. On the other hand, the target may be an obstacle on the route on which the vehicle 1 travels. For example, the obstacle is a corrugated cardboard, a triangular cone, a bicycle, a tricycle, or the like existing on a route along which the vehicle 1 travels.

上記第2の実施の形態では、車両1が車庫入れ駐車をされる場合で、車両1が左方向に曲がりつつ後進するときに、左サイドカメラ4によって撮影された画像Z2に基づいて他の車両の像CRを認識部30が認識するとしていた。これに対して、車両1が右方向に曲がりつつ後進するときに、右サイドカメラ5によって撮影された画像Z3に基づいて他の車両の像CRを認識部30が認識しても良い。   In the second embodiment, when the vehicle 1 is parked in the garage and the vehicle 1 moves backward while turning leftward, another vehicle is based on the image Z2 photographed by the left side camera 4. The recognition unit 30 recognizes the image CR. On the other hand, when the vehicle 1 moves backward while turning rightward, the recognition unit 30 may recognize the image CR of another vehicle based on the image Z3 photographed by the right side camera 5.

1 車両
2 画像処理装置
12 駐車制御装置
20 取得部
21 画像処理部
22 制御部
23 出力部
30 認識部
33 導出部
34 報知部
35 駐車制御部
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Image processing apparatus 12 Parking control apparatus 20 Acquisition part 21 Image processing part 22 Control part 23 Output part 30 Recognition part 33 Derivation part 34 Notification part 35 Parking control part

Claims (8)

カメラが撮影した画像を処理する画像処理装置であって、
前記カメラが撮影した前記画像を取得する取得手段と、
取得された前記画像中の像の歪みを補正する補正手段と、
補正前の前記画像に基づいてターゲットの像を認識する認識手段と、
補正後の前記画像をディスプレイへ出力して表示させる出力手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that processes an image captured by a camera,
Obtaining means for obtaining the image taken by the camera;
Correction means for correcting distortion of the image in the acquired image;
Recognition means for recognizing the image of the target based on the image before correction;
Output means for outputting and displaying the corrected image on a display;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記認識手段は、補正前の前記画像の略中央に設定される対象領域を対象にして前記ターゲットの像を認識することを特徴とする画像認識装置。
The image processing apparatus according to claim 1.
The image recognizing apparatus, wherein the recognizing unit recognizes an image of the target with respect to a target region set at a substantially center of the image before correction.
請求項1に記載の画像処理装置において、
前記認識手段は、補正前の前記画像の端部近傍に設定される対象領域を対象にして前記ターゲットの像を認識し、前記対象領域の像の歪みの程度に応じて前記ターゲットの像を認識する方向を変更することを特徴とする画像認識装置。
The image processing apparatus according to claim 1.
The recognition unit recognizes the target image with respect to a target region set in the vicinity of the edge of the image before correction, and recognizes the target image according to the degree of distortion of the target region image. An image recognition apparatus characterized by changing a direction to perform.
請求項1乃至3の何れかに記載の画像処理装置において、
前記カメラは車両に搭載され、前記車両の周辺を撮影するものであり、
前記ターゲットは前記車両が走行する経路上の障害物であり、
前記認識手段が前記障害物の像を認識した場合は、ユーザへその旨を報知する報知手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The camera is mounted on a vehicle and photographs the periphery of the vehicle.
The target is an obstacle on the route traveled by the vehicle,
When the recognizing unit recognizes the image of the obstacle, a notification unit that notifies the user of the fact,
An image processing apparatus further comprising:
請求項4に記載の画像処理装置において、
前記障害物は人間であり、
前記認識手段が前記人間の像を認識した場合は、ユーザへその旨を報知する報知手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The obstacle is a human,
When the recognition unit recognizes the human image, a notification unit that notifies the user of the fact,
An image processing apparatus further comprising:
請求項1乃至5の何れかに記載の画像処理装置において、
前記カメラのレンズは魚眼レンズであることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
An image processing apparatus, wherein the lens of the camera is a fisheye lens.
車両を駐車させる制御をする駐車制御システムであって、
車両に備わるカメラが撮影した前記車両の周辺の画像を取得する取得手段と、
取得された前記画像中の像の歪みを補正する補正手段と、
補正前の前記画像に基づいて路面に表示された駐車枠の像を認識する認識手段と、
補正後の前記画像をディスプレイへ出力して表示させる出力手段と、
前記認識手段に認識された前記駐車枠の像に基づいて、前記車両の挙動を制御して前記駐車枠へ前記車両を駐車させる制御手段と、
をさらに備えることを特徴とする駐車制御システム。
A parking control system for controlling a vehicle to be parked,
Obtaining means for obtaining an image of the periphery of the vehicle taken by a camera provided on the vehicle;
Correction means for correcting distortion of the image in the acquired image;
Recognizing means for recognizing an image of a parking frame displayed on the road surface based on the image before correction;
Output means for outputting and displaying the corrected image on a display;
Control means for controlling the behavior of the vehicle based on the image of the parking frame recognized by the recognition means to park the vehicle in the parking frame;
A parking control system further comprising:
カメラが撮影した画像を処理する画像処理方法であって、
(a)前記カメラが撮影した前記画像を取得する工程と、
(b)取得された前記画像中の像の歪みを補正する工程と、
(c)補正前の前記画像に基づいてターゲットの像を認識する工程と、
(d)補正後の前記画像をディスプレイへ表示する工程と、
を備えることを特徴とする画像処理方法。
An image processing method for processing an image taken by a camera,
(A) acquiring the image taken by the camera;
(B) correcting distortion of the image in the acquired image;
(C) recognizing a target image based on the image before correction;
(D) displaying the corrected image on a display;
An image processing method comprising:
JP2011039439A 2011-02-25 2011-02-25 Image processing device, parking control system, and image processing method Withdrawn JP2012178639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011039439A JP2012178639A (en) 2011-02-25 2011-02-25 Image processing device, parking control system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011039439A JP2012178639A (en) 2011-02-25 2011-02-25 Image processing device, parking control system, and image processing method

Publications (1)

Publication Number Publication Date
JP2012178639A true JP2012178639A (en) 2012-09-13

Family

ID=46980218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011039439A Withdrawn JP2012178639A (en) 2011-02-25 2011-02-25 Image processing device, parking control system, and image processing method

Country Status (1)

Country Link
JP (1) JP2012178639A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101816038B1 (en) 2016-08-25 2018-01-08 현대오트론 주식회사 Apparatus and method for revising brightness of image
JP2019040521A (en) * 2017-08-28 2019-03-14 トヨタ自動車株式会社 Image processing apparatus and imaging apparatus
JP7500527B2 (en) 2021-09-24 2024-06-17 キヤノン株式会社 IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101816038B1 (en) 2016-08-25 2018-01-08 현대오트론 주식회사 Apparatus and method for revising brightness of image
JP2019040521A (en) * 2017-08-28 2019-03-14 トヨタ自動車株式会社 Image processing apparatus and imaging apparatus
JP7500527B2 (en) 2021-09-24 2024-06-17 キヤノン株式会社 IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM

Similar Documents

Publication Publication Date Title
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
JP5213063B2 (en) Vehicle display device and display method
JP2009524171A (en) How to combine multiple images into a bird&#39;s eye view image
JP2007274377A (en) Periphery monitoring apparatus, and program
JP2009231936A (en) Image processing device and method, drive support system, and vehicle
US20170028917A1 (en) Driving assistance device and driving assistance method
WO2015129280A1 (en) Image processing device and image processing method
US20200039435A1 (en) Onboard camera system for eliminating a-pillar blind areas of a mobile vehicle and image processing method thereof
TWI533694B (en) Obstacle detection and display system for vehicle
JP2016168877A (en) Visual recognition device for vehicle
JP6398675B2 (en) Image generation device
JP2012093872A (en) Image recognition device and image recognition method
JP7000383B2 (en) Image processing device and image processing method
US9827906B2 (en) Image processing apparatus
JP2012178639A (en) Image processing device, parking control system, and image processing method
JP2007221199A (en) On-vehicle camera display device and image processing unit
US10821900B2 (en) Image processing device
JP5235843B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP6439233B2 (en) Image display apparatus for vehicle and image processing method
JP5395373B2 (en) Perimeter monitoring device
JP2008294616A (en) Driving support system and vehicle
JP6620962B2 (en) Parking assistance device
JP2018113622A (en) Image processing apparatus, image processing system, and image processing method
JP2006178667A (en) Video correcting apparatus and method for vehicle
WO2015115103A1 (en) Image processing device, camera system, and image processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513