JP2012178639A - Image processing device, parking control system, and image processing method - Google Patents
Image processing device, parking control system, and image processing method Download PDFInfo
- Publication number
- JP2012178639A JP2012178639A JP2011039439A JP2011039439A JP2012178639A JP 2012178639 A JP2012178639 A JP 2012178639A JP 2011039439 A JP2011039439 A JP 2011039439A JP 2011039439 A JP2011039439 A JP 2011039439A JP 2012178639 A JP2012178639 A JP 2012178639A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- image processing
- processing apparatus
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 110
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims abstract description 74
- 238000012937 correction Methods 0.000 claims description 58
- 241000282414 Homo sapiens Species 0.000 claims description 24
- 230000006870 function Effects 0.000 abstract description 34
- 230000001747 exhibiting effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 37
- 238000009795 derivation Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラが撮影した画像を処理する画像処理の技術に関する。 The present invention relates to an image processing technique for processing an image captured by a camera.
近年、カメラが撮影した画像に対して種々の補正を施したのちに、その画像をディスプレイへ出力する画像処理装置が知られている。例えば、カメラによって撮影された画像に映る像が、そのカメラに備わるレンズの特性によって歪んでしまう場合がある。このように歪んだ像を映す画像を歪みの無い像を映す画像に補正する(以降、歪み補正という)技術が提案されている(例えば、特許文献1参照。)。 2. Description of the Related Art In recent years, an image processing apparatus that outputs various images to a display after various corrections are performed on an image captured by a camera is known. For example, an image shown in an image taken by a camera may be distorted due to the characteristics of a lens provided in the camera. There has been proposed a technique for correcting an image showing a distorted image into an image showing an image without distortion (hereinafter referred to as distortion correction) (see, for example, Patent Document 1).
ところで、カメラによって撮影された画像をディスプレイへ出力する機能と、カメラによって撮影された画像に基づいて人間などのターゲットを認識する機能とを備える画像処理装置がある。このような画像処理装置において、それぞれの機能を発揮するたびに歪み補正を施した画像を利用するとなると処理負荷が増大してしまうという問題がある。 By the way, there is an image processing apparatus having a function of outputting an image captured by a camera to a display and a function of recognizing a target such as a human based on the image captured by the camera. In such an image processing apparatus, there is a problem that the processing load increases when an image subjected to distortion correction is used every time the respective functions are performed.
本発明は、上記課題に鑑みてなされたものであり、画像処理装置の処理負荷を増大させないでそれぞれの機能を十分に発揮させることができる画像処理の技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing technique capable of sufficiently exhibiting each function without increasing the processing load of the image processing apparatus.
上記課題を解決するため、請求項1の発明は、カメラが撮影した画像を処理する画像処理装置であって、前記カメラが撮影した前記画像を取得する取得手段と、取得された前記画像中の像の歪みを補正する補正手段と、補正前の前記画像に基づいてターゲットの像を認識する認識手段と、補正後の前記画像をディスプレイへ出力して表示させる出力手段と、を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、請求項1に記載の画像処理装置において、前記認識手段は、補正前の前記画像の略中央に設定される対象領域を対象にして前記ターゲットの像を認識することを特徴とする。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the recognizing unit recognizes the image of the target with respect to a target region set at a substantially center of the image before correction. It is characterized by that.
また、請求項3の発明は、請求項1に記載の画像処理装置において、前記認識手段は、補正前の前記画像の端部近傍に設定される対象領域を対象にして前記ターゲットの像を認識し、前記対象領域の像の歪みの程度に応じて前記ターゲットの像を認識する方向を変更することを特徴とする。 According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the recognition unit recognizes the target image with respect to a target region set in the vicinity of an end portion of the image before correction. The direction of recognizing the target image is changed according to the degree of distortion of the image of the target area.
また、請求項4の発明は、請求項1乃至3の何れかに記載の画像処理装置において、前記カメラは車両に搭載され、前記車両の周辺を撮影するものであり、前記ターゲットは前記車両が走行する経路上の障害物であり、前記認識手段が前記障害物の像を認識した場合は、ユーザへその旨を報知する報知手段、をさらに備えることを特徴とする。 According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the camera is mounted on a vehicle and photographs the periphery of the vehicle, and the target is the vehicle. It is an obstacle on the traveling route, and when the recognition means recognizes the image of the obstacle, it further comprises notification means for notifying the user to that effect.
また、請求項5の発明は、請求項4に記載の画像処理装置において、前記障害物は人間であり、前記認識手段が前記人間の像を認識した場合は、ユーザへその旨を報知する報知手段、をさらに備えることを特徴とする。
Further, in the image processing apparatus according to
また、請求項6の発明は、請求項1乃至5の何れかに記載の画像処理装置において、前記カメラのレンズは魚眼レンズであることを特徴とする。 According to a sixth aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the lens of the camera is a fisheye lens.
また、請求項7の発明は、車両を駐車させる制御をする駐車制御システムであって、車両に備わるカメラが撮影した前記車両の周辺の画像を取得する取得手段と、取得された前記画像中の像の歪みを補正する補正手段と、補正前の前記画像に基づいて路面に表示された駐車枠の像を認識する認識手段と、補正後の前記画像をディスプレイへ出力して表示させる出力手段と、前記認識手段に認識された前記駐車枠の像に基づいて、前記車両の挙動を制御して前記駐車枠へ前記車両を駐車させる制御手段と、をさらに備えることを特徴とする。
Further, the invention of
また、請求項8の発明は、カメラが撮影した画像を処理する画像処理方法であって、(a)前記カメラが撮影した前記画像を取得する工程と、(b)取得された前記画像中の像の歪みを補正する工程と、(c)補正前の前記画像に基づいてターゲットの像を認識する工程と、(d)補正後の前記画像をディスプレイへ表示する工程と、を備えることを特徴とする。 The invention of claim 8 is an image processing method for processing an image taken by a camera, wherein (a) acquiring the image taken by the camera; and (b) in the acquired image. A step of correcting image distortion; (c) a step of recognizing an image of a target based on the image before correction; and (d) a step of displaying the image after correction on a display. And
請求項1及び8の発明によれば、画像中の像の歪みを補正した画像がディスプレイへ表示される一方で、その歪みを補正しない画像がターゲットの像を認識する処理に利用されるため、画像処理装置の処理負荷を増大させないようにできる。 According to the first and eighth aspects of the invention, an image in which distortion of the image in the image is corrected is displayed on the display, while an image that does not correct the distortion is used for processing for recognizing the target image. The processing load on the image processing apparatus can be prevented from increasing.
また、請求項2の発明によれば、像の歪みの程度が小さい画像の略中央に設定される対象領域を対象にしてターゲットの像が認識されるため、その認識の精度を高くできる。 According to the second aspect of the present invention, since the target image is recognized with respect to the target region set at the approximate center of the image with a small degree of image distortion, the recognition accuracy can be increased.
また、請求項3の発明によれば、像の歪みの程度が大きい画像の端部近傍に設定された対象領域を対象にしてターゲットの像が認識される場合に、その歪みの程度に応じてターゲットの像を認識する方向が変更されるため、その認識する精度を高めることができる。 According to the third aspect of the present invention, when a target image is recognized for a target region set in the vicinity of an edge of an image with a large degree of image distortion, the image is determined according to the degree of distortion. Since the direction in which the target image is recognized is changed, the recognition accuracy can be increased.
また、請求項4の発明によれば、歪みを補正しない画像が障害物の像を認識する処理に利用されるため、画像処理装置の処理負荷を増大させないようにできる。結果、車両の走行する経路上に存在する障害物を遅延することなくユーザへ報知できる。 According to the fourth aspect of the present invention, an image whose distortion is not corrected is used for processing for recognizing an image of an obstacle, so that the processing load of the image processing apparatus can be prevented from increasing. As a result, it is possible to notify the user of an obstacle present on the route traveled by the vehicle without delay.
また、請求項5の発明によれば、歪みを補正しない画像が人間の像を認識する処理に利用されるため、画像処理装置の処理負荷を増大させないようにできる。結果、車両の周辺に存在する人間を遅延することなくユーザへ報知できる。 According to the fifth aspect of the present invention, since an image whose distortion is not corrected is used for processing for recognizing a human image, the processing load of the image processing apparatus can be prevented from increasing. As a result, it is possible to notify the user who is present around the vehicle without delay.
また、請求項6の発明によれば、カメラのレンズに魚眼レンズが用いられるため、広範囲の画像を取得することができる。
According to the invention of
また、請求項7の発明によれば、歪みを補正をする前の画像が車両を駐車させる制御に用いられるため、駐車制御システムの処理負荷を増大させないようにできる。結果、その制御を遅延することなく実行できる。
According to the invention of
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<第1の実施の形態>
<1.構成>
図1は、第1の実施の形態の画像処理装置2の構成を示す図である。この画像処理装置2は、車両1に搭載されるリヤカメラ6などが撮影した車両1の周辺の画像をディスプレイ10へ表示する機能(以降、表示機能という)を備える。また、画像処理装置2は、リヤカメラ6などが撮影した車両1の周辺の画像に基づいて車両1の走行する経路上のターゲットを認識した場合に、ユーザ(代表的には車両1のドライバ)へその旨を報知する機能(以降、報知機能という)を備える。また、画像処理装置2は、リヤカメラ6などが撮影した車両1の周辺の画像に基づいて車両1を制御して、車両1を駐車枠内の駐車スペースへ駐車させる機能(以降、駐車機能という)を備える。
<First Embodiment>
<1. Configuration>
FIG. 1 is a diagram illustrating a configuration of an
この画像処理装置2は図1に示すように駐車制御システムSYに備わる。つまり、この駐車制御システムSYは、画像処理装置2、フロントカメラ3、左サイドカメラ4、右サイドカメラ5、リヤカメラ6(以降において、カメラ3〜6という)、ディスプレイ10、及び、駐車制御装置12などを備える。画像処理装置2は、カメラ3〜6、ディスプレイ10、スピーカ11、及び、駐車制御装置12などとケーブルによって電気的に接続される。駐車制御装置12は、画像処理装置2、エンジン制御装置7、操舵装置8、及び、ブレーキ装置9などとケーブルによって電気的に接続される。
The
図2に示すようにフロントカメラ3は、車両1の前端にあるナンバープレート取り付け位置の近傍に設けられ、その光軸は車両1の直進方向へ向けられている。左サイドカメラ4は、左サイドミラーに設けられており、その光軸は車両1の直進方向を基準にした左方向に沿って外部へ向けられている。右サイドカメラ5は、右サイドミラーに設けられており、その光軸は車両1の直進方向を基準にした右方向に沿って外部へ向けられている。リヤカメラ6は、車両1の後端にあるナンバープレート取り付け位置の近傍に設けられ、その光軸は車両1の直進方向の逆方向へ向けられている。なお、フロントカメラ3やリヤカメラ6の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。カメラ3〜6はそれぞれ魚眼レンズを備えている。魚眼レンズを備えたカメラ3〜6の画角は180度以上である。このため、カメラ3〜6を利用することで、図3に示すように、車両1の全周囲H1〜H4の撮影が可能となっている。
As shown in FIG. 2, the
画像処理装置2は、取得部20、画像処理部21、制御部22、及び、出力部23などを備える。取得部20は、例えば、インターフェースであり、カメラ3〜6が撮影した画像などを取得する。出力部23は、例えば、インターフェースであり、画像処理部21が補正した画像などをディスプレイ10などの外部へ出力する。画像処理部21は、認識部30、及び、補正部31などを備える。画像処理部21は、例えば、ASIC(Application Specific Integrated Circuit)などのハードウェア回路である。認識部30は、補正前の画像に基づいてターゲットである人間の像を認識する処理(以降、第1認識処理という)を実行する。更に、認識部30は、補正前の画像に基づいてターゲットである駐車枠の像を認識する処理(以降、第2認識処理という)を実行する。認識部30が実行する第1認識処理及び第2認識処理の詳細については後述する。補正部31は、取得部20を介して取得された画像中の像の歪みを補正する処理(以降、補正処理という)を実行する。補正部31が実行するこの補正処理の詳細については後述する。
The
制御部22は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、及び、RAM(Random Access Memory)などを備えるマイクロコンピュータである。CPUは、ROMに記憶された種々のプログラムに従って演算処理を行うことで種々の機能を実現させる。この制御部22は、不揮発性記憶部32、導出部33、及び、報知部34などを備える。不揮発性記憶部32は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)などである。この不揮発性記憶部32は、補正部31が補正処理を実行する際の補正用パラメータなどを記憶している。導出部33は、認識されたターゲットである路面に表示された駐車枠の像に基づいて、駐車枠と車両1との相対距離を導出する処理(以降、導出処理という)を実行する。導出部33が実行するこの導出処理の詳細については後述する。報知部34は、認識部30が第1認識処理を実行することによりターゲットである人間を認識した場合に、スピーカ11を制御してユーザへその旨を報知する。
The control unit 22 is a microcomputer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The CPU realizes various functions by performing arithmetic processing according to various programs stored in the ROM. The control unit 22 includes a nonvolatile storage unit 32, a
駐車制御装置12は、例えば、マイクロコンピュータなどの電子部品が実装された電子基板などを備える。この駐車制御装置12は、駐車制御部35などを備える。駐車制御部35は、エンジン制御装置7、操舵装置8、及び、ブレーキ装置9などと協働して車両1の速度、方向、及び、停止位置などを制御して駐車枠内の駐車スペースへ車両1を駐車させる。つまり、駐車制御部35は、導出部33によって導出された駐車枠と車両1との相対距離に基づいて車両1を駐車枠内の駐車スペースへ駐車させる制御(以降、駐車制御という)を実行する。駐車制御部35が実行するこの駐車制御の詳細については後述する。
The
<2.制御>
次に、画像処理装置2が表示機能、報知機能、及び駐車機能を発揮するために実行する制御について説明する。画像処理装置2は、表示機能を実現する第1制御、報知機能を実現する第2制御、及び、駐車機能を実現する第3制御をそれぞれ所定のタイミングで実行する。なお、それぞれの機能の制御を同時期に実行する場合は、画像処理装置2はそれぞれの機能の制御を並列に実行する。
<2. Control>
Next, the control executed by the
<2.1.第1制御>
まず、表示機能を実現する第1制御について説明する。図4は第1制御の処理フロー(以降、第1制御フローという)を示す図である。ユーザにより「駐車制御」を実行するボタンが操作された場合に、画像処理装置2は図4に示す第1制御フローを所定の周期(以降、第1の周期という)で実行する。なお、第1の周期は、例えば、25msである。つまり、画像処理装置2は、第1の周期ごとに第1制御フローのステップSA1の処理を実行する。そのときに、取得部20が、リヤカメラ6によって撮影された車両1の後方周辺の画像、即ち、図5に示す画像Z4を取得する(ステップSA1)。
<2.1. First control>
First, the first control for realizing the display function will be described. FIG. 4 is a diagram showing a processing flow of the first control (hereinafter referred to as a first control flow). When a button for executing “parking control” is operated by the user, the
リヤカメラ6が撮影した画像Z4を取得するのは、車両1が駐車制御により後進している場合である。また、車両1が駐車制御により左方向に曲がりつつ後進する場合は、左サイドカメラ4及びリヤカメラ6が撮影した画像、即ち、図5に示す画像Z2及びZ4を取得する。また、車両1が駐車制御により右方向に曲がりつつ後進する場合は、右サイドカメラ5及びリヤカメラ6が撮影した画像、即ち、図5に示す画像Z3及びZ4を取得する。また、車両1が駐車制御により駐車枠内の駐車スペースに停車した場合は、フロントカメラ3が撮影した画像、即ち、図5に示す画像Z1を取得する。
The image Z4 captured by the
次に、補正部31は補正処理を実行することによって画像中の像の歪みを補正する(ステップSA2)。
Next, the
180度以上の画角θを有する魚眼レンズを備えたカメラ3〜6は、車両1の周辺の広い範囲を撮影できる一方で、その撮影された画像に映る像は樽型に歪んでしまう。本来、画像は、画像に映る物体の像と実際の物体とが相似形になっていることが理想である。
While the
従って、画像処理装置2は、樽型に歪んだ像が映る画像をそのような理想の形状の像が映る画像へと補正(以降、この補正を歪み補正という)する必要がある。この歪み補正の方法としては周知の種々の手法が利用可能であるが、そのうちの一例について説明する。まず、補正部31が、図6に示すような樽型に歪んだ像を映す画像Z2の四隅を対角線上において画像Z2の中心とは逆方向へ引っ張ったような画像、即ち、図7に示すような画像Z2Xを生成する。これによって、樽型に歪んだ像を映す画像Z2をそのような理想の画像Z2Xへと補正することができる。
Therefore, the
その生成方法を具体的に説明する。補正部31は、図6に示すように、樽型に歪んだ像を映す画像Z2へ複数のブロックBLをその歪みに沿って配置する。換言すると、補正部31は、図6に示すような樽型の歪みに沿った碁盤の目が重畳された画像Z2を把握する。そして、補正部31は、図7に示すように、樽型の歪みとは逆に歪んだ仮想の画像Z2Xへ複数のブロックBLXをその歪みに沿って配置する。換言すると、補正部31は、図7に示すような樽型の歪みとは逆の歪みに沿った碁盤の目が重畳された画像Z2Xを把握する。
The generation method will be specifically described. As illustrated in FIG. 6, the
そして、補正部31は、画像Z2に配置した複数のブロックBL内に含まれる複数のピクセルのそれぞれの座標を、不揮発性記憶部32に記憶されている補正用パラメータに従って、仮想の画像Z2X内に配置した複数のブロックBLX内の座標に変換する。この補正用パラメータは、魚眼レンズの特性に合わせたパラメータである。具体的には、補正用パラメータは、画像Z2に配置した複数のブロックBL内に含まれる複数のピクセルのそれぞれの座標と、仮想の画像Z2Xに配置したブロックBLX内の座標との対応関係を示している。
Then, the
そして、補正部31は、変換した座標に基づいて画像Z2の複数のピクセルを仮想の画像Z2Xへ転送する。ここで、仮想の画像Z2Xの多くのブロックBLは、画像Z2のブロックBLより面積が大きくなる。このため。画像Z2のそれぞれのピクセルを仮想の画像Z2Xの座標位置へ単純に転送すると、理想の画像Z2Xのブロック内にはピクセルが転送されていないエリアが存在してしまう。従って、補正部31は、このエリアを周囲のピクセルが持つ色情報に基づいて補完する。つまり、補正部31は、周囲のピクセルが持つ色の中間の色の情報を持つピクセルをそのエリアへ配置する。
Then, the correcting
このような補正処理を補正部31が実行することによって、例えば、図8に示すように、フロントカメラ3が撮影した歪んだ画像Z1を、歪んでいない画像Z1Xへと変換することができる。また、図9に示すように、左サイドカメラ4が撮影した歪んだ画像Z2を、歪んでいない画像Z2Xへと変換することができる。また、図10に示すように、右サイドカメラ5が撮影した歪んだ画像Z3を、歪んでいない画像Z3Xへと変換することができる。また、図11に示すように、リヤカメラ6が撮影した歪んだ画像Z4を、歪んでいない画像Z4Xへと変換することができる。一方で、このような複雑な補正処理が頻繁に実行されると、画像処理装置2の処理負荷を増大させてしまうことになる。結果、それぞれの機能が十分に発揮されない虞がある。
When the
このような補正処理が完了すると、出力部23は、補正後の画像をディスプレイ10へ出力して表示させる(図4のステップSA3)。これにより、像の歪みが補正された画像がディスプレイ10に表示される。
When such correction processing is completed, the
画像処理装置2がこのような第1制御フローを実行することによって、その表示機能を適切に機能させることができる。また、第1の周期で第1制御フローが実行されるため、車両1が駐車制御されるのと同時に、ディスプレイ10において車両1の周辺の画像をリアルタイムに表示させることができる。結果、ユーザは車両1を駐車させるときの車両1の周辺の様子をディスプレイ11に映る画像によって確認できる。
When the
<2−2.第2制御>
次に、報知機能を実現する第2制御について説明する。図12は第2制御の処理フロー(以降、第2制御フローという)を示す図である。画像処理装置2は、ユーザにより「駐車制御」を実行するボタンが操作された場合に、図12に示す第2制御フローを第1の周期よりも長い周期(以降、第2の周期という)で実行する。なお、第2の周期は、例えば、33msである。まず、画像処理装置2は、第2の周期ごとに図12に示す第2制御フローのステップSB1の処理を実行する。そのときに、取得部20が、リヤカメラ6によって撮影された車両1の後方周辺の画像、即ち、図5に示す画像Z4を取得する(ステップSB1)。なお、リヤカメラ6が撮影した画像Z4を取得するのは、車両1が駐車制御により後進している場合である。
<2-2. Second control>
Next, the second control for realizing the notification function will be described. FIG. 12 is a diagram showing a processing flow of the second control (hereinafter referred to as a second control flow). When the user operates a button for executing “parking control”, the
次に、認識部30は第1認識処理を実行して画像に含まれるターゲットである人間の像を認識する(ステップSB2)。ここで、ターゲットとはそれぞれの機能が、その機能を発揮させるために画像に基づいて認識すべき対象をいう。
Next, the
その第1認識処理をわかりやすく説明するために、車両1が駐車制御により後進している場合を前提にして説明する。この場合においては、リヤカメラ6が撮影した画像に基づいて認識部30がターゲットである人間の像を認識したときに、ユーザへその旨を報知して、車両1と人間との接触を回避させる。
In order to explain the first recognition process in an easy-to-understand manner, a description will be given on the assumption that the
車両1が駐車制御により後進している場合においては、車両1は比較的低速(例えば、時速3km/h)で後進する。このため、車両1の後部から後方の狭い範囲内(例えば、1m以内)に存在する人間を認識した場合にその旨をユーザへ報知しても、ユーザは車両1と人間とが接触する前に車両1を停止させることができる。結果、ユーザは車両1と人間との接触を回避させることができる。
When the
つまり、車両1と人間との接触の危険性をユーザへ報知してその接触を回避させるためには、認識部30は車両1の後部から後方1m以内に存在する人間の存在を認識するだけで十分である。
That is, in order to notify the user of the danger of contact between the
図13に示す画像Z4Xはリヤカメラ6が撮影した画像である。この画像Z4Xの中央近傍には車両1の後部から後方1m以内に存在する人間の像Hmが映る。この画像Z4Xのように、車両1の後部から後方1m以内に存在する人間は、画像Z4Xの略中央に設定される領域F1において、その人間の像Hmが映ることが経験的に多く認められる。
An image Z4X shown in FIG. 13 is an image taken by the
従って、認識部30は、画像Z4Xに設定される領域F1に対してだけ人間の像Hmを認識する第1認識処理を実行すれば、画像Z4Xの全体に対して人間の像Hmを認識する処理を実行する場合と比較して処理負荷を少なくできる。
Accordingly, when the
また、前述したように、魚眼レンズを備えたリヤカメラ6によって撮影された画像Z4Xに映る像は樽型に歪んでしまう特性を有している。この樽型に歪んだ像を映す画像Z4Xは、その画像Z4Xの中央から周辺に向かうほどその歪みの程度が大きくなっていくため、このような画像Z4Xに基づいて第1認識処理を行うとその周辺に位置する人間の像Hmの認識精度は比較的低くなる。
Further, as described above, the image shown in the image Z4X photographed by the
逆にいうと、樽型に歪んだ像を映す画像Z4Xは、その画像Z4Xの周辺から中心に向かうほどその歪みの程度が小さくなっていくため、このような画像Z4Xに基づいて第1認識処理を行うとその中央に位置する人間の像Hmの認識精度は比較的高くなる。 In other words, the image Z4X showing a barrel-distorted image becomes smaller in the degree of distortion from the periphery of the image Z4X toward the center. Therefore, the first recognition process is performed based on the image Z4X. If it performs, the recognition accuracy of the human image Hm located in the center will become comparatively high.
従って、リヤカメラ6が撮影した画像Z4Xの略中央に設定される領域F1に対して第1認識処理を実行すれば、車両1の後部から後方1m以内に存在する人間を十分な精度で検出できる。このため、前述した補正処理を施さない画像Z4X、即ち、樽型に歪んだ像を映す画像Z4Xに基づいて第1認識処理を実行できる。換言すると、第2制御フローにおいて比較的処理負荷が大きい補正処理を実行しないことにより画像処理装置2の処理負荷を増大させないようにできる。
Therefore, if the first recognition process is executed on the area F1 set at the approximate center of the image Z4X taken by the
この第1認識処理をより具体的に説明する。まず、認識部30は、画像Z4Xの略中央に設定される領域F1に対してエッジ検出処理を実行する。エッジ検出処理は、画像Z4Xに設定される領域F1の縦方向、即ち、図13に示すY軸方向のエッジを検出する。更に、エッジ検出処理は、画像Z4Xに設定される領域F1の横方向、即ち、図13に示すX軸方向のエッジを検出する。図14は、画像Z4Xに設定される領域F1に対して縦方向のエッジ(以降、縦エッジという)を検出したことを示す図である。また、図15は、画像Z4Xに設定される領域F1に対して横方向のエッジ(以降、横エッジという)を検出したことを示す図である。そして、領域F1に比較的短い横エッジEd2と比較的長い縦エッジEd1とが交わる状態で存在する場合、或いは、それらが近接する状態で存在する場合に、認識部30は人間の下半身が領域F1に存在する確度が高いと判断して、人間を認識する。
This first recognition process will be described more specifically. First, the recognizing
このような第1認識処理が完了すると、報知部34は、ターゲットである人間が認識部30によって認識されたか否かを判断する(図12のステップSB3)。
When such first recognition processing is completed, the
人間が認識された場合は、報知部34はその旨を知らせる音をスピーカ11へ出力させる制御信号を出力部23を介して出力する(ステップSB4)。
When a human is recognized, the
一方で、ステップSB3において、人間が認識されなかった場合には、報知処理が実行されずにそのまま処理を終了する。 On the other hand, if no human is recognized in step SB3, the notification process is not executed and the process is terminated as it is.
画像処理装置2がこのような第2制御フローを実行することによって、その報知機能を適切に機能させることができる。また、第2制御において画像Z4Xに補正処理を施さない画像Z4X、即ち、樽型に歪んだ像を映す画像Z4Xに基づいて人間の像Hmを認識するため、画像処理装置2の処理負荷を増大させないようにできる。結果、ユーザは車両1を駐車させるときに、車両1の周辺に存在する人間を遅延することなく知ることができる。
When the
<2−3.第3制御>
次に、駐車機能を実現する第3制御について説明する。まず、駐車制御システムSYが実行する駐車制御の駐車方法について説明する。駐車制御システムSYが実行する駐車方法は、所謂、「車庫入れ駐車」である。
<2-3. Third control>
Next, 3rd control which implement | achieves a parking function is demonstrated. First, a parking control parking method executed by the parking control system SY will be described. The parking method executed by the parking control system SY is so-called “garage parking”.
図16は、車両1の「車庫入れ駐車」を説明するための図である。図16に示すような駐車場において、車両1が初期位置P1でその駐車を開始させる指示をユーザから受け付けたときに、駐車制御システムSYは車両1を、初期位置P1から後進開始位置P2へと前進させる。次に、駐車制御システムSYは車両1を後進開始位置P2で一旦停車させる。次に、駐車制御システムSYは車両1を後進開始位置P2から後進させて駐車枠内の駐車スペースPSで停車させる。
FIG. 16 is a diagram for explaining “garage parking” of the
図17は第3制御の処理フロー(以降、第3制御フローという)を示す図である。画像処理装置2はユーザにより「駐車制御」を実行するボタンが操作された場合で、車両1が後進開始位置P2で一旦停車したときに、図17に示す第3制御フローを第2の周期よりも長い周期(以降、第3の周期という)で実行する。なお、第3の周期は、例えば、45msである。まず、画像処理装置2は、第3の周期ごとに第3制御フローのステップSC1の処理を実行する。そのときに、取得部20は、リヤカメラ6によって撮影された画像を取得する(ステップSC1)。
FIG. 17 is a diagram showing a third control process flow (hereinafter referred to as a third control flow). When the button for executing “parking control” is operated by the user and the
次に、認識部30は、取得部20を介して取得したリヤカメラ6によって撮影された画像に基づいて、駐車場の駐車枠内の駐車スペースPSを認識する第2認識処理を実行する(ステップSC2)。
Next, the
駐車制御システムSYが車両1を後進開始位置P2で一旦停車させた場合に、認識部30はリヤカメラ6によって撮影された図18に示す画像Z4Yに基づいて、車両1の後方に存在する駐車枠の像Lを認識する。
When the parking control system SY stops the
具体的には、認識部30は、エッジ検出処理を画像Z4Yの略中央に設定される領域F2に対して実行する。そして、検出されたエッジにより把握されたものが駐車枠の像Lであるとする確度が高い場合に、認識部30は駐車枠の像Lの存在を認識する。領域F2を対象にして駐車枠の像Lを認識する理由は、車両1が後進開始位置P2に位置するときに、リヤカメラ6によって撮影された画像Z4Yの略中央に設定される領域F2において駐車枠の像Lが映ることが経験的に多く認められるからである。
Specifically, the recognizing
従って、認識部30は、画像Z4Yに設定される領域F2に対してだけ第2認識処理を実行することによって、画像Z4Yの全体に対して第2認識処理を実行する場合と比較してその処理負荷を少なくできる。
Accordingly, the
また、前述したように、魚眼レンズを備えたリヤカメラ6が撮影した画像Z4Yに映る像は樽型に歪んでしまう特性を有している。この樽型に歪んだ像を映す画像Z4Yは、その画像Z4Yの中央から周辺に向かうほどその歪みの程度が大きくなっていくため、この画像Z4Yに基づいて第2認識処理を実行するとその周辺に位置する駐車枠の像Lの認識精度は比較的低くなる。
Further, as described above, the image shown in the image Z4Y photographed by the
逆にいうと、樽型に歪んだ像を映す画像Z4Yは、その画像Z4Yの周辺から中心に向かうほどその歪みの程度が小さくなっていくため、画像Z4Yに基づいて第2認識処理をしてもその略中央に位置する駐車枠の像Lの認識精度は比較的高くなる。 In other words, the image Z4Y that shows an image distorted in a barrel shape has a smaller degree of distortion as it goes from the periphery of the image Z4Y to the center, so the second recognition process is performed based on the image Z4Y. However, the recognition accuracy of the image L of the parking frame located approximately in the center is relatively high.
従って、車両1が後進開始位置P2に位置するときにリヤカメラ6が撮影した画像Z4Yの略中央に設定される領域F2に対して第2認識処理を実行すれば駐車枠を十分に検出できる。
Therefore, the parking frame can be sufficiently detected by executing the second recognition process on the area F2 set at the approximate center of the image Z4Y captured by the
このため、前述した補正処理を施さない画像Z4Y、即ち、樽型に歪んだ像を映す画像Z4Yに基づいて第2認識処理を実行できる。換言すると、第3制御フローで比較的処理負荷が大きい補正処理を実行しないことにより画像処理装置2の処理負荷を増大させないようにできる。
Therefore, the second recognition process can be executed based on the image Z4Y that is not subjected to the above-described correction process, that is, the image Z4Y that shows an image distorted in a barrel shape. In other words, it is possible to prevent the processing load of the
第2認識処理が完了すると、導出部33は、認識された路面に表示された駐車枠の像Lに基づいて、駐車枠と車両1との相対距離を導出する導出処理を実行する(図17のステップSC3)。
When the second recognition process is completed, the
図19は、駐車枠と車両1との相対距離を導出する手法を説明するための図である。導出部33は、認識部30によって認識された駐車枠の像Lに基づいて駐車枠と車両1との相対距離を導出する。具体的には、駐車枠の像Lに基づいて把握される駐車スペースPSと車両1の位置である後進開始位置P2との相対距離を導出部33が導出する。そして、導出部33は、導出した相対距離に基づいて車両1を駐車スペースPSへと誘導するための仮想マップ上のルートRを導出する。この仮想マップ上のルートRは、後進開始位置P2から駐車スペースPSへ車両1を最短で誘導できるように導出される。更に、この仮想マップ上のルートRは、車両1を誘導する際に車両1と駐車されている他の車両などとが接触しないように導出される。この仮想マップは、図19に示すように、車両1を仮想の視点から俯瞰した際のxy座標によって定義される。この仮想マップにおいて、車両1の後進開始位置P2は座標の原点(x=0、y=0)に設定される。また、仮想マップ上のルートRについても適切な座標が設定される。
FIG. 19 is a diagram for explaining a method for deriving the relative distance between the parking frame and the
導出処理が完了すると、駐車制御部35は、導出部33によって導出された駐車枠と車両1との相対距離に基づいて車両1を駐車枠内の駐車スペースPSへ駐車させる駐車制御を実行する(図17のステップSC4)。
When the derivation process is completed, the
駐車制御部35は、導出部33によって導出された仮想マップ上のルートRに基づいて車両1を駐車させる。つまり、駐車制御部35は、仮想マップ上のルートRと仮想マップ上の車両1の現在位置とを一致させるようにして、車両1の挙動を制御して車両1を駐車スペースPSへ移動させる。
The
画像処理装置2がこのような第3制御フローを実行することによって、その駐車機能を適切に機能させることができる。また、第3制御において補正処理を施さない画像Z4Y、即ち、樽型に歪んだ像が映る画像Z4Yに基づいて駐車枠の像Lを認識し、認識した駐車枠の像Lに基づいて駐車制御を実行するため、その制御を遅延することなく実行できる。
When the
以上説明したように、第1制御、第2制御、及び、第3制御を実行する画像処理装置2は、歪みを補正した画像をディスプレイ10へ出力して表示させる一方で、歪みを補正しない画像に基づいてターゲットの像を認識するため、画像処理装置2の処理負荷を増大させないようにできる。
As described above, the
<3.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態においては、車両1が駐車制御により後進しているときに、リヤカメラ6によって撮影された画像に基づいて車両1の後方に存在する人間の像Hmを認識部30が認識していた。これに対して、第2の実施の形態では車両1が駐車制御により左方向へ曲がりつつ後進しているときに、左サイドカメラ4によって撮影された画像に基づいて車両1の左側後方に存在する他の車両の像を認識部30が認識する。
<3. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, when the
以下、第2の実施の形態の画像処理装置2の構成及び処理フローは第1の実施の形態と略同様であるため、第1の実施の形態との相違点を中心に説明する。
In the following, the configuration and processing flow of the
図20は、第2の実施の形態の画像処理装置2が発揮する報知機能を実現する第4制御の処理フロー(以降、第4制御フローという)を示す図である。この第4制御フローは、ユーザにより「駐車制御」を実行するボタンが操作された場合に、第1の周期よりも長い周期(以降、第2の周期という)で画像処理装置2によって実行される。なお、第2の周期は、例えば、33msある。
FIG. 20 is a diagram illustrating a fourth control process flow (hereinafter referred to as a fourth control flow) for realizing the notification function exhibited by the
図20に示すステップSD1、SD3、及び、SD4の処理は、図12に示すステップSB1、SB3、及び、SB4の処理と同一である。つまり、左サイドカメラ4が撮影した車両1の側方周辺の画像、即ち、図5に示す画像Z2を取得部20が取得する(ステップSD1)。次に、認識部30は第3認識処理を実行して画像Z2に含まれるターゲットである他の車両の像を認識する(ステップSD2)。
The processes in steps SD1, SD3, and SD4 shown in FIG. 20 are the same as the processes in steps SB1, SB3, and SB4 shown in FIG. That is, the
図21は、左サイドカメラ4が撮影した画像Z2Yの一例を示す図である。この画像Z2Yの左端近傍には車両1の側方後部から後方1m以内に存在する他の車両の像CRが映る。この画像Z2Yのように、車両1の側方後部から後方1m以内に存在する他の車両は、画像Z2Yの左端近傍に設定される領域F3において、他の車両の四隅の一部の像が映ることが経験的に多く認められる。
FIG. 21 is a diagram illustrating an example of an image Z2Y captured by the
従って、認識部30は、画像Z2Yの近傍に設定される領域F3に対して、第3認識処理を実行することによって、他の車両の像CRの認識の精度を高めることができ、その処理負荷を増大させないようにできる。この第3認識処理について詳細に説明する。
Therefore, the
認識部30は、まず、図21に示す画像Z2Yの端部近傍に設定された領域F3を対象にしてエッジ検出処理を実行する。画像に映る像に歪みが少ない場合は、認識部30は領域F3に映る像の縦エッジと横エッジとを検出することによって、他の車両の像CRを比較的容易に認識できる。しかしながら、認識部30が利用する画像Z2Yには、映る像に歪みがあり、さらに、画像Z2Yの中央から周辺に向かうほどその歪みの程度は大きくなる特性を有している。このため、画像Z2Yの端部近傍に設定された領域F3に映る像の歪みは比較的大きくなっている。従って、この領域F3を対象にして縦エッジ及び横エッジを検出しても、認識部30は他の車両の像CRの縦エッジ及び横エッジを正しく検出できない虞がある。結果、認識部30は他の車両を認識する精度を低下させてしまう。
First, the recognizing
このような虞があるため、認識部30は、領域F3に映る像の歪みを考慮して他の車両の像CRの横エッジ及び縦エッジを検出する必要がある。つまり、認識部30は、領域F3に映る像の歪みの程度に応じて他の車両の像を認識する方向を変更する。
Since there is such a possibility, the
図22は、画像Z2Yの端部近傍に設定された領域F3に映る像の縦エッジを検出する手法を説明する図である。図22においては、左サイドカメラ4で得られた像の歪みの程度が多い画像(以下、「歪画像」という。)Z2Yとともに、像の歪みの程度が少ない画像(以下、「通常画像」という。)Z2aを比較対象として示している。これらの歪画像Z2Y及び通常画像Z2aの双方の同一の位置に、像の検出対象とする領域F3を設定している。
FIG. 22 is a diagram illustrating a method for detecting a vertical edge of an image shown in the region F3 set near the end of the image Z2Y. In FIG. 22, an image obtained by the
通常画像Z2aでは、領域F3において、他の車両の像CRの垂直ラインは水平ラインHzに対して90度の角度をなして映る。これに対して、歪画像Z2Yでは、領域F3において、他の車両の像CRの垂直ラインは水平ラインHzに対して120度の角度をなして映る。なお、水平ラインHzはそれぞれの画像の左右方向(X軸方向)に沿ったラインである。 In the normal image Z2a, the vertical line of the image CR of the other vehicle appears in the region F3 at an angle of 90 degrees with respect to the horizontal line Hz. On the other hand, in the distorted image Z2Y, the vertical line of the image CR of another vehicle appears at an angle of 120 degrees with respect to the horizontal line Hz in the region F3. The horizontal line Hz is a line along the left-right direction (X-axis direction) of each image.
したがって、通常画像Z2aの像の方向を基準方向とした場合、歪画像Z2Yの像の方向は、基準方向に対して30度傾いていることになる。認識部30は、このような基準方向に対する実際の像の方向の傾きの角度をオフセット値Ovとして予め記憶している。このようなオフセット値Ovは、領域F3における像の歪みの程度に相当する。像の歪みの程度は画像中の光軸に対応する位置から離れるほど大きくなる。したがって、画像中の光軸に対応する位置に対する領域F3の位置に応じて、オフセット値Ovは規定される。
Therefore, when the direction of the image of the normal image Z2a is the reference direction, the direction of the image of the distorted image Z2Y is inclined by 30 degrees with respect to the reference direction. The recognizing
認識部30は、このオフセット値Ovを、歪画像Z2Yに基づいて他の車両の像CRを認識する際に適用して、オフセット値Ovに応じて他の車両の像を認識する方向を変更する。これにより、他の車両の像CRの認識精度を高くするようにしている。具体的には、認識部30は、縦エッジを検出する際には、画像Z2Yの領域F3において、水平ラインHzに対して90度となる垂直ラインを基準とし、その基準の垂直ラインに対してオフセット値Ovの角度を傾かせた想定ラインを導出する。そして、この想定ラインに略平行なエッジを検出することによって、領域F3に映る像の縦エッジを高精度に検出できる。一方、認識部30は、横エッジを検出する際には、画像Z2Yの領域F3において、水平ラインHzを基準とし、その基準の水平ラインに対してオフセット値Ovの角度を傾かせた想定ラインを導出する。そして、この想定ラインに略平行なエッジを検出することによって、領域F3に映る像の横エッジを高精度に検出できる。
The
図23は、領域F3に映る像の縦エッジの検出結果を示す図である。図23に示すように、オフセット値Ovが考慮されて導出された想定ライン、即ち、垂直ラインに対して30度傾いた想定ラインと略平行な縦エッジが検出されている。なお、この場合においては、検出された縦エッジには、他の車両の像CR以外の像の縦エッジも含んでいる。また、図24は、領域F3に映る像の横エッジの検出結果を示す図である。認識部30は、オフセット値Ovが考慮されて導出された想定ライン、即ち、水平ラインに対して30度傾いた想定ラインと略平行な横エッジが検出されている。
FIG. 23 is a diagram showing the detection result of the vertical edge of the image shown in the region F3. As shown in FIG. 23, an assumed line derived in consideration of the offset value Ov, that is, a vertical edge substantially parallel to the assumed line inclined by 30 degrees with respect to the vertical line is detected. In this case, the detected vertical edge includes a vertical edge of an image other than the image CR of another vehicle. FIG. 24 is a diagram showing the detection result of the horizontal edge of the image shown in the region F3. The recognizing
そして、認識部30は検出された複数の縦エッジと横エッジに基づいて他の車両の像を認識する。すなわち、領域F3において、横エッジと縦エッジとが交わる状態で存在する場合、或いは、それらエッジが相互に近接する状態で存在する場合に、認識部30は他の車両の像を認識する。
And the
このような第3認識処理が完了すると、報知部34は、ターゲットである他の車両が認識部30によって認識されたか否かを判断する(図20のステップSD3)。
When such third recognition processing is completed, the
他の車両が認識されたと場合は、報知部34はその旨を知らせる音をスピーカ11へ出力させる制御信号を出力部23を介して出力する(ステップSD4)。
When another vehicle is recognized, the
また、ステップSD3において、他の車両が認識されなかった場合には報知処理が実行されずそのまま処理を終了する。 In step SD3, if no other vehicle is recognized, the notification process is not executed and the process ends.
以上説明したように、画像処理装置2がこの第4制御フローを実行することによって、その報知機能を適切に機能させることができる。また、第3認識処理においては、認識部30は、領域F3の像の歪みの程度を示すオフセット値に応じて、他の車両の像を認識する方向を変更する。すなわち、認識部30は、オフセット値Ovを考慮して領域F3に映る像のエッジを検出し、検出したエッジに基づいて他の車両の像CRを認識するため、画像Z2Yの全体に対して歪み補正をしたのちに他の車両の像CRを認識する場合と比較して、その処理負荷を少なくできる。結果、ユーザは車両1を駐車させるときに、車両1の後方に存在する他の車両を遅延することなく知ることができる。
As described above, when the
<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下ではこのような変形例について説明する。上記実施の形態で説明した形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Hereinafter, such a modification will be described. All forms including those described in the above embodiment and those described below can be combined as appropriate.
上記第1の実施の形態では、画像処理装置2が駐車機能を発揮する場合に、報知機能を発揮させていた。これに対して、ユーザがシフトギヤを「R」にして自ら車両1を運転して駐車させる場合に、報知機能を発揮させても良い。
In the first embodiment, the notification function is exhibited when the
上記第1の実施の形態では、ターゲットを人間及び駐車枠であるとしていた。また、上記第2の実施の形態では、ターゲットを他の車両であるとしていた。これに対して、ターゲットを車両1が走行する経路上の障害物としても良い。例えば、障害物は、車両1が走行する経路上に存在するダンボール、三角コーン、自転車、三輪車などである。
In the first embodiment, the target is a person and a parking frame. In the second embodiment, the target is another vehicle. On the other hand, the target may be an obstacle on the route on which the
上記第2の実施の形態では、車両1が車庫入れ駐車をされる場合で、車両1が左方向に曲がりつつ後進するときに、左サイドカメラ4によって撮影された画像Z2に基づいて他の車両の像CRを認識部30が認識するとしていた。これに対して、車両1が右方向に曲がりつつ後進するときに、右サイドカメラ5によって撮影された画像Z3に基づいて他の車両の像CRを認識部30が認識しても良い。
In the second embodiment, when the
1 車両
2 画像処理装置
12 駐車制御装置
20 取得部
21 画像処理部
22 制御部
23 出力部
30 認識部
33 導出部
34 報知部
35 駐車制御部
DESCRIPTION OF
Claims (8)
前記カメラが撮影した前記画像を取得する取得手段と、
取得された前記画像中の像の歪みを補正する補正手段と、
補正前の前記画像に基づいてターゲットの像を認識する認識手段と、
補正後の前記画像をディスプレイへ出力して表示させる出力手段と、
を備えることを特徴とする画像処理装置。 An image processing apparatus that processes an image captured by a camera,
Obtaining means for obtaining the image taken by the camera;
Correction means for correcting distortion of the image in the acquired image;
Recognition means for recognizing the image of the target based on the image before correction;
Output means for outputting and displaying the corrected image on a display;
An image processing apparatus comprising:
前記認識手段は、補正前の前記画像の略中央に設定される対象領域を対象にして前記ターゲットの像を認識することを特徴とする画像認識装置。 The image processing apparatus according to claim 1.
The image recognizing apparatus, wherein the recognizing unit recognizes an image of the target with respect to a target region set at a substantially center of the image before correction.
前記認識手段は、補正前の前記画像の端部近傍に設定される対象領域を対象にして前記ターゲットの像を認識し、前記対象領域の像の歪みの程度に応じて前記ターゲットの像を認識する方向を変更することを特徴とする画像認識装置。 The image processing apparatus according to claim 1.
The recognition unit recognizes the target image with respect to a target region set in the vicinity of the edge of the image before correction, and recognizes the target image according to the degree of distortion of the target region image. An image recognition apparatus characterized by changing a direction to perform.
前記カメラは車両に搭載され、前記車両の周辺を撮影するものであり、
前記ターゲットは前記車両が走行する経路上の障害物であり、
前記認識手段が前記障害物の像を認識した場合は、ユーザへその旨を報知する報知手段、
をさらに備えることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The camera is mounted on a vehicle and photographs the periphery of the vehicle.
The target is an obstacle on the route traveled by the vehicle,
When the recognizing unit recognizes the image of the obstacle, a notification unit that notifies the user of the fact,
An image processing apparatus further comprising:
前記障害物は人間であり、
前記認識手段が前記人間の像を認識した場合は、ユーザへその旨を報知する報知手段、
をさらに備えることを特徴とする画像処理装置。 The image processing apparatus according to claim 4.
The obstacle is a human,
When the recognition unit recognizes the human image, a notification unit that notifies the user of the fact,
An image processing apparatus further comprising:
前記カメラのレンズは魚眼レンズであることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 5,
An image processing apparatus, wherein the lens of the camera is a fisheye lens.
車両に備わるカメラが撮影した前記車両の周辺の画像を取得する取得手段と、
取得された前記画像中の像の歪みを補正する補正手段と、
補正前の前記画像に基づいて路面に表示された駐車枠の像を認識する認識手段と、
補正後の前記画像をディスプレイへ出力して表示させる出力手段と、
前記認識手段に認識された前記駐車枠の像に基づいて、前記車両の挙動を制御して前記駐車枠へ前記車両を駐車させる制御手段と、
をさらに備えることを特徴とする駐車制御システム。 A parking control system for controlling a vehicle to be parked,
Obtaining means for obtaining an image of the periphery of the vehicle taken by a camera provided on the vehicle;
Correction means for correcting distortion of the image in the acquired image;
Recognizing means for recognizing an image of a parking frame displayed on the road surface based on the image before correction;
Output means for outputting and displaying the corrected image on a display;
Control means for controlling the behavior of the vehicle based on the image of the parking frame recognized by the recognition means to park the vehicle in the parking frame;
A parking control system further comprising:
(a)前記カメラが撮影した前記画像を取得する工程と、
(b)取得された前記画像中の像の歪みを補正する工程と、
(c)補正前の前記画像に基づいてターゲットの像を認識する工程と、
(d)補正後の前記画像をディスプレイへ表示する工程と、
を備えることを特徴とする画像処理方法。 An image processing method for processing an image taken by a camera,
(A) acquiring the image taken by the camera;
(B) correcting distortion of the image in the acquired image;
(C) recognizing a target image based on the image before correction;
(D) displaying the corrected image on a display;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011039439A JP2012178639A (en) | 2011-02-25 | 2011-02-25 | Image processing device, parking control system, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011039439A JP2012178639A (en) | 2011-02-25 | 2011-02-25 | Image processing device, parking control system, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012178639A true JP2012178639A (en) | 2012-09-13 |
Family
ID=46980218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011039439A Withdrawn JP2012178639A (en) | 2011-02-25 | 2011-02-25 | Image processing device, parking control system, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012178639A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101816038B1 (en) | 2016-08-25 | 2018-01-08 | 현대오트론 주식회사 | Apparatus and method for revising brightness of image |
JP2019040521A (en) * | 2017-08-28 | 2019-03-14 | トヨタ自動車株式会社 | Image processing apparatus and imaging apparatus |
JP7500527B2 (en) | 2021-09-24 | 2024-06-17 | キヤノン株式会社 | IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM |
-
2011
- 2011-02-25 JP JP2011039439A patent/JP2012178639A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101816038B1 (en) | 2016-08-25 | 2018-01-08 | 현대오트론 주식회사 | Apparatus and method for revising brightness of image |
JP2019040521A (en) * | 2017-08-28 | 2019-03-14 | トヨタ自動車株式会社 | Image processing apparatus and imaging apparatus |
JP7500527B2 (en) | 2021-09-24 | 2024-06-17 | キヤノン株式会社 | IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5347257B2 (en) | Vehicle periphery monitoring device and video display method | |
JP5213063B2 (en) | Vehicle display device and display method | |
JP2009524171A (en) | How to combine multiple images into a bird's eye view image | |
JP2007274377A (en) | Periphery monitoring apparatus, and program | |
JP2009231936A (en) | Image processing device and method, drive support system, and vehicle | |
US20170028917A1 (en) | Driving assistance device and driving assistance method | |
WO2015129280A1 (en) | Image processing device and image processing method | |
US20200039435A1 (en) | Onboard camera system for eliminating a-pillar blind areas of a mobile vehicle and image processing method thereof | |
TWI533694B (en) | Obstacle detection and display system for vehicle | |
JP2016168877A (en) | Visual recognition device for vehicle | |
JP6398675B2 (en) | Image generation device | |
JP2012093872A (en) | Image recognition device and image recognition method | |
JP7000383B2 (en) | Image processing device and image processing method | |
US9827906B2 (en) | Image processing apparatus | |
JP2012178639A (en) | Image processing device, parking control system, and image processing method | |
JP2007221199A (en) | On-vehicle camera display device and image processing unit | |
US10821900B2 (en) | Image processing device | |
JP5235843B2 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
JP6439233B2 (en) | Image display apparatus for vehicle and image processing method | |
JP5395373B2 (en) | Perimeter monitoring device | |
JP2008294616A (en) | Driving support system and vehicle | |
JP6620962B2 (en) | Parking assistance device | |
JP2018113622A (en) | Image processing apparatus, image processing system, and image processing method | |
JP2006178667A (en) | Video correcting apparatus and method for vehicle | |
WO2015115103A1 (en) | Image processing device, camera system, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |