JP5208790B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5208790B2 JP5208790B2 JP2009024232A JP2009024232A JP5208790B2 JP 5208790 B2 JP5208790 B2 JP 5208790B2 JP 2009024232 A JP2009024232 A JP 2009024232A JP 2009024232 A JP2009024232 A JP 2009024232A JP 5208790 B2 JP5208790 B2 JP 5208790B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- captured image
- unit
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、車両の周囲の画像を適切に表示させるための画像信号を生成する画像処理装置、画像処理方法ならびに当該画像処理装置をコンピュータ上で実現するためのプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for realizing the image processing apparatus on a computer, which generate an image signal for appropriately displaying an image around a vehicle.
近年、車載カメラで撮像された車両の周囲の画像を車室内に設置されたモニターに表示することにより、運転者の適切な運転操作を促す技術が知られている。このような用途で用いられる車載カメラは、車両の周囲の所望の領域(空間)を適切に表示できるように、一般的には、車体の正確な位置に正確な角度で取り付けられる。 2. Description of the Related Art In recent years, a technique for prompting a driver to perform an appropriate driving operation by displaying an image around a vehicle captured by an in-vehicle camera on a monitor installed in a vehicle interior is known. In-vehicle cameras used in such applications are generally attached to an accurate position of the vehicle body at an accurate angle so that a desired region (space) around the vehicle can be appropriately displayed.
しかしながら、車載カメラを車体に取り付ける際の取り付けミスや経年劣化により、取り付け位置や取り付け角度がずれてしまう場合がある。このような問題を解決するための技術は、例えば、特許文献1乃至4に開示されている。
However, the attachment position and the attachment angle may be shifted due to an attachment mistake or aging deterioration when attaching the in-vehicle camera to the vehicle body. Technologies for solving such problems are disclosed in, for example,
特許文献1には、第1行列演算部と、校正点特定部と、第2行列演算部と、第3行列演算部と、成否判定部と、を備え、回転行列を求めることによって、車両に取り付けられた車載カメラを校正し、その成否を判定する車載カメラの校正装置が開示されている。ここで、第1行列演算部は、少なくとも異なる2箇所に配置された校正指標の校正点の基準座標系における座標に基づいて第1行列を演算する。また、校正点特定部は、車載カメラの撮影画像から校正点を特定する。そして、第2行列演算部は、車載カメラの撮影画像上の校正点の座標に基づいて第2行列を演算する。また、第3行列演算部は、第1行列と第2行列とに基づいて車載カメラの回転状態を示す回転行列を演算する。そして、成否判定部は、車載カメラの撮影画像に基づいて車載カメラの校正の成否を判定する。
また、特許文献2には、画像処理装置を構成するメモリのメモリ容量を削減すると共に、ビデオカメラに対する光軸ズレ補正を行うことができる画像処理装置が開示されている。特許文献2に開示された画像処理装置は、ビデオカメラと、その撮像信号を格納するメモリと、読み出した撮像信号に対して所定の処理を行うCPUとを備える。特許文献2に開示された画像処理装置は、CPUからの選択指令に応じて、撮像信号のうち所定の部分のみを選択し、選択撮像信号のみをメモリに書き込む選択書き込み手段をさらに備えている。 Patent Document 2 discloses an image processing apparatus capable of reducing the memory capacity of a memory constituting the image processing apparatus and correcting optical axis deviation with respect to the video camera. The image processing apparatus disclosed in Patent Literature 2 includes a video camera, a memory that stores the image pickup signal, and a CPU that performs predetermined processing on the read image pickup signal. The image processing apparatus disclosed in Patent Document 2 further includes a selection writing unit that selects only a predetermined portion of the imaging signal in response to a selection command from the CPU and writes only the selected imaging signal in the memory.
さらに、特許文献3には、車載カメラの光軸ずれを検出できる車載カメラの光軸ずれ検出装置が開示されている。特許文献3に開示された車載カメラの光軸ずれ検出装置は、以下に示す手法により車載カメラの光軸のずれを検出する。すなわち、車載カメラは、リヤバンパー等の車体の一部が視野に入るように車両に取り付けられる。ここで、この車載カメラにより撮像される画像内においてリヤバンパー等が本来観測されるべき位置は、テンプレート画像としてデータROMに予め格納されている。車載カメラの光軸ずれを検出する際は、車載カメラにより撮像された実画像内におけるリヤバンパー等の位置が、テンプレート画像内におけるリヤバンパー等の位置と比較される。そして、所定値以上の位置ずれが生じている場合には、車載カメラに光軸ずれが生じているものと判定される。 Further, Patent Literature 3 discloses an optical axis deviation detection device for an in-vehicle camera that can detect an optical axis deviation of the in-vehicle camera. The on-vehicle camera optical axis deviation detection device disclosed in Patent Literature 3 detects the optical axis deviation of the on-vehicle camera by the following method. That is, the in-vehicle camera is attached to the vehicle so that a part of the vehicle body such as a rear bumper enters the field of view. Here, the position where the rear bumper or the like should be observed in the image captured by the in-vehicle camera is stored in advance in the data ROM as a template image. When detecting the optical axis deviation of the vehicle-mounted camera, the position of the rear bumper or the like in the actual image captured by the vehicle-mounted camera is compared with the position of the rear bumper or the like in the template image. And when the position shift more than a predetermined value has arisen, it determines with the optical axis shift having arisen in the vehicle-mounted camera.
また、特許文献4には、車両に搭載された車載カメラのピントが合わない場合に乗員に速やかに警告を発し得る車載カメラ点検装置、ならびに、車載カメラのずれや汚れを乗員に確実に判別せしめる車載カメラ点検装置が開示されている。特許文献4に開示された車載カメラ点検装置は、以下に示すように構成されている。すなわち、撮像部により撮像された撮像画像について、ピント判定部がピント判定を行う。ピント判定は、エッジ抽出により行う。ここで、記憶部には基準映像が記憶されている。そして、基準映像と撮像映像とが照合されることによって撮像部の設置姿勢のずれが判別される。また、車両が移動しているにも拘わらず無変化領域が検出された場合には、撮像部のレンズ表面に付着した汚れがあると判別される。ピントが合っていない場合、または設置姿勢がずれている場合、またはレンズ表面に汚れが付着されていると判別された場合には、警告部から乗員に対して警告を発する。 Further, Patent Document 4 discloses an in-vehicle camera inspection device that can promptly give a warning to an occupant when the in-vehicle camera mounted on the vehicle is out of focus, and allows the occupant to reliably discriminate the displacement and dirt of the in-vehicle camera. An in-vehicle camera inspection device is disclosed. The in-vehicle camera inspection device disclosed in Patent Document 4 is configured as follows. That is, the focus determination unit performs focus determination on the captured image captured by the imaging unit. Focus determination is performed by edge extraction. Here, the reference image is stored in the storage unit. Then, the reference image and the captured image are collated to determine the deviation of the installation posture of the imaging unit. In addition, when a non-change area is detected even though the vehicle is moving, it is determined that there is dirt attached to the lens surface of the imaging unit. When it is out of focus, when the installation posture is deviated, or when it is determined that dirt is attached to the lens surface, the warning unit issues a warning to the occupant.
しかしながら、特許文献1に開示された車載カメラの校正装置は、車載カメラを校正する装置である。このため、車載カメラ自身が車載カメラを校正するための特別な機構等を備えている必要があった。また、特許文献2に開示された画像処理装置は、光軸ズレ補正を行うことができる画像処理装置であり、画像処理装置自身が光軸ズレ補正を行うための機構等を備えている必要があった。また、特許文献3に開示された車載カメラの光軸ずれ検出装置は、車載カメラの光軸ずれを検出するだけの装置である。さらに、特許文献4に開示された車載カメラ点検装置は、車載カメラのピントのずれや車載カメラの設置姿勢のずれやレンズの汚れなどがあるか否かを判別し、これらがあった場合には乗員に警告を発するだけの装置である。このように、特許文献1乃至4に開示された装置はいずれも、装置自体に車載カメラを校正するための特別な機構等を設けずに、車両の周囲の画像を適切に表示できる装置ではなかった。従って、簡単な構成で、車両の周囲の画像を適切に表示する技術が強く望まれていた。
However, the in-vehicle camera calibration device disclosed in
本発明は、上記問題に鑑みてなされたものであり、車両の周囲の画像を適切に表示させるための画像信号を生成する画像処理装置、画像処理方法ならびに当該画像処理装置をコンピュータ上で実現するためのプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and realizes an image processing apparatus, an image processing method, and the image processing apparatus for generating an image signal for appropriately displaying an image around a vehicle on a computer. It aims at providing the program for.
上記目的を達成するために、本発明の第1の観点に係る画像処理装置は、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶する記憶手段と、
前記撮像画像上における前記車両の一部の位置を特定する特定手段と、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段と、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段と、を備え、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする。
In order to achieve the above object, an image processing apparatus according to the first aspect of the present invention provides:
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part;
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
It is characterized by that.
前記生成手段は、前記抽出手段により抽出された画像部分を前記表示装置の画面上の一定の位置に表示させるとともに当該画面上の一定の位置にガイド線を重畳表示させるための画像信号を生成してもよい。 The generating unit generates an image signal for displaying the image portion extracted by the extracting unit at a certain position on the screen of the display device and displaying a guide line superimposed on the certain position on the screen. May be.
上記目的を達成するために、本発明の第2の観点に係る画像処理方法は、
記憶手段、特定手段、抽出手段、生成手段を備える画像処理装置が実行する画像処理方法であって、
前記記憶手段は、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶し、
前記画像処理方法は、
前記特定手段が、前記撮像画像上における前記車両の一部の位置を特定する特定ステップと、
前記抽出手段が、前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出ステップと、
前記生成手段が、前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成ステップと、を備え、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定ステップでは、前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする。
In order to achieve the above object, an image processing method according to a second aspect of the present invention includes:
An image processing method executed by an image processing apparatus including a storage unit, an identification unit, an extraction unit, and a generation unit,
The storage means
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Store spatial location definition information,
The image processing method includes:
A specifying step in which the specifying unit specifies a position of a part of the vehicle on the captured image;
The extraction unit is configured to extract the predetermined space from the captured image based on the predetermined spatial position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. An extraction step of extracting an image portion indicating the space of
The generating unit includes a generating step of generating an image signal for causing the display device to display the image portion extracted by the extracting unit ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
In the specifying step, the specifying unit specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle.
It is characterized by that.
上記目的を達成するために、本発明の第3の観点に係るプログラムは、
コンピュータを、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶する記憶手段、
前記撮像画像上における前記車両の一部の位置を特定する特定手段、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段、
として機能させるプログラムであって、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする。
In order to achieve the above object, a program according to the third aspect of the present invention provides:
Computer
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part,
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means;
A program that functions as
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
It is characterized by that.
本発明にかかる画像処理装置、画像処理方法ならびにプログラムによれば、車両の周囲の画像を適切に表示させるための画像信号を生成することができる。 According to the image processing device, the image processing method, and the program according to the present invention, it is possible to generate an image signal for appropriately displaying an image around the vehicle.
以下、本発明の実施形態に係る画像処理装置について図面を参照して説明する。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
まず、図1を参照して本発明の実施形態に係る画像処理装置を備える画像処理システムの構成について説明する。 First, the configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention will be described with reference to FIG.
図1に示すように、画像処理システム100は、カメラ10と、照明光源20と、画像処理装置30と、表示装置50と、車速センサ60と、から構成される。
As shown in FIG. 1, the
カメラ10は、一定周期(例えば、1/30秒)毎に、車両の一部を含んだ所定の空間(以下、「撮像対象」とする。)を含む撮像空間を撮像して、撮像により得られた階調画像(以下、「撮像画像」とする。)を順次出力する。カメラ10は、撮像画像を、例えば、アナログ画像信号として出力する。カメラ10は、例えば、CCD(Charge Coupled Device)カメラ等から構成される。照明光源20は、撮像対象を照明する。
The
表示装置50は、画像処理装置30から供給された画像信号に従って画像を表示する。表示装置50は、例えば、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成される。
The
車速センサ60は、車両の速度を電気信号に変換して出力する。車速センサ60は、例えば、ロータリエンコーダなどから構成される。
The
画像処理装置30は、カメラ10から供給された撮像画像から撮像対象に相当する画像部分を抽出して、当該抽出された画像部分(以下「撮像対象画像」とする。)に目安線などを合成して得られる合成画像を表示装置50に表示させるための画像信号を生成する。画像処理装置30は、例えば、図1に示すように、A/D(Analog/Digital)変換器31と、画像メモリ32と、ROM(Read Only Memory)33と、CPU(Central Processing Unit)34と、RAM(Random Access Memory)35と、表示制御部36と、光源制御部37と、設定メモリ38と、操作装置39と、センサ入力部40と、から構成される。
The
A/D変換器31は、カメラ10から供給されたアナログ画像信号をディジタル画像信号に変換して、出力する。
The A /
画像メモリ32は、A/D変換器31が出力したディジタル画像信号により表現された撮像画像を記憶する。また、画像メモリ32は、撮像対象画像や合成画像も記憶する。画像メモリ32は、例えば、SRAM(Static Random Access Memory)などから構成される。
The
ROM33は、CPU34の動作を制御するためのプログラムを記憶する。CPU34は、画像処理装置30全体の動作を制御する。CPU34は、ROM33に記憶されたプログラムを実行することにより、カメラ10から供給された撮像画像を処理する。RAM35は、CPU34のワークエリアとして機能する。
The
表示制御部36は、CPU34の制御のもと、画像メモリ32に記憶されている合成画像から画像信号を生成し、表示装置50に供給する。光源制御部37は、照明光源20の点灯・消灯を制御する。
The
設定メモリ38は、CPU34が後述する車両後方空間表示処理を実行するために必要な設定データなどを格納する。
The setting
操作装置39は、ドライバーからの操作入力を受け付け、受け付けた操作入力に応じた操作信号をCPU34に供給する。操作装置39は、各種のボタンなどにより構成される。ドライバーは、これらのボタンを操作することにより、車両の後方の様子を表示装置50に表示させたり、当該表示を終了させたりする。
The
センサ入力部40は、車速センサ60から供給された電気信号の入力を受け付け、当該電気信号により示される車速データをRAM35などに記憶する。
The
次に、図2を参照して、画像処理システム100が備える各モジュールが車両のどの部分にどのように設置されるかを説明する。なお、ここで説明する各モジュールの設置場所は例示である。
Next, with reference to FIG. 2, how each module included in the
カメラ10は、例えば、車両1000の後方のナンバープレートの上端部近傍の車体部分に設置される。カメラ10は、車両1000の後方斜め下方の空間を、リヤバンパー200の上部とともに撮像できるような位置ならびに角度に設置される。照明光源20は、カメラ10の近傍の車体部分に設置される。照明光源20は、カメラ10が撮像する空間を照明可能な位置ならびに角度に設置される。
For example, the
画像処理装置30は、例えば、運転席に座っているドライバーが操作装置39を操作可能なように、ギアボックスの前方に設置される。表示装置50は、例えば、運転席に座っているドライバーが合成画像を見ることができるように、ギアボックスの前方に設置される。車速センサ60は、例えば、前輪のシャフト部分近傍に設置される。
For example, the
次に、図3を参照して、本発明の実施形態に係る画像処理装置30の機能を説明する。
Next, functions of the
図3に示すように、画像処理装置30は、記憶部110と、特定部120と、抽出部130と、生成部140と、を備える。なお、画像処理装置30は、カメラ10から供給された撮像画像を処理して画像信号を生成し、生成した画像信号を表示装置50に供給する。
As illustrated in FIG. 3, the
カメラ10は、車両の一部を含んだ所定の空間を含む撮像空間を撮像して撮像画像を取得し、取得した撮像画像を特定部120ならびに抽出部130に供給する。車両の一部は、例えば、リヤバンパー200の上端部であり、所定の空間は、例えば、車両1000の後方斜め下方の空間を含む空間である。
The
記憶部110は、所定空間位置定義情報を記憶する。ここで、所定空間位置定義情報は、撮像画像上における車両の一部の位置を基準とした撮像画像上における所定の空間を示す領域を定義する情報である。また、撮像画像は、車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる画像である。所定空間位置定義情報は、例えば、撮像画像上における車両1000の後方斜め下方の空間ならびにリヤバンパー200の上端部を示す領域を、撮像画像上におけるリヤバンパー200の上端部の位置を基準として定義する情報である。記憶部110は、例えば、設定メモリ38により構成される。
The
特定部120は、カメラ10により生成された撮像画像上における車両の一部の位置を特定する。特定部120は、例えば、撮像画像上におけるリヤバンパー200の上端部の位置を特定する。特定部120は、例えば、CPU34により構成される。
The specifying
抽出部130は、記憶部110に記憶されている所定空間位置定義情報と特定部120により特定された撮像画像上における車両の一部の位置とに基づいて、撮像画像から所定の空間を示す画像部分を抽出する。抽出部130は、例えば、撮像画像から車両1000の後方斜め下方の空間ならびにリヤバンパー200の上端部を示す画像部分を抽出する。抽出部130は、例えば、CPU34により構成される。
The
生成部140は、抽出部130により抽出された画像部分を所定の表示装置に表示させるための画像信号を生成する。生成部140は、例えば、車両1000の後方斜め下方の空間を示す画像部分を表示装置50に表示させるための画像信号を生成する。
The
表示装置50は、生成部140から供給された画像信号により示される画像を表示する。表示装置50は、例えば、生成部140から供給された画像信号により示される、車両1000の後方斜め下方の空間の画像を表示する。
The
ここで、図4A、図4B、図5Aならびに図5Bを参照して、画像処理装置30の機能を簡単に説明する。
Here, the function of the
図4Aは、カメラ10が撮像対象を撮像する様子を模式的に示す図である。図4Aに示すように、カメラ10の垂直方向の画角(以下「カメラフル画角」という。)をDegAとすると、カメラ10によって撮像される垂直方向の範囲は、DegAを挟む2つの破線の線分に挟まれた範囲となる。また、表示装置50の垂直方向の画角(以下「画面表示角」という。)をDegBとすると、カメラ10によって撮像される垂直方向の範囲のうち表示装置50に表示される垂直方向の範囲は、DegBを挟む2つの実線の線分に挟まれた範囲となる。なお、図4Aにおいて、カメラ10は、一点鎖線で示される方向を中心とした空間(撮像領域)を撮像する。また、カメラ10によって撮像される水平方向の範囲も所定の範囲に限定される。ここで、カメラ10によって撮像される範囲には、撮像画像のうちどの範囲を表示装置50に表示するかを決定するための基準物であるリヤバンパー200の上端部が含まれる。また、図4Aに示す例では、路面上の車両1000の後方50cmの位置に目印401、路面上の車両1000の後方100cmの位置に目印402、路面上の車両1000の後方200cmの位置に目印403、がそれぞれ配置され、撮像範囲には目印401〜403が含まれている。
FIG. 4A is a diagram schematically illustrating how the
図4Bは、表示装置50に表示される画像を模式的に示す図である。図4Bにおいて、カメラ10により生成された撮像画像は、破線の枠410で囲まれた部分に示す画像である。一方、図4Bにおいて、表示装置50に表示される合成画像は、太線の枠420で囲まれた部分に示す画像である。なお、合成画像は、撮像画像の一部を抽出して得られる撮像対象画像に、所定の目安線などを合成して得られる画像である。撮像画像のどの部分を撮像対象画像として抽出するかは、撮像画像に含まれる基準物の位置に基づく。本実施形態においては、リヤバンパー200の上端部の垂直方向の位置が撮像画像のどの位置にあるか、ならびに、表示装置50に表示すべき車両1000の後方斜め下の空間をリヤバンパー200の上端部の垂直方向の位置を基準として定義した所定空間位置定義情報に基づいて、撮像画像からどの部分を抽出して撮像対象画像とするかが定められる。
FIG. 4B is a diagram schematically illustrating an image displayed on the
図4Bに示す例では、DegAにより示される範囲の画像が撮像画像であり、DegBにより示される範囲の画像が合成画像である。なお、合成画像には、車両1000の後方50cmの路面位置を示す目安線441、車両1000の後方100cmの路面位置を示す目安線442、ならびに、車両1000の後方200cmの路面位置を示す目安線443が含まれる。なお、上述したように、路面上の車両1000の後方50cmの位置に目印401、路面上の車両1000の後方100cmの位置に目印402、路面上の車両1000の後方200cmの位置に目印403、がそれぞれ配置されている。このため、合成画像は、目安線441上に目印401、目安線442上に目印402、目安線443上に目印403、がそれぞれ配置されているように表示される画像となる。また、合成画像の下方には、リヤバンパー200が示される。なお、図4Bにおいて、リヤバンパー200に相当する画像部分をハッチングにより明示している。
In the example shown in FIG. 4B, the image in the range indicated by DegA is a captured image, and the image in the range indicated by DegB is a composite image. In the composite image, a
図5Aは、カメラ10が撮像対象を撮像する様子を模式的に示す図である。図5Aに示す例では、図4Aに示す例と比較すると、カメラ10はより下方の空間が撮像範囲となるような角度で車両1000に設置されている。カメラ10の設置角度以外は、図4Aと同様であるため説明を省略する。
FIG. 5A is a diagram schematically illustrating how the
図5Bは、表示装置50に表示される画像を模式的に示す図である。カメラ10により撮像される垂直方向の範囲は、図4Aに示す例と図5Aに示す例とでは異なるため、図5Bに示す撮像画像は図4Bに示す撮像画像と異なる画像となる。図5Bに示すように、合成画像は図4Bに示す合成画像と同じ画像となる。これは、図4Bに示す例と図5Bに示す例とで、異なる撮像画像から同じ撮像対象画像が撮像画像から抽出されるように構成されているためである。
FIG. 5B is a diagram schematically illustrating an image displayed on the
すなわち、従来の撮像装置では、撮像対象を表示装置に表示しようとした場合、当該撮像対象を撮像可能な正確な位置ならびに正確な角度でカメラを車両に設置する必要がある。しかしながら、カメラの設置時の設置ミスあるいは経年劣化により、カメラの設置位置あるいは設置角度にずれが生じてしまう場合がある。この場合、撮像対象を表示装置に正確に表示することができなくなってしまう。これに対し、画像処理システム100では、撮像対象を含む広い領域をカメラ10で撮像して撮像画像を生成し、表示装置50は撮像画像のうちの撮像対象に相当する部分のみを表示する。これにより、画像処理システム100によれば、カメラ10の設置位置あるいは設置角度に多少のずれが生じた場合であっても、撮像対象を表示装置50に正確に表示できる。なお、カメラ10は、撮像範囲に基準物が含まれるような位置ならびに角度に設置される。
That is, in a conventional imaging device, when an imaging target is to be displayed on a display device, it is necessary to install a camera on the vehicle at an accurate position and an accurate angle at which the imaging target can be imaged. However, there may be a case where the installation position or the installation angle of the camera is deviated due to an installation error at the time of installation of the camera or aging deterioration. In this case, the imaging target cannot be accurately displayed on the display device. In contrast, in the
次に、図6に示すフローチャートを用いて、画像処理システム100が実行する車両後方空間表示処理について説明する。
Next, the vehicle rear space display process executed by the
画像処理システム100は、車両の後方の空間の表示を開始する要求を受け付けた後、当該表示を終了する要求を受け付けるまでの間、定期的(例えば、1/30秒毎)に図6に示す車両後方空間表示処理を実行する。
The
まず、カメラ10は、車両の後方の空間を撮像する(ステップS101)。そして、CPU34は、カメラ10から供給された信号に基づいて撮像画像を生成する(ステップS102)。具体的には、CPU34は、カメラ10が出力する1フレーム分のアナログ画像信号により表現される撮像画像をA/D変換器31に供給し、当該A/D変換器31が出力する1フレーム分のディジタル画像信号により表現される撮像画像を画像メモリ32に記憶する。
First, the
次に、CPU34は、リヤバンパー位置特定処理を実行する(ステップS103)。リヤバンパー位置特定処理については、図7に示すフローチャートを参照して詳細に説明する。なお、リヤバンパー位置特定処理は、撮像画像におけるリヤバンパー200の上端部の垂直方向の位置を特定する処理である。
Next, the
まず、車速センサから車両1000の車速を取得する(ステップS201)。次に、CPU34は、車両1000が移動中であるか否を判別する(ステップS202)。具体的には、CPU34は、ステップS201において取得した車速の絶対値が所定の値以上である場合に車両1000が移動中であると判別し、ステップS201において取得した車速の絶対値が所定の値未満である場合に車両1000が移動中ではないと判別する。
First, the vehicle speed of the
CPU34は、車両1000が移動中ではない判別すると(ステップS202:NO)、エッジ検出によりリヤバンパー200の上端部の位置を検出して(ステップS203)、リヤバンパー位置特定処理を終了する。なお、エッジ検出によりリヤバンパー200の上端部の位置を検出する方法については、従来のエッジ検出技術を採用することができる。従来のエッジ検出技術は、例えば、特許文献3(特開2004−1658号公報)の図4等に、リヤバンパーの境界線を検出する技術として開示されている。なお、リヤバンパー200の上端部の位置とは、厳密には、撮像画像におけるリヤバンパー200の上端の境界線の位置である。
When determining that the
一方、車両1000が移動中であると判別すると(ステップS202:YES)、チェック対象の画素を下から1行目の左端の画素に設定する(ステップS204)。ここで、チェック対象の画素は、撮像画像を構成する画素のうち、1フレーム前のフレームにおける輝度と現在のフレームにおける輝度との差分をチェックする対象の画素である。なお、本実施形態においては、チェック対象の画素は、水平方向には左から右に走査され、垂直方向には下から上に走査される。
On the other hand, if it is determined that the
次に、CPU34は、現在のフレームにおけるチェック対象の画素の輝度を取得する(ステップS205)。具体的には、CPU34は、画像メモリ32に記憶されている撮像画像のうち現在のフレームの撮像画像を読み出し、当該撮像画像を構成する画素のうちチェック対象の画素の輝度を取得する。同様に、CPU34は、1フレーム前のフレームにおけるチェック対象の画素の輝度を取得する(ステップS206)。具体的には、CPU34は、画像メモリ32に記憶されている撮像画像のうち1フレーム前のフレームの撮像画像を読み出し、当該撮像画像を構成する画素のうちチェック対象の画素の輝度を取得する。なお、各画素がRed、Green、Blueの3色から構成される場合、CPU34は、3色の輝度をそれぞれ取得する。
Next, the
そして、CPU34は、輝度の差分の絶対値が所定値以上であるか否かを判別する(ステップS207)。具体的には、CPU34は、ステップS205で取得した輝度とステップS206で取得した輝度との差分の絶対値が所定値以上であるか否かを判別し、判別結果をRAM35に記憶する。所定値は、例えば、各画素の輝度が0〜255の値で示される場合に、5〜50程度の値に設定する。なお、各画素がRed、Green、Blueの3色から構成される場合、CPU34は、色毎に輝度の差分の絶対値をとり、色毎の輝度の差分の絶対値の和が所定値以上であるか否かを判別する。
Then, the
CPU34は、輝度の差分の絶対値が所定値以上であるか否かを判別する処理(ステップS207)を終了すると、チェック対象の画素が右端の画素であるか否かを判別する(ステップS208)。CPU34は、チェック対象の画素が右端の画素ではないと判別すると(ステップS208:NO)、チェック対象の画素を1つ右の画素に設定して(ステップS209)、現在のフレームにおけるチェック対象の画素の輝度を取得する処理(ステップS205)に処理を戻す。
When the
一方、CPU34は、チェック対象の画素が右端の画素であると判別すると(ステップS208:YES)、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満か否かを判別する(ステップS210)。具体的には、CPU34は、チェック対象の画素を含む行から2つ下の行までの行に含まれる画素のうち、輝度の差分の絶対値が所定値以上の画素の個数が所定の割合(例えば、80%)未満であるか否かを判別する。CPU34は、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満ではないと判別すると(ステップS210:NO)、チェック対象の画素を1行上の左端の画素に設定して(ステップS211)、現在のフレームにおけるチェック対象の画素の輝度を取得する処理(ステップS205)に処理を戻す。これに対し、CPU34は、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満であると判別すると(ステップS210:YES)、チェック対象の画素を含む行を示す情報をRAM35に記憶して(ステップS212)、リヤバンパー位置特定処理を終了する。なお、チェック対象の画素を含む行は、リヤバンパー200の上端部の位置を示す行として扱われる。
On the other hand, if the
ここで、図8を参照して、リヤバンパー位置特定処理において、撮像画像上におけるリヤバンパー200の上端部の位置がどのように特定されるかを説明する。
Here, how the position of the upper end portion of the
図8において、撮像画像は、破線の枠410で囲まれた部分に示す画像である。一方、図8において、撮像対象画像は、太線の枠420で囲まれた部分である。図8において、リヤバンパー200に相当する部分をハッチング表示している。ここで、カメラ10とリヤバンパー200とは共に車両1000に固定されており、車両1000が移動中でも撮像画像上におけるリヤバンパー200の位置は変化しない。このため、リヤバンパー200に相当する部分は、現在のフレームと1フレーム前のフレームとで輝度の変化が小さい。これに対し、撮像画像上のリヤバンパー200に相当する部分以外の部分は、現在のフレームと1フレーム前のフレームとで輝度の変化が大きくなるのが一般的である。
In FIG. 8, the captured image is an image shown in a portion surrounded by a
ここで、図8において、太線の枠450で囲まれた部分は、チェック対象の画素を示す部分であり、1画素分に相当する。まず、チェック対象の画素は、ステップS204において、1番下の行(k1)の左端の画素に設定される。そして、チェック対象の画素は、ステップS209において、1つずつ右の画素にシフトされる。なお、チェック対象の画素が右端の画素である場合、チェック対象の画素は、ステップS211において、1つ上の行の左端の画素に設定される。なお、チェック対象の画素が1つ上の行の左端の画素に設定される前に、ステップS210において、チェック対象の画素が含まれる行から2行下までの行に含まれる画素について、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満であるか否かがチェックされる。
Here, in FIG. 8, a portion surrounded by a
本実施形態においては、輝度の差分の絶対値が所定値未満の画素を静止画素として、1行中における静止画素の割合をチェックするのではなく、1行中における静止画素の割合の3行分の移動平均をとった割合をチェックするのは、ノイズ除去のためである。図8において、k1〜k6までの行は静止画素の割合が100%であり、k7の行の静止画素の割合が90%であり、k8の行の静止画素の割合が80%であり、k9の行の静止画素の割合が75%であり、k10の行の静止画素の割合が70%であり、k11の行の静止画素の割合が60%であり、k12の行の静止画素の割合が25%であり、k13の行の静止画素の割合が5%であり、k14以降の行の静止画素の割合が0%である。従って、例えば、k7の右端のチェック対象の画素をチェックした後には、k5〜k7の行のそれぞれについての静止画素の割合の平均値である96.7%が80%未満であるか否かが判別される。同様に、k8の右端のチェック対象の画素をチェックした後には、k6〜k8の行のそれぞれについての静止画素の割合の平均値である90%が80%未満であるか否かが判別され、k9の右端のチェック対象の画素をチェックした後には、k7〜k9の行のそれぞれについての静止画素の割合の平均値である81.7%が80%未満であるか否かが判別され、k10の右端のチェック対象の画素をチェックした後には、k8〜k10の行のそれぞれについての静止画素の割合の平均値である75%が80%未満であるか否かが判別される。そして、静止画素の割合の平均値が80%未満であると初めて判別された行であるk9が、ステップS212において、リヤバンパー200の上端部に相当する行として記憶される。
In the present embodiment, pixels whose absolute value of luminance difference is less than a predetermined value are set as still pixels, and the ratio of still pixels in one row is not checked, but the ratio of still pixels in one row is equal to three rows. The reason for checking the ratio of the moving average of is to remove noise. In FIG. 8, in the rows from k1 to k6, the ratio of still pixels is 100%, the ratio of still pixels in the k7 row is 90%, the ratio of still pixels in the k8 row is 80%, and k9 The ratio of still pixels in row k is 75%, the ratio of still pixels in row k10 is 70%, the ratio of still pixels in row k11 is 60%, and the ratio of still pixels in row k12 is 25%, the proportion of still pixels in the row k13 is 5%, and the proportion of still pixels in the rows after k14 is 0%. Therefore, for example, after checking the pixel to be checked at the right end of k7, whether or not 96.7%, which is the average value of the ratio of still pixels for each of the rows k5 to k7, is less than 80%. Determined. Similarly, after checking the pixel to be checked at the right end of k8, it is determined whether 90%, which is the average value of the ratio of still pixels for each of the rows k6 to k8, is less than 80%. After checking the pixel to be checked at the right end of k9, it is determined whether or not 81.7% that is the average value of the ratio of still pixels for each of the rows k7 to k9 is less than 80%. After checking the rightmost pixel to be checked, it is determined whether or not 75%, which is the average value of the ratio of still pixels for each of the rows k8 to k10, is less than 80%. Then, k9, which is a row determined for the first time that the average value of the ratio of still pixels is less than 80%, is stored as a row corresponding to the upper end portion of the
なお、行毎の静止画素の割合を求めずに、3行分の静止画素の割合を直接求めるようにしてもよい。また、1行目と2行目については、静止画素の割合が所定の割合未満であるか否かを判別する処理を実行しなくてもよいし、存在する行のみの静止画素の割合を平均して所定の割合未満であるか否かを判別するようにしてもよい。 Note that the ratio of still pixels for three rows may be directly determined without determining the ratio of still pixels for each row. In addition, for the first and second lines, it is not necessary to execute processing for determining whether or not the ratio of still pixels is less than a predetermined ratio, and the ratio of still pixels in only existing rows is averaged. Then, it may be determined whether the ratio is less than a predetermined ratio.
以下、フローチャートの説明に戻る。CPU34は、リヤバンパー位置特定処理(ステップS103)を終了すると、設定メモリ38にあらかじめ記憶されている所定空間位置定義情報を取得する(ステップS104)。上述したように、所定空間位置定義情報は、例えば、撮像画像内における車両1000の後方斜め下方の空間の位置を、撮像画像内におけるリヤバンパー200の上端部の位置を基準として定義する情報である。例えば、リヤバンパー200の上端部が撮像対象画像の下方から20%の位置になるように撮像画像から撮像対象画像を切り出す場合に、20%を示す情報を所定空間位置定義情報とすることができる。
Hereinafter, the description returns to the flowchart. When completing the rear bumper position specifying process (step S103), the
CPU34は、所定空間位置定義情報の取得(ステップS104)を終了すると、ステップS103で特定したリヤバンパー200の上端部の位置と、ステップS104で取得した所定空間位置定義情報とに基づいて、撮像画像から撮像対象画像を抽出する(ステップS105)。上述したように、所定空間位置定義情報が20%である場合、図9Aに示すように、リヤバンパー200の上端部の位置が撮像対象画像の下方から20%の位置になるように、撮像画像から撮像対象画像を切り出す。
When the
次に、CPU34は、ステップS105において抽出した撮像対象画像に目安線441〜443を合成して合成画像を生成する(ステップS106)。そして、CPU34は、ステップS106において生成した合成画像を示す画像信号を表示装置50に供給して、表示装置50に合成画像を表示させる(ステップS107)。図9Bに、合成画像の例を示す。CPU34は、合成画像を表示する処理(ステップS107)を終了すると、車両後方空間表示処理を終了する。
Next, the
本実施形態にかかる画像処理装置30によれば、カメラ10の設置位置ならびに設置角度に垂直方向にずれがある場合においても、所望の領域の画像を適切に表示することができる。また、カメラ10の固定位置ならびに固定角度のずれに拘わらず、目安線を表示する画面上の位置を一定の位置にする。このため、ずれの量に合わせて目安線を表示する画面上の位置を再計算するなどの処理をしなくてもよい。
According to the
(変形例)
上記実施形態においては、カメラ10により撮像される撮像画像の垂直方向の範囲を表示装置50に表示される合成画像(または、撮像対象画像)の垂直方向の範囲よりも広い範囲に設定し、撮像画像内におけるリヤバンパー200の上端部の位置に基づいて垂直方向の表示範囲を定め、撮像画像のうち当該定めた垂直方向の範囲のみを表示装置50に表示する例を示した。しかし、本発明によれば、撮像画像の水平方向の範囲を合成画像の水平方向の範囲よりも広い範囲に設定し、撮像画像内における所定の基準物の位置に基づいて水平方向の表示範囲を定め、撮像画像のうち当該定めた水平方向の範囲のみを表示装置50に表示するようにしてもよい。また、撮像画像の垂直方向の範囲を合成画像の垂直方向の範囲よりも広い範囲に設定するとともに、撮像画像の水平方向の範囲を合成画像の水平方向の範囲よりも広い範囲に設定してもよい。このように、撮像画像の範囲を合成画像の範囲よりも広くとることにより、カメラ10の設置位置ならびに設置角度にずれがある場合においても、所望の領域の画像を適切に表示することができる。
(Modification)
In the above embodiment, the vertical range of the captured image captured by the
例えば、撮像画像に基づいてエッジ検出により検出した特徴点が、撮像対象画像上において、所望の垂直方向の位置ならびに所望の水平方向の位置に表示されるように、撮像画像から撮像対象画像を抽出するように構成することができる。図10Aに示すように、撮像画像に基づいてエッジ検出によりリヤバンパー200の上端部の境界線451が検出されたとする。このとき、境界線451上の点のうち垂直方向の位置が最も下方である点が特徴点452であるものとする。
For example, the imaging target image is extracted from the captured image so that the feature points detected by edge detection based on the captured image are displayed at the desired vertical position and the desired horizontal position on the imaging target image. Can be configured to. As shown in FIG. 10A, it is assumed that a
ここで、設定メモリ38に、撮像対象画像上における特徴点452の位置が、垂直方向については下方から20%、水平方向については左方から50%の位置となるように定義する所定空間位置定義情報が格納されているとする。このとき、CPU34は、撮像対象画像における特徴点452の位置が、垂直方向については下方から20%、水平方向については左方から50%の位置となるように撮像画像から撮像対象画像を抽出する。
Here, a predetermined spatial position definition is defined in the setting
図10Bに、撮像画像と撮像対象画像との関係を示す。図10Bにおいて、撮像画像は破線の枠410で囲まれた部分に示す画像であり、撮像対象画像は太線の枠420で囲まれた部分に示す画像である。撮像対象画像における特徴点452の位置は、下方から20%、左方から50%の位置である。このように、撮像対象画像における特徴点452の位置が所定空間位置定義情報で定義された位置になるように、撮像画像から撮像対象画像が抽出される。なお、撮像画像と撮像対象画像の大きさは適宜調整が可能である。例えば、予測されるカメラ10の車両1000への設置位置若しくは設置角度のずれが大きいほど、撮像対象画像の大きさに対する撮像画像の大きさの割合を大きくする。
FIG. 10B shows the relationship between the captured image and the captured image. In FIG. 10B, the captured image is an image shown in a part surrounded by a
本実施形態においては、撮像対象画像に幅の狭い目安線を合成することにより、車両1000からの距離(カメラ10からの距離)の目安を示す合成画像を生成した。しかし、図11に示すように、幅の広い目安線を用いて車両1000からの距離の目安を示してもよい。図11に示す例では、車両1000から50cmの位置を示す目安線461、車両1000から100cmの位置を示す目安線462、車両1000から200cmの位置を示す目安線463を示している。バンパーの取り付け精度などが良くない場合、目安線が厳密に表示されない場合がある。しかしながら、このように目安線の幅をある程度広くすることにより、ドライバーに余裕もった運転操作をさせることができる。なお、これらの各目安線の色彩や模様などを、適宜調整して表示することが可能である。典型的には、目安線により示される車両1000からの距離が近いほど、ドライバーの注意を惹くように、目立つ色彩や模様などにすることができる。例えば、目安線461を赤色、目安線462を黄色、目安線463を青色、とすることができる。また、目安線の幅を広くする場合は、背景の画像を完全に隠してしまわないように、目安線を半透明に表示するようにしてもよい。
In the present embodiment, a composite image indicating a distance from the vehicle 1000 (a distance from the camera 10) is generated by combining a narrow reference line with the image to be captured. However, as shown in FIG. 11, the standard of distance from the
本実施形態においては、撮像対象画像に目安線を合成することにより、車両1000からの距離(カメラ10からの距離)の目安を示す合成画像を生成した。しかし、車両1000からの距離の目安を示すものとして、目安線ではなく、目安となる領域を示すものを表示するようにしてもよい。図12に示す例では、車両1000から50cm付近の領域を示す領域471、車両1000から100cm付近の領域を示す領域472、車両1000から200cm付近の領域を示す領域473、が示されている。このように、車両1000からの大まかな距離の目安を示すことにより、ドライバーに余裕もった運転操作をさせることができる。なお、目安線と同様に、各領域の色彩や模様などを適宜調整して表示することができる。例えば、領域471は危険領域として赤色表示、領域472は注意領域として黄色表示、領域473は安全領域として青色表示とすることができる。
In the present embodiment, a combined image indicating a distance from the vehicle 1000 (a distance from the camera 10) is generated by combining a reference line with the image to be captured. However, as an indication of the distance from the
上記実施形態では、輝度の変化が大きい画素の割合を求める際には、3行分の画素について割合を求めたが、1行分若しくは2行分の画素について割合を求めても良いし、4行以上分の画素について割合を求めても良い。また、上記実施形態では、画素毎に輝度の差分を求める例を示したが、複数の画素から構成されるブロック毎に輝度の総和を求め、ブロック毎の輝度の差分を求めることにより、基準物(静止物)を特定しても良い。また、行毎に輝度の総和を求め、行毎の輝度の差分を求めることにより、基準物を特定しても良い。 In the above embodiment, when the ratio of pixels with a large change in luminance is obtained, the ratio is obtained for pixels for three rows, but the ratio may be obtained for pixels for one row or two rows. You may obtain | require a ratio about the pixels for a line or more. Moreover, although the example which calculates | requires the difference of a brightness | luminance for every pixel was shown in the said embodiment, the reference | standard thing is calculated | required by calculating | requiring the sum total of the brightness | luminance for every block comprised from several pixels, and calculating | requiring the brightness | luminance difference for every block. (Stationary object) may be specified. Further, the reference object may be specified by obtaining the sum of luminance for each row and obtaining the difference in luminance for each row.
上記実施形態では、現在のフレームと1フレーム前のフレームとで輝度の差分を求めたが、比較するフレームは適宜変更可能である。例えば、現在のフレームと10フレーム前とで輝度の差分を求めても良い。また、数フレームにわたって継続して輝度が変化しない部分を、基準物を示す部分として特定しても良い。 In the above embodiment, the difference in luminance between the current frame and the previous frame is obtained, but the frame to be compared can be changed as appropriate. For example, a luminance difference may be obtained between the current frame and 10 frames before. In addition, a portion where the luminance does not change continuously over several frames may be specified as a portion indicating the reference object.
上記実施形態では、撮像画像から抽出された撮像対象画像に目安線などを合成した合成画像を表示する例を示した。しかし、撮像対象画像そのものを表示するようにしてもよい。 In the above-described embodiment, an example in which a composite image in which a reference line or the like is combined with an imaging target image extracted from the captured image is displayed. However, the captured image itself may be displayed.
上記実施形態ならびに変形例では、所定空間位置定義情報は、合成画像上における基準物の位置を%表示で示すものであった。しかし、所定空間位置定義情報は、例えば、合成画像上における基準物の所定の部分の位置を、下あるいは上から何行目もしくは左あるいは右から何列目であるかにより撮像対象の撮像対象画像上における位置を定義する情報であってもよい。なお、何行目もしくは何列目であるかとは、何画素目であるかと同義である。基準物は、実施形態のように基準となる線を示すものであってもよいし、変形例のように基準となる点を示すものであってもよい。 In the above embodiment and the modification, the predetermined space position definition information indicates the position of the reference object on the composite image in% display. However, the predetermined spatial position definition information includes, for example, the imaging target image of the imaging target depending on the position of the predetermined portion of the reference object on the composite image, the number of rows from the bottom or top, or the column from the left or right It may be information defining a position on the top. The number of rows or the number of columns is synonymous with the number of pixels. The reference object may indicate a reference line as in the embodiment, or may indicate a reference point as in the modification.
上記実施形態においては、撮像画像において輝度の差分が小さい部分をリヤバンパーに相当する部分として特定した。また、変形例においては、エッジ検出によりリヤバンパーの上端部を検出して、撮像画像中のリヤバンパーに相当する部分を特定する方法を示した。しかし、撮像画像中の基準物(リヤバンパー)に相当する部分を特定する方法は、これらの方法に限られない。例えば、リヤバンパーの色を示す情報をあらかじめ設定メモリ38などに記憶しておき、撮像画像中の当該色を示す画素部分をリヤバンパーに相当する部分として特定しても良い。
In the above embodiment, a portion with a small difference in brightness in the captured image is specified as a portion corresponding to the rear bumper. Further, in the modification, the method of detecting the upper end portion of the rear bumper by edge detection and specifying the portion corresponding to the rear bumper in the captured image is shown. However, the method for specifying the portion corresponding to the reference object (rear bumper) in the captured image is not limited to these methods. For example, information indicating the color of the rear bumper may be stored in advance in the setting
なお、本発明に係る画像処理装置は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、画像を入力可能なコンピュータに、上記動作を実行するためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read−Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これをコンピュータシステムにインストールすることにより、上述の処理を実行する画像処理装置を構成しても良い。 Note that the image processing apparatus according to the present invention can be realized using a normal computer system, not a dedicated system. For example, a program for performing the above operation on a computer capable of inputting an image includes a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versatile Disk), an MO (Magneto Optical Disk), etc. An image processing apparatus that performs the above-described processing may be configured by storing and distributing in a computer-readable recording medium and installing the recording medium in a computer system.
さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。 Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.
本発明は、例えば、車載用の撮像装置に利用することができる。 The present invention can be used for, for example, an in-vehicle imaging device.
10 カメラ
20 照明光源
30 画像処理装置
31 A/D変換器
32 画像メモリ
33 ROM
34 CPU(特定手段、抽出手段、生成手段)
35 RAM
36 表示制御部
37 光源制御部
38 設定メモリ(記憶手段)
39 操作装置
40 センサ入力部
50 表示装置
60 車速センサ
100 画像処理システム
110 記憶部
120 特定部
130 抽出部
140 生成部
200 リヤバンパー
1000 車両
DESCRIPTION OF
34 CPU (identifying means, extracting means, generating means)
35 RAM
36
39
Claims (4)
前記撮像画像上における前記車両の一部の位置を特定する特定手段と、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段と、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段と、を備え、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする画像処理装置。 A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part;
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
An image processing apparatus.
ことを特徴とする請求項1に記載の画像処理装置。 The generation unit generates an image signal for displaying the image portion extracted by the extraction unit at a certain position on the screen of the display device and displaying a guide line superimposed on the certain position on the screen. ,
The image processing apparatus according to claim 1 .
前記記憶手段は、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶し、
前記画像処理方法は、
前記特定手段が、前記撮像画像上における前記車両の一部の位置を特定する特定ステップと、
前記抽出手段が、前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出ステップと、
前記生成手段が、前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成ステップと、を備え、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定ステップでは、前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする画像処理方法。 An image processing method executed by an image processing apparatus including a storage unit, an identification unit, an extraction unit, and a generation unit,
The storage means
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Store spatial location definition information,
The image processing method includes:
A specifying step in which the specifying unit specifies a position of a part of the vehicle on the captured image;
The extraction unit is configured to extract the predetermined space from the captured image based on the predetermined spatial position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. An extraction step of extracting an image portion indicating the space of
The generating unit includes a generating step of generating an image signal for causing the display device to display the image portion extracted by the extracting unit ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
In the specifying step, the specifying unit specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle.
An image processing method.
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶する記憶手段、
前記撮像画像上における前記車両の一部の位置を特定する特定手段、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段、
として機能させるプログラムであって、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とするプログラム。 Computer
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part,
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means;
A program that functions as
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009024232A JP5208790B2 (en) | 2009-02-04 | 2009-02-04 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009024232A JP5208790B2 (en) | 2009-02-04 | 2009-02-04 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010183294A JP2010183294A (en) | 2010-08-19 |
JP5208790B2 true JP5208790B2 (en) | 2013-06-12 |
Family
ID=42764490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009024232A Expired - Fee Related JP5208790B2 (en) | 2009-02-04 | 2009-02-04 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5208790B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073571A1 (en) * | 2012-11-08 | 2014-05-15 | 日立建機株式会社 | Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine |
JP6264173B2 (en) | 2014-04-18 | 2018-01-24 | 富士通株式会社 | Normality determination method for imaging direction, imaging device attachment state evaluation program, and imaging device attachment state evaluation device |
JP6299373B2 (en) | 2014-04-18 | 2018-03-28 | 富士通株式会社 | Imaging direction normality determination method, imaging direction normality determination program, and imaging direction normality determination apparatus |
JP6299371B2 (en) | 2014-04-18 | 2018-03-28 | 富士通株式会社 | Imaging direction inclination detection method, imaging direction inclination detection program, and imaging direction inclination detection apparatus |
JP6794879B2 (en) * | 2017-03-10 | 2020-12-02 | 株式会社タダノ | Person detection system for work vehicles and work vehicles equipped with this |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3183284B2 (en) * | 1999-01-19 | 2001-07-09 | 株式会社豊田自動織機製作所 | Steering support device for reversing a vehicle |
JP3820342B2 (en) * | 2000-08-31 | 2006-09-13 | 株式会社日立製作所 | In-vehicle imaging device |
JP4793616B2 (en) * | 2001-09-20 | 2011-10-12 | 日本精機株式会社 | Vehicle monitoring device |
JP4045862B2 (en) * | 2002-06-03 | 2008-02-13 | 日産自動車株式会社 | Optical axis deviation detection device for in-vehicle camera |
JP2004200819A (en) * | 2002-12-17 | 2004-07-15 | Clarion Co Ltd | Method of calibrating mounted camera and calibrator |
JP4906628B2 (en) * | 2007-08-01 | 2012-03-28 | 富士重工業株式会社 | Surveillance camera correction device |
-
2009
- 2009-02-04 JP JP2009024232A patent/JP5208790B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010183294A (en) | 2010-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4861034B2 (en) | Car camera calibration system | |
US8514282B2 (en) | Vehicle periphery display device and method for vehicle periphery image | |
JP5689872B2 (en) | Vehicle periphery monitoring device | |
JP4611899B2 (en) | Camera lens dirt detection device and image display system | |
JP2010085186A (en) | Calibration device for on-vehicle camera | |
JP2001218197A (en) | Device for displaying periphery of vehicle | |
JP5112131B2 (en) | Vehicle abnormality detection device | |
US10861192B2 (en) | Vehicle device, calibration result determination method, and non-transitory storage medium | |
JP5208790B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011151666A (en) | Device, system and method for acquiring parameter, and program | |
JP2006157739A (en) | Abnormality detecting device of image pickup apparatus | |
JP5937832B2 (en) | In-vehicle camera exposure control system | |
JP2008085710A (en) | Driving support system | |
JP5505764B2 (en) | On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device | |
JP6617733B2 (en) | Vehicle display device | |
JP2007181129A (en) | Vehicle-mounted movable body detection instrument | |
JP5240517B2 (en) | Car camera calibration system | |
JP2002087160A (en) | Vehicular surrounding image processing device and recording medium | |
JP6617734B2 (en) | Vehicle display device | |
US8405714B2 (en) | Pupil hidden state detecting apparatus and vehicle-mounted camera employing the same | |
JP2018113622A (en) | Image processing apparatus, image processing system, and image processing method | |
WO2017122688A1 (en) | Device for detecting abnormality of lens of onboard camera | |
JP4814752B2 (en) | Display control device | |
JP2008042759A (en) | Image processing apparatus | |
JP2011180962A (en) | Drive assist device, drive assist method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130220 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5208790 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |