JP2009093332A - Vehicle peripheral image processor and vehicle peripheral circumstance presentation method - Google Patents
Vehicle peripheral image processor and vehicle peripheral circumstance presentation method Download PDFInfo
- Publication number
- JP2009093332A JP2009093332A JP2007262032A JP2007262032A JP2009093332A JP 2009093332 A JP2009093332 A JP 2009093332A JP 2007262032 A JP2007262032 A JP 2007262032A JP 2007262032 A JP2007262032 A JP 2007262032A JP 2009093332 A JP2009093332 A JP 2009093332A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- vehicle
- image
- image data
- movement amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、車両周辺を撮像した画像を処理する車両周辺画像処理装置及び車両周辺状況提示方法に関する。 The present invention relates to a vehicle periphery image processing apparatus and a vehicle periphery state presentation method for processing an image obtained by capturing the periphery of a vehicle.
従来から、車両周囲を複数のカメラにより撮影し、得られた画像を座標変換して仮想視点から車両を眺めたような画像を生成して運転者に提示する車両周辺画像提供装置が知られている。このような車両周辺画像提供装置は、座標変換の基準面を地面とし、俯瞰画像を生成し、当該俯瞰画像を運転者に提示する。これによって、地面上の白線等と自車両との位置関係を運転者に客観的に認識させて、駐車運転や幅寄運転を支援している。(例えば下記の特許文献1参照)。
しかしながら、従来の車両周辺画像提供装置では、俯瞰画像を作成するための基準面を地面とするため、空中に存在する物体については俯瞰画像上において正確に表現されない。したがって、運転者にとっては、空中に存在する物体と地面に存在する白線等との区別が付き難くなってしまう。 However, in the conventional vehicle periphery image providing device, since the reference plane for creating the bird's-eye view image is the ground, objects existing in the air are not accurately represented on the bird's-eye view image. Therefore, it is difficult for the driver to distinguish between an object existing in the air and a white line or the like existing on the ground.
そこで、本発明は、上述した実情に鑑みて提案されたものであり、車両周辺の空中に存在する物体を検出して報知することができる車両周辺画像処理装置及び車両周辺状況提示方法を提供することを目的とする。 Therefore, the present invention has been proposed in view of the above-described circumstances, and provides a vehicle periphery image processing apparatus and a vehicle periphery state presentation method that can detect and notify an object existing in the air around the vehicle. For the purpose.
本発明は、車両周囲の状況を運転者に提供するに際して、車両周辺を撮影した車両周辺画像を撮影手段によって生成し、当該撮影手段の撮影位置の高さよりも高い水平面を基準面とし、撮影手段の撮像位置よりも高い範囲の画像を座標変換して当該基準面に投影した俯瞰画像データを作成する。そして、作成された俯瞰画像データに特徴点を設定し、自車両が移動した場合に、当該自車両の移動量と設定された特徴点の俯瞰画像データにおける変化とを求め、俯瞰画像データに設定した特徴点が、撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断して、立体物が存在するか否かを運転者に報知する。 According to the present invention, when providing the driver with the situation around the vehicle, a vehicle periphery image obtained by capturing the periphery of the vehicle is generated by the imaging unit, and a horizontal plane higher than the height of the imaging position of the imaging unit is used as a reference plane. A bird's-eye view image data obtained by projecting coordinates on an image in a range higher than the imaging position is projected on the reference plane. Then, a feature point is set in the created overhead image data, and when the own vehicle moves, a movement amount of the own vehicle and a change in the overhead image data of the set feature point are obtained and set in the overhead image data. It is determined whether or not the feature point is set to a three-dimensional object that exists at a position higher than the height of the photographing position of the photographing means, and the driver is notified whether or not a three-dimensional object exists.
本発明によれば、自車両が移動した時に、実際の自車両の移動量と俯瞰画像データにおける特徴点の変化とを求めて、車両周辺の空中に存在する物体を検出して報知することができる。 According to the present invention, when the own vehicle moves, the actual amount of movement of the own vehicle and the change of the feature point in the overhead image data are obtained, and an object existing in the air around the vehicle can be detected and notified. it can.
以下、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本発明は、例えば図1に示すように、車両周辺の画像を運転者に提供する車両周辺画像提供装置に適用される。車両周辺画像提供装置は、画像処理装置1に、カメラモジュール(撮影手段)2a,2b,2c,2d(以下、総称するときには単に「カメラモジュール2」と呼ぶ。)と、車速センサ3と、操舵角センサ4と、シフト位置センサ5と、モニタ(表示手段、報知手段)6と、スピーカ(音声出力手段、報知手段)7とが接続されている。
As shown in FIG. 1, for example, the present invention is applied to a vehicle periphery image providing device that provides a driver with an image around the vehicle. The vehicle surrounding image providing apparatus includes an
カメラモジュール2は、車両周辺を撮影するものであり、例えばCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal-Oxide Semiconductor)カメラが用いられる。このカメラモジュール2は、カメラモジュール2a,2b,2c,2dの4つからなっている。それぞれのカメラモジュール2が撮影により得られた画像データは、画像処理装置1に送信される。なお、車両を上空から眺めたような俯瞰画像(第2俯瞰画像データ)を表示させる場合にはカメラモジュール2は4つ存在することが望ましいが、後述するように一方向における空中の物体を検出するためには、少なくとも1つのカメラモジュール2が設けられていればよい。
The
車速センサ3は、自車両の車速を検出するものである。この車速センサ3によって検出された車速信号は、画像処理装置1に供給される。操舵角センサ4は、自車両の操舵角を検出するものである。この操舵角センサ4によって検出された操舵角信号は、画像処理装置1に供給される。シフト位置センサ5は、自車両のシフト位置(ギヤポジションの位置)を検出するものである。このシフト位置センサ5によって検出されたシフト位置信号は、画像処理装置1に供給される。
The vehicle speed sensor 3 detects the vehicle speed of the host vehicle. A vehicle speed signal detected by the vehicle speed sensor 3 is supplied to the
画像処理装置1は、カメラモジュール2により撮影された車両周辺の画像を処理するものである。画像処理装置1は、コンピュータによるハードウエアで構成されているが、図1においては便宜的に機能ブロック毎に分けて、説明を行っている。
The
この画像処理装置1は、バス状の通信ライン10に、カメラモジュール2a,2b,2c,2dのそれぞれに対応した入力バッファ11a,11b,11c,11d(以下、総称する場合には単に「入力バッファ11」と呼ぶ。)と、CPU12と、画像処理部13と、テーブル記憶部14と、出力バッファ15とが接続されて構成されている。
The
入力バッファ11は、カメラモジュール2からの画像データを入力して記憶しておくものである。入力バッファ11は、カメラモジュール2の個数に対応して設けられ、入力バッファ11aはカメラモジュール2aと接続され、入力バッファ11bはカメラモジュール2bと接続され、入力バッファ11cはカメラモジュール2cと接続され、入力バッファ11dはカメラモジュール2dと接続される。入力バッファ11は、画像データを一旦格納し、CPU12の制御に従って、画像処理部13による画像変換タイミングで画像データが読み出される。
The input buffer 11 receives and stores image data from the
出力バッファ15は、後述する画像処理部13によって座標変換された表示用の俯瞰画像(第2俯瞰画像データ)を記憶するものである。この出力バッファ15は、記憶した俯瞰画像の情報をモニタ6に出力する。
The
モニタ6は、出力バッファ15から出力された俯瞰画像を表示する。また、モニタ6は、後述するように画像処理部13によって特徴点が立体物に設定されていると判断された場合、その立体物について強調表示する。また、モニタ6は、検出した車両端(カメラ取り付け位置)と空中物体の間の実距離に基づいて、俯瞰画像における立体物を強調表示しても良い。強調表示の方法としては、俯瞰画像上の物体が立体物であることを運転者に知らせる情報画像を、当該俯瞰画像に重畳して表示する。
The
スピーカ7は、後述の画像処理部13によって特徴点が立体物に設定されていると判断された場合、その立体物の存在を所定の音声にて運転者に知らせる構成となっている。具体的には、スピーカ7は、「ピッ、ピッ、ピッ」といったピープ音や、「左側方に障害物があります」などの会話音で立体物の存在を運転者に知らせる。
The
CPU12は、画像処理装置1の全体を制御するものである。CPU12は、主として、入力バッファ11a,11b,11c,11dから画像データを取り出すタイミング、画像処理部13の画像処理タイミング、出力バッファ15から俯瞰画像をモニタ6に送信するタイミングを制御する。CPU12は、例えばASIC(Application Specific Integrated Circuit)や、LSI(Large Scale Integrated Circuit)や、FPGA(Field Programmable Gate Array)や、DSP(Digital Signal Processor)等のデバイスから構成されている。
The
テーブル記憶部14は、カメラモジュール2により撮影された車両周辺の画像データを座標変換するアドレス変換テーブルを記憶したものである。テーブル記憶部14は、アドレス変換テーブルとして、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面として画像データの座標変換をするための第1アドレス変換テーブル14aと、地面を基準面として画像データの座標変換をするための第2アドレス変換テーブル14bとを記憶している。
The
画像処理部13は、画像データを用いて座標変換を行って俯瞰画像を作成する第1画像変換部(第1の画像変換手段)13a及び第2画像変換部(第2の画像変換手段)13bと、座標変換された俯瞰画像に特徴点を設定する特徴点設定部(特徴点設定手段)13cと、車両の移動量を検出する移動量検出部(移動量検出手段)13dと、特徴点が立体物に設定されているか否かを判定する立体判断部(立体判断手段)13eとを有する。
The
第1画像変換部13aは、テーブル記憶部14に記憶された第1アドレス変換テーブル14aを参照して、画像データを座標変換する。この第1画像変換部13aは、入力バッファ11から得た画像データのうち、カメラモジュール2の撮像位置(取付位置)よりも高い範囲の画像データを用い、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面として座標変換をして、カメラモジュール2の撮像位置よりも高い立体物を検出するための第1俯瞰画像データを作成する。この第1俯瞰画像データは、カメラモジュール2の撮像位置よりも低い位置から上空の基準面を見るような俯瞰画像となる。
The first
第2画像変換部13bは、テーブル記憶部14に記憶された第2アドレス変換テーブル14bを参照して、画像データを座標変換する。この第2画像変換部13bは、入力バッファ11から得た画像データのうち、カメラモジュール2の撮像位置(取付位置)よりも低い範囲の画像データを用い、地面を基準面として座標変換をして、表示用の第2俯瞰画像データを作成する。この第2俯瞰画像データは、自車両を上空から眺めたような俯瞰画像であり、画像処理部13によって出力バッファ15に格納された後に、モニタ6に出力される。
The second
特徴点設定部13cは、第1画像変換部13aにより作成された第1俯瞰画像データに第1特徴点を設定する。また、この特徴点設定部13cは、第2画像変換部13bにより作成された第2俯瞰画像データにも、第2特徴点を設定する。この特徴点設定部13cは、先ず、第1,第2俯瞰画像データを構成する各画素の色情報又は明るさ情報を検出して、第1,第2俯瞰画像データに含まれるエッジを検出して、当該エッジが配列したエッジ線分を検出する。次に特徴点設定部13cは、検出したエッジ線分又は当該エッジ線分によって囲まれる領域内に特徴点を設定する。
The feature
移動量検出部13dは、車速センサ3から出力された車速信号と、操舵角センサ4から出力された操舵角信号と、シフト位置センサ5から出力されたシフト位置信号とに基づいて、自車両の移動量を検出する。
Based on the vehicle speed signal output from the vehicle speed sensor 3, the steering angle signal output from the
立体判断部13eは、移動量検出部13dによって自車両の移動が検出された場合に、当該移動量検出部13dにより検出された自車両の移動量と特徴点設定部13cにより設定された第1特徴点の第1俯瞰画像データにおける変化とから、第1特徴点が、カメラモジュール2の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断する。また、立体判断部13eは、移動量検出部13dによって自車両の移動が検出された場合に、当該移動量検出部13dにより検出された自車両の移動量と特徴点設定部13cにより設定された第2特徴点の第2俯瞰画像データにおける変化とから、第2特徴点が地上の立体物に設定されているか否かを判断する。
When the
立体判断部13eは、第1特徴点が複数設定されていた場合には、自車両の移動量と全ての第1特徴点の第1俯瞰画像データ上における移動量とを比較して、各第1特徴点が立体物上に設定されているか否かを判定する。また、立体判断部13eは、第2特徴点が複数設定されていた場合には、自車両の移動量と全ての第2特徴点の第2俯瞰画像データ上における移動量とを比較して、各第2特徴点が立体物上に設定されているか否かを判定する。
When a plurality of first feature points are set, the three-
そして、第1特徴点、第2特徴点が立体物上に存在する場合には、車両周辺画像提供装置は、当該第1特徴点、第2特徴点が設定された物体が立体物であることを運転者に報知するために、当該物体を強調表示させる画像処理や、当該物体の存在を音声通知する動作を行う。 When the first feature point and the second feature point are present on the three-dimensional object, the vehicle periphery image providing device indicates that the object in which the first feature point and the second feature point are set is a three-dimensional object. In order to notify the driver, an image process for highlighting the object and a voice notification of the presence of the object are performed.
このような第2俯瞰画像データを作成する第2画像変換部13bの処理を図2を参照して説明する。なお、この第2画像変換部13bの処理は、自車両の周囲に立体物が存在しない場合である。
Processing of the second
第2画像変換部13bによって俯瞰画像101を作成する座標変換処理は、カメラモジュール2aによって撮影された車両前方の車両周辺画像102aと、カメラモジュール2bによって撮影された車両後方の車両周辺画像102bと、カメラモジュール2cによって撮影された車両左側方の車両周辺画像102cと、カメラモジュール2dによって撮影された車両右側方の車両周辺画像102dとを用いる。図2に示す車両周辺画像102a〜102d、および後述する部分画像104a〜104dには、車両周辺の地面上に引かれた白線103が表示されている。
The coordinate conversion processing for creating the
第2画像変換部13bは、各車両周辺画像102a〜102dを、第2アドレス変換テーブル14bを参照してそれぞれ座標変換する。すなわち、第2画像変換部13bは、車両前方の車両周辺画像102aを座標変換して自車両前方を上空から眺めた部分画像104aを生成し、車両後方の車両周辺画像102bを座標変換して自車両後方を上空から眺めた部分画像104bを生成し、車両左側方の車両周辺画像102cを座標変換して車両左側方を上空から眺めた部分画像104cを生成し、車両右側方の車両周辺画像102dを座標変換して車両右側方を上空から眺めた部分画像104dを生成する。そして、第2画像変換部13bは、座標変換して得た部分画像104a〜104dを合成して、自車両周辺を上空から眺めた表示用の俯瞰画像101を生成する。なお、第2画像変換部13bは、車両周囲と自車両との位置関係を運転者に提示するために、俯瞰画像101の中央部に自車両を示すマーク105を配置(インポーズ)する。
The second
このように、第2画像変換部13bは、カメラモジュール2によって撮影された車両周辺画像に座標変換をして俯瞰画像101を生成し、当該俯瞰画像101を出力バッファ15に出力する。
As described above, the second
また、第1画像変換部13aも、第2画像変換部13bと同様に、カメラモジュール2a,2b,2c,2dのそれぞれによって撮影されて入力バッファ11a,11b,11c,11dに記憶された画像データを座標変換する。この第1画像変換部13aによって作成された第1俯瞰画像データは、カメラモジュール2の撮像位置よりも下方から、カメラモジュール2の撮像位置よりも高い位置の基準面を眺めた画像となる。この第1俯瞰画像データは、モニタ6には表示させずに一時的に画像処理部13のメモリ(図示せず)に保持される。
Similarly to the second
つぎに、自車両の周囲の地上又は空中に立体物が存在する時における、カメラモジュール2の撮像位置と、立体物の位置と、俯瞰画像の状態との関係について、図3を参照して説明する。なお、図3には、その上段及び下段に、自車両301を表す自車両の画像301’と立体障害物303A,303Bを表す画像303A’,303B’との俯瞰画像上の位置関係を示している。
Next, the relationship between the imaging position of the
図3に示すように、自車両301の後方の地面上に高さhの立体障害物303Aが存在する場合、カメラモジュール2が、高さHの撮像位置302(=設置位置)から、当該撮像位置302よりも低い位置に存在する高さhの立体障害物303Aを撮像した場合を考える。この場合、カメラモジュール2の撮像ラインL1が立体障害物303Aの上端部と交差し、カメラモジュール2の撮像ラインL2が立体障害物303Aの接地点と交差する。このようにカメラモジュール2の撮像位置302から立体障害物303Aを撮像した映像を、地面を基準面として座標変換して俯瞰画像を作成した場合、図3中の下段に示すように、立体障害物の画像303A’が描画される。この俯瞰画像(第2俯瞰画像データ)には、自車両301から距離aの位置P1として、立体障害物303Aの接地点を表す立体障害物の画像303A’が描画され、自車両301から距離bの位置P2として、立体障害物303Aの上端部を表す立体障害物303の画像303A’が描画される。
As shown in FIG. 3, when a three-
また、自車両301の後方の空中に高さhの立体障害物303Bが存在する場合、カメラモジュール2が、高さHの撮像位置302(=設置位置)から、当該撮像位置302よりも高い位置に存在する高さhの立体障害物303Bを撮像した場合を考える。この場合、カメラモジュール2の撮像ラインL1’が立体障害物303Aの下端部と交差し、カメラモジュール2の撮像ラインL2’が立体障害物303Bの上端点と交差する。このようにカメラモジュール2の撮像位置302から立体障害物303Bを撮像した映像を、当該カメラモジュール2の撮像位置302よりも高く立体障害物303Bの上端部に接触する空中の水平基準面304を基準として座標変換して俯瞰画像を作成すると、図3中の上段に示すように、立体障害物の画像303B’が描画される。この俯瞰画像(第1俯瞰画像データ)には、自車両301から距離aの位置P1として、立体障害物303Bの上端部を表す画像303B’が描画され、自車両301から距離bの位置P2として、立体障害物303Bの下端部を表す画像303B’が描画される。
When a three-
このように、撮像位置302と、立体障害物303A,303Bとの高さが異なり、更に、立体の高さhという立体障害物303A,303Bを撮像すると、俯瞰画像を作成するための基準面と接している立体障害物303A,303Bの部分は、実際の自車両301からの距離aの位置P1として描画される。しかし、基準面から離れた立体障害物303A,303Bの部分は、実際の自車両301からの距離とは異なって、立体障害物303A,303Bが倒れ込んだような形態で描画されてしまう。
As described above, when the
したがって、この車両周辺画像提供装置は、障害物が立体物である場合には、後述する処理を行うことによって、その旨を運転者に提示する。 Therefore, when the obstacle is a three-dimensional object, the vehicle periphery image providing device presents the fact to the driver by performing the processing described later.
このように、自車両の周辺に立体物が存在する場合において、運転者に提示する俯瞰画像について説明する。運転者に提示する表示用の俯瞰画像は、図3において、地面を基準面として座標変換した俯瞰画像(第2の俯瞰画像データ)である。 As described above, an overhead image to be presented to the driver when a three-dimensional object exists around the host vehicle will be described. The display bird's-eye view image presented to the driver is the bird's-eye view image (second bird's-eye view image data) obtained by performing coordinate conversion with the ground as a reference plane in FIG.
自車両周囲に立体障害物及び他車両が存在する場合には、例えば図4に示すように、車両周辺画像提供装置によって表示される俯瞰画像401には、自車両画像402の周囲にある白線画像403、ポール画像404、他車両画像405が含まれる。ここで座標変換の基準面である地面上にある白線画像403は、俯瞰画像401上において自車両402と相対的に正しい位置に描画される。しかし、先に説明したように、地面である基準面から立体的に存在していて高い位置にあるポール画像404や他車両画像405、すなわち立体物画像は、俯瞰画像401上では地面に倒れ込んでいるかのように描画される。そのため、運転者は、俯瞰画像401を見ても、自車両から立体物までの距離感がつかみづらいと感じてしまう。また、立体物が地面上のもののように見えてしまうため、実際に地面上にある白線等との区別がつきづらく感じてしまう。
When a three-dimensional obstacle and other vehicles exist around the host vehicle, for example, as shown in FIG. 4, the
そこで、車両周辺画像提供装置は、画像処理部13の特徴点設定部13c、移動量検出部13d及び立体判断部13eによって、第2俯瞰画像データに含まれる物体が立体物か否かを判定する。
Therefore, the vehicle periphery image providing device determines whether the object included in the second overhead image data is a three-dimensional object by the feature
図4に示す俯瞰画像401に対して、特徴点設定部13cによってエッジ検出する処理を施すと、図5に示すようなエッジ画像501を得ることができる。このエッジ画像501には、自車両画像502の周辺に、白線画像403から得られた白線エッジ503、ポール画像404から得られたポールエッジ504、他車両画像405から得られた他車両エッジ505を検出することができる。そして、特徴点設定部13cは、エッジ線分上又はエッジ線分によって囲まれる領域内に特徴点を設定する。すなわち、特徴点設定部13cは、白線エッジ503、ポールエッジ504、他車両エッジ505の縁部分または内側に特徴点を設定する。なお、特徴点設定部13cは、特徴点を1つだけでなく複数設定することで、立体物である可能性がある部分のすべてに対して特徴点を設定することが望ましい。
When the
そして、画像処理部13は、立体判断部13eによって、第2俯瞰画像データ上に設定された特徴点が立体物上に設定されているか否かを判断する。移動量検出部13dは、自車両が移動した場合に、特徴点設定部13cにより設定された特徴点の第2俯瞰画像データにおける移動量の変化を求める。そして、立体判断部13eは、この移動量と、移動量検出機能により検出された自車両の移動量とを比較して、特徴点が立体物上に設定されているか否かを判断する。
Then, the
このときの立体判断部13eの動作について図6乃至図8を参照して説明する。なお、図6乃至図8には、その下段に、自車両301を表す自車両の画像301’と立体障害物303を表す画像303’との俯瞰画像上の位置関係を図示している。
The operation of the three-
図6は、時刻tがt0である時の自車両301と立体障害物303Aとの関係を示し、図7は、時刻tがt1(>t0)である時の自車両301と立体障害物303Aとの関係を示し、図8は、時刻t=t0〜t=t1への変化を示す図である。
FIG. 6 shows the relationship between the
図6に示すような時刻t=t0の状況において、自車両301の後方の地面上から高さhの立体障害物303(t0)が存在し、カメラモジュール2は、高さHの撮像位置302(=設置位置)から、当該撮像位置302よりも低い位置に存在する立体障害物303(t0)を撮像する。この場合、カメラモジュール2の撮像ラインL1(t0)が立体障害物303(t0)の上端部(高さh)と交差し、カメラモジュール2の撮像ラインL2(t0)が立体障害物303(t0)の下端部と交差する。このようにカメラモジュール2の撮像位置302から立体障害物303(t0)を撮像した映像を、地面を基準面として座標変換して俯瞰画像を作成すると、図6中の下段に示すように、立体障害物の画像303’(t0)が描画される。この俯瞰画像(第2俯瞰画像データ)には、実際距離R(t0)よりも遠い距離Nの位置P1として立体障害物303(t0)の下端部が描画され、位置P2として立体障害物303(t0)の上端部が描画される物体映像303’(t0)が描画される。
In the situation at time t = t0 as shown in FIG. 6, there is a three-dimensional obstacle 303 (t0) having a height h from the ground behind the
この後に時刻t=t1となった時に、図7に示すように、時刻t=t0よりも、自車両301が後退して立体障害物303(t1)との実際距離がR(t1)まで接近した場合、俯瞰画像には、実際距離R(t1)よりも遠い距離Mの位置P1として立体障害物303(t1)の下端部が描画され、位置P2として立体障害物303(t1)の上端部が描画される物体映像303’(t1)が描画される。
Thereafter, when time t = t1, as shown in FIG. 7, the
図8に示すように、時刻t0〜t1に亘る自車両301の移動距離Sと俯瞰画像上での空中の立体障害物303の移動距離L(=N−M)とを比較すると、実際の移動距離Sよりも俯瞰画像上での移動距離Lの方が長くなり、実際の移動量と俯瞰画像上での移動量とに相違が発生している。これは、地面上の物体は自車両301の移動量分だけ移動するが、俯瞰画像の原理上、空中の立体障害物303の下端部の俯瞰画像上での位置は、自車両301の実際の移動量よりも、大きく移動してしまう。
As shown in FIG. 8, when the moving distance S of the
したがって、立体判断部13eは、図8に示すように、自車両301の実際の移動量よりも、俯瞰画像上に設定した特徴点の移動量が大きいか否かに基づいて、特徴点が空中に設定されているか否かが判断でき、すなわち、特徴点が立体物に設定されているか否かを判断することができる。
Therefore, as shown in FIG. 8, the three-
立体判断部13eは、特徴点が立体物に設定されていると判断した場合、予め記憶しておいたカメラモジュール2の撮像位置H、移動量検出部13dによって求められた移動距離S及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、特徴点を含む立体障害物303の高さhを求める。
When the
h=H(1−S/L)
また、立体判断部13eは、実際の移動距離S、俯瞰画像における移動後の立体障害物303(t1)までの距離M及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、自車両301の後端(カメラモジュール2の撮像位置)と空中の立体障害物303との間の実際の距離Rを求める。
h = H (1-S / L)
In addition, the
R=S×M/L
なお、上記のようにカメラモジュール2の撮像位置と立体障害物303の下端部との実際の距離Rを求めたが、立体障害物303の上端部であっても同様に距離を求めることができる。
R = S × M / L
Although the actual distance R between the imaging position of the
以上のように、この車両周辺画像提供装置によれば、基準面を地面として作成された俯瞰画像に含まれる物体が立体物であることを検出することができる。 As described above, according to this vehicle periphery image providing device, it is possible to detect that the object included in the overhead image created with the reference plane as the ground is a three-dimensional object.
また、図3を参照して説明したように、車両周辺画像提供装置は、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面とし、カメラモジュール2の撮像位置よりも高い範囲の部分画像603を座標変換して、当該基準面に投影した第1俯瞰画像データを作成する。この車両周辺画像提供装置は、例えば、カメラモジュール2によって図9に示すような地上の部分画像602と空中の部分画像603とを含む画像データ601を撮像した場合に、空中の部分画像603を用いて、第2俯瞰画像データを作成する。この空中の部分画像603は、カメラモジュール2の撮像位置、カメラモジュール2の撮像方向(取付向き)、及びディストーション(歪曲収差)データに基づいて予めカメラモジュール2が撮像する画像データのうちの所定の範囲であることが決定されている。したがって、第1画像変換部13aは、入力バッファ11から取り出した画像データのうち所定の範囲の画像データを取り出すことによって、空中の部分画像603を得ることができる。
In addition, as described with reference to FIG. 3, the vehicle periphery image providing device uses a horizontal plane higher than the height of the shooting position of the
例えば自車両が車庫などの屋根付きの駐車場に進入した場合、空中の部分画像603には、屋根などの障害物が含まれ、第2俯瞰画像データには、空中の障害物が描画されることになる。そして、車両周辺画像提供装置は、第2俯瞰画像データに対してエッジ検出処理を行い、エッジ線分上又はエッジ線分に囲まれる領域内に特徴点(第2の特徴点)を設定して、自車両の移動量と第2俯瞰画像データにおける特徴点の変化とから、当該特徴点が空中の立体物に設定されているかを判断する。
For example, when the own vehicle enters a parking lot with a roof such as a garage, the aerial
つぎに、図6乃至図8を参照して説明したように、時刻t=t0〜t=t1に亘って自車両301が空中の立体障害物303に向けて後退移動した時の俯瞰画像の変化を、図10乃至図12を参照して説明する。
Next, as described with reference to FIGS. 6 to 8, the overhead image changes when the
図10乃至図12に示すように、空中の水平基準面704は、カメラモジュール2の撮像位置702から高さHだけ高い位置に設定される。そして、この車両周辺画像提供装置は、カメラモジュール2の撮影位置の高さよりも高い位置から空中の水平基準面704よりも低い位置の範囲に存在する立体障害物703を検出する。
As shown in FIGS. 10 to 12, the
図10に示すような時刻t=t0の状況において、自車両701の後方の地面上から高さh’だけ上方且つ空中の水平基準面704から高さhだけ下方に立体障害物703(t1)が存在する場合、カメラモジュール2は、撮像位置402(=設置位置)から、当該撮像位置702よりも高い範囲に存在する立体障害物703を撮像する。この場合、カメラモジュール2の撮像ラインL1(t0)が立体障害物703(t0)の下端部と交差し、カメラモジュール2の撮像ラインL2(t0)が立体障害物703(t0)の上端部と交差する。このようにカメラモジュール2の撮像位置702から立体障害物703(t0)を撮像した映像を、空中の水平基準面704を基準として座標変換して俯瞰画像を作成すると、俯瞰画像には、図10中の上段に示すような立体障害物の画像703’が含まれる。この俯瞰画像(第1俯瞰画像データ)には、実際距離R(t0)よりも遠い距離Nの位置P2として立体障害物703(t0)の上端部が描画され、位置P1として立体障害物703(t0)の下端部が描画される物体映像703’(t0)が描画される。
In the situation at time t = t0 as shown in FIG. 10, the three-dimensional obstacle 703 (t1) is located above the ground behind the
この後に時刻t=t1となった時に、図11に示すように、時刻t=t0よりも、自車両701が後退して立体障害物703(t1)との実際距離がR(t1)まで接近した場合、俯瞰画像には、実際距離R(t1)よりも遠い距離Mの位置P1として立体障害物703(t1)の上端部が描画され、位置P2として立体障害物703(t1)の下端部が描画される物体映像703’(t1)が描画される。
Thereafter, when time t = t1, as shown in FIG. 11, the
図10乃至図12の説明においては、空中の立体障害物703の上端を第1特徴点として計算を行ったが、立体障害物703の下端に第1特徴点を設定して、距離Rを計測しても良い。
In the description of FIGS. 10 to 12, the calculation is performed using the upper end of the three-
図12に示すように、自車両701の移動距離Sと俯瞰画像上での空中の立体障害物703の移動距離L(=N−M)とを比較すると、実際の移動距離Sよりも俯瞰画像上での移動距離Lの方が長くなり、実際の移動量と俯瞰画像上での移動量とに相違が発生している。これは、地面上の物体は自車両701の移動量分だけ移動するが、俯瞰画像の原理上、空中の立体障害物703の上端部の俯瞰画像上での位置は、自車両701の実際の移動量よりも、大きく移動してしまう。
As shown in FIG. 12, when the moving distance S of the
したがって、立体判断部13eは、図12に示すように、自車両701の実際の移動量よりも、俯瞰画像上に設定した特徴点の移動量が大きいか否かに基づいて、特徴点が空中の水平基準面704よりも下方に設定されているか否かが判断でき、すなわち、特徴点が立体物に設定されているか否かを判断することができる。
Therefore, as shown in FIG. 12, the
このとき、立体判断部13eは、地面を基準面として場合と同様に、空中の水平基準面704とカメラモジュール2の撮像位置との高さ(=H)、移動量検出部13dによって求められた移動距離S及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、特徴点を含む立体障害物703の地面からの高さh’を求めることができる。
At this time, the
h’=2H−H(1−S/L)=H(1+S/L)
なお、空中の水平基準面704をカメラモジュール2の撮像位置702から高さHに設定していなく、カメラモジュール2の撮像位置702から高さH’に設定している場合には、立体障害物703の地面からの高さh’は、
h’=(H+H’)−H(1−S/L)=H(1+S/L)
となる。したがって、例えば、自車両701が後退した時に自車両701が衝突する可能性がある立体障害物703を検出したい場合には、白線画像703の高さH’を、自車両701の高さに余裕代を加算した程度の、自車両の高さと略同じような地面からの高さ(H+H’)に設定する。
h ′ = 2H−H (1−S / L) = H (1 + S / L)
If the
h ′ = (H + H ′) − H (1−S / L) = H (1 + S / L)
It becomes. Therefore, for example, when it is desired to detect a three-
また、立体判断部13eは、実際の移動距離S、俯瞰画像における移動後の立体障害物703(t1)までの距離M及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、自車両701の後端(カメラモジュール2の撮像位置)と空中の立体障害物703との間の実際の距離Rを求める。
Further, the
R=S×M/L
以上のように、この車両周辺画像提供装置によれば、図13(a)に示すように、カメラモジュール2の撮像位置802を含む水平面よりも下方の範囲810において地面から立体的に存在する立体障害物803Aについては、第2画像変換部13bによって第2俯瞰画像データを作成して、特徴点設定部13c、移動量検出部13d及び立体判断部13eによって検出できる。しかし、カメラモジュール2の撮像位置302を上回る高さ部分803aを有する立体障害物803Bについては、当該高さ部分803aまでを検出することはできない。そこで、この車両周辺画像提供装置によれば、図13(b)に示すように、カメラモジュール2の撮像位置802を含む水平面よりも高い範囲811に存在する立体障害物803Bがある場合であっても、第1画像変換部13aによって第1俯瞰画像データを作成して、特徴点設定部13c、移動量検出部13d及び立体判断部13eによって、立体障害物803Bの全体を検出することができる。
R = S × M / L
As described above, according to this vehicle periphery image providing device, as shown in FIG. 13A, a three-dimensional object that exists three-dimensionally from the ground in a
また、この車両周辺画像提供装置は、図10乃至図12に示したように、空中の水平基準面704の高さを、カメラモジュール2の撮像位置702の高さHの2倍としたので、自車両701から立体障害物703までの距離Rを計測するための換算式(R=S×M/L)を、地面上の立体障害物703までの距離Rを計測するための換算式(R=S×M/L)と共通化することができる。
In addition, as shown in FIGS. 10 to 12, the vehicle periphery image providing apparatus sets the height of the
つぎに、上述したように構成された車両周辺画像提供装置によって、自車両周辺に存在する立体物を検出する処理手順について、図14のフローチャートを参照して説明する。なお、図14に示す処理は、カメラモジュール2によって撮影した画像から表示用の俯瞰画像を作成して出力バッファ15に記憶させた時点で開始するものとする。
Next, a processing procedure for detecting a three-dimensional object existing around the host vehicle by the vehicle surrounding image providing apparatus configured as described above will be described with reference to a flowchart of FIG. Note that the processing shown in FIG. 14 starts when a bird's-eye view image for display is created from an image photographed by the
まず、ステップS1においては、画像処理装置1によって、車速センサ3から出力された車速信号に基づいて、自車両が移動したか否かを判断する。自車両が移動していないと判断した場合には、移動したと判断するまでこの処理を繰り返す。一方、自車両が移動したと判断した場合には、ステップS2に処理を進める。
First, in step S <b> 1, the
次のステップS2においては、画像処理部13の移動量検出部13dによって、自車両の挙動をモニタする。このとき、移動量検出部13dは、自車両の移動量及び移動方向を随時検出する。この処理において、画像処理部13は、例えば「車両が前方にs〔mm〕移動」といった情報を検出することができる。
In the next step S2, the behavior of the host vehicle is monitored by the movement
次のステップS3においては、第1画像変換部13aによって第1俯瞰画像データを作成すると共に、第2画像変換部13bによって第2俯瞰画像データを作成する。このとき、画像処理部13は、カメラモジュール2a,2b,2c,2dによって撮像された各方向の画像データを入力バッファ11a,11b,11c,11dから取り出して、第1画像変換部13aによって空中の水平基準面を基準とした座標変換を行い、第2画像変換部13bによって地面を基準とした座標変換を行う。第2画像変換部13bによって作成された第2俯瞰画像データは、出力バッファ15に一旦格納された後に、モニタ6に表示されることとなる。
In the next step S3, first overhead image data is created by the first
次のステップS4においては、画像処理部13によって、ステップS3にて作成された第1俯瞰画像データ、第2俯瞰画像データに対してエッジ検出を行う。エッジ検出処理は、第1俯瞰画像データ、第2俯瞰画像データ上において隣り合う画素同士の色信号(RGB)、色差信号(Cb,Cr)または輝度信号(Y)を比較して、所定値以上の差分がある場合に当該画素間をエッジであると判定する。なお、例えば、図13に示したように、カメラモジュール2の撮像位置802よりも高い物体が存在しない場合など、画像データのうちの空中の部分画像に立体物が存在しない場合には、第2特徴点は設定されない。
In the next step S4, the
そして、画像処理装置1は、エッジ検出の結果をもとに、特徴点設定部13cによって、第1俯瞰画像データには第1特徴点を設定すると共に第2俯瞰画像データには第2特徴点を設定する。
Then, the
次のステップS5においては、立体判断部13eによって、移動量検出部13dによって検出された自車両の移動と、ステップS4に検出したエッジに基づいて設定した第1特徴点、第2特徴点との移動とが合致しているか否かを判定する。ここで、自車両の移動とエッジに基づいて設定した第2特徴点の移動とが合致していると判断した場合には、第2特徴点が立体物ではない地面に設定されていると判定する。また、自車両の移動と第2特徴点の移動とが合致していない場合には、地面上の立体物に第2特徴点が設定されていると判定してステップS6に処理を進める。更に、自車両の移動と第1特徴点の移動とが合致していない場合には、カメラモジュール2の撮像位置よりも上方に存在する障害物が存在するために、ステップS6に処理を進める。
In the next step S5, the movement of the host vehicle detected by the movement
より具体的に説明すると、例えば車両が俯瞰画像上に換算して3画素分に相当する距離だけ前進した場合に、上記白線等のラインに設定された特徴点は、自車両の移動量と同様に3画素分に相当する距離だけ移動する。これに対し、別の特徴点が6画素分に相当する距離だけ移動した場合、立体判断部13eは、当該特徴点が設定されている物体が白線等ではなく立体物であると判断する。さらに、画像処理装置1は、第2特徴点が設定された立体物の高さh、及び車両端(カメラモジュール2の撮像位置)から該立体物までの距離R、第1特徴点が設定された立体物の高さh及び車両端(カメラモジュール2の撮像位置)から該立体物までの距離Rを計算する。
More specifically, for example, when the vehicle moves forward by a distance corresponding to three pixels in terms of a bird's-eye view image, the feature points set in the lines such as the white line are the same as the movement amount of the host vehicle. Is moved by a distance corresponding to three pixels. On the other hand, when another feature point moves by a distance corresponding to six pixels, the
次のステップS6においては、画像処理部13によって、ステップS5にて立体物と判定された第2俯瞰画像データ内の立体物画像を強調する情報画像を、当該第2俯瞰画像データに重畳する。このとき、画像処理部13は、検出された立体物の高さh又はh’及び立体物までの距離Rに応じた強調表示をしても良い。例えば、モニタ6によって、自車両が接触するような高さであるほど、又は、自車両との距離が近いほど運転者に強調する強調表示を行わせる。また、車両周辺画像提供装置は、スピーカ7によって、立体物の存在を所定の音声にて運転者に通知する。
In the next step S6, the
なお、カメラモジュール2の撮像位置よりも下方の立体物については、モニタ6に表示させている第2俯瞰画像データに含まれているが、カメラモジュール2の撮像位置よりも高い位置に存在する立体物については第2俯瞰画像データに含まれていない場合がある。この場合、画像処理装置1は、第1俯瞰画像データから検出された立体物の自車両に対する相対位置などを第2俯瞰画像データによって強調表示しても良い。
Note that the three-dimensional object below the imaging position of the
その後、車両周辺画像提供装置は、自車両のイグニッションスイッチがオフされたか否かを判断し、イグニッションスイッチがオフされていないと判断した場合には、ステップS1に移行し、イグニッションスイッチがオフされたと判断した場合には、処理を終了する。 Thereafter, the vehicle surrounding image providing device determines whether or not the ignition switch of the host vehicle is turned off, and if it is determined that the ignition switch is not turned off, the process proceeds to step S1 and the ignition switch is turned off. If it is determined, the process is terminated.
以上詳細に説明したように、本発明を適用した車両周辺画像提供装置によれば、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面として座標変換した第2俯瞰画像データを作成して当該第1俯瞰画像データに第1特徴点を設定し、自車両の移動量と第1特徴点の第1俯瞰画像データにおける変化とから、第1の特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されているか否かを判断することができる。したがって、この車両周辺画像提供装置によれば、カメラモジュール2の撮像位置よりも高い位置に存在する立体物の有無を判定できる。
As described above in detail, according to the vehicle periphery image providing device to which the present invention is applied, the second overhead image data obtained by performing coordinate conversion using the horizontal plane higher than the height of the shooting position of the
また、この車両周辺画像提供装置によれば、自車両の移動量と第1特徴点の第1の俯瞰画像データにおける移動量とから、第1特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されているか否かを判断するので、実際の自車両の移動量と、俯瞰画像内における立体物の移動量との差異から、第1特徴点が立体物に設定されているかを判定できる。
Further, according to this vehicle periphery image providing device, the first feature point is higher than the imaging position of the
更に、この車両周辺画像提供装置によれば、第1特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されていると判断した場合に、カメラモジュール2の撮像位置の高さと、自車両の移動量と、第1特徴点の第1俯瞰画像データにおける移動量とから、第1特徴点の高さを求めることができるので、立体物の高さに応じた表示又は音声出力を行うことができる。
Furthermore, according to this vehicle periphery image providing device, when it is determined that the first feature point is set to a three-dimensional object in the air higher than the imaging position of the
更にまた、この車両周辺画像提供装置によれば、第1特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されていると判断した場合に、自車両の移動量と、第1特徴点の第1俯瞰画像データにおける移動量と、第1特徴点とカメラモジュール2の撮像位置との第1俯瞰画像データにおける距離とから、車両と立体物との実際の距離を求めることができるので、当該実際の距離に応じて立体物を報知する表示又は音声出力を行うことができる。
Furthermore, according to this vehicle periphery image providing device, when it is determined that the first feature point is set to a three-dimensional object in the air higher than the imaging position of the
更にまた、この車両周辺画像提供装置によれば、空中の水平基準面704の高さを自車両の高さと略同じに設定して第1俯瞰画像データを作成するので、カメラモジュール2の撮像位置から空中の水平基準面704までに存在する立体物の有無を判定して、自車両が接触する可能性のある立体物が存在することを報知できる。
Furthermore, according to this vehicle periphery image providing device, the first bird's-eye view image data is created by setting the height of the
更にまた、この車両周辺画像提供装置によれば、地面を基準面として座標変換した第2俯瞰画像データによって車両周囲に表示を行い、且つ地面上に立体物が存在することを判定できるので、当該地面を基準面とした第2俯瞰画像データにおける立体物が座標変換によって倒れ込んだ形態として表示されていることを表示することができる。また、この車両周辺画像提供装置によれば、地面からカメラモジュール2の撮像位置までの高さの範囲及びカメラモジュール2の撮像位置から空中の水平基準面704までの高さの範囲といった広い範囲において立体物の有無を判定できる。
Furthermore, according to this vehicle periphery image providing device, it is possible to display around the vehicle by the second overhead image data coordinate-converted with the ground as a reference plane, and to determine that a three-dimensional object exists on the ground. It can be displayed that the three-dimensional object in the second bird's-eye view image data with the ground as a reference plane is displayed as a form collapsed by coordinate conversion. Further, according to this vehicle periphery image providing device, in a wide range such as a range of height from the ground to the imaging position of the
更にまた、この車両周辺画像提供装置によれば、空中の水平基準面704をカメラモジュール2の撮像位置の2倍の高さにして、第1俯瞰画像データを作成するので、地面上の物体と自車両との距離を求める演算と同じ演算によってカメラモジュール2の撮像位置よりも高い位置に存在する立体物と自車両との距離を求めることができ、処理負荷を低減できる。
Furthermore, according to this vehicle periphery image providing device, the first horizontal bird's-eye image data is created by setting the
更にまた、この車両周辺画像提供装置によれば、第1,第2俯瞰画像データ上の各画素の色情報または明るさ情報から俯瞰画像データ内のエッジ線分を検出し、検出したエッジ線分上または検出したエッジ線分によって囲まれる領域内に第1,第2特徴点を設定するので、地面に描かれる白線等のラインや立体物の縁または内側に第1,第2特徴点を設定することとなる。従って、立体物である可能性がある箇所に第1,第2特徴点を確実に設定することができる。 Furthermore, according to this vehicle periphery image providing device, the edge line segment in the overhead image data is detected from the color information or the brightness information of each pixel on the first and second overhead image data, and the detected edge line segment is detected. Since the first and second feature points are set in the area surrounded by the upper or detected edge line segment, the first and second feature points are set on the edge or inside of a solid line or a solid object drawn on the ground. Will be. Therefore, the first and second feature points can be reliably set at a portion that may be a three-dimensional object.
更にまた、この車両周辺画像提供装置によれば、第1俯瞰画像データから立体物の存在を判定した場合には、当該立体物について強調表示するため、立体物を分かりやすく運転者に提示できる。また、表示している第2俯瞰画像データに第1俯瞰画像データの立体物が表示されていない場合であっても、第1俯瞰画像データの立体物を運転者に対して分かり易く通知することができる。 Furthermore, according to this vehicle periphery image providing device, when the presence of a three-dimensional object is determined from the first overhead image data, the three-dimensional object is highlighted, so that the three-dimensional object can be presented to the driver in an easily understandable manner. Further, even when the three-dimensional object of the first overhead image data is not displayed in the displayed second overhead image data, the three-dimensional object of the first overhead image data is notified to the driver in an easily understandable manner. Can do.
更にまた、この車両周辺画像提供装置によれば、第1特徴点又は第2特徴点が立体物に設定されていると判断された場合に、その立体物の存在を所定の音声にて運転者に知らせるので、モニタ6を運転者が見ていなくても、立体物の存在を運転者に提示できる。また、表示している第2俯瞰画像データに第1俯瞰画像データの立体物が表示されていない場合であっても、第1俯瞰画像データの立体物を運転者に対して分かり易く通知することができる。
Furthermore, according to this vehicle periphery image providing device, when it is determined that the first feature point or the second feature point is set as a three-dimensional object, the driver is notified of the presence of the three-dimensional object with a predetermined voice. Therefore, even if the driver is not looking at the
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。 The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
1 画像処理装置
2a,2b,2c,2d カメラモジュール
3 車速センサ
4 操舵角センサ
5 シフト位置センサ
6 モニタ
7 スピーカ
10 通信ライン
11a,11b,11c,11d 入力バッファ
12 CPU
13 画像処理部
13a 第1画像変換部
13b 第2画像変換部
13c 特徴点設定部
13d 移動量検出部
13e 立体判断部
14 テーブル記憶部
14a 第1アドレス変換テーブル
14b 第2アドレス変換テーブル
15 出力バッファ
101 俯瞰画像
102a〜102d 車両周辺画像
103 白線
104a〜104d 部分画像
105 自車両マーク
301,701,801 自車両
302,702,802 撮像位置
303,703,803 立体障害物
304,704 水平基準面
401 俯瞰画像
402 自車両画像
403 白線画像
404 ポール画像
405 他車両画像
501 エッジ画像
502 自車両画像
503 白線エッジ
504 ポールエッジ
505 他車両エッジ
601 画像データ
602 地上の部分画像
603 空中の部分画像
DESCRIPTION OF
DESCRIPTION OF
Claims (11)
前記撮影手段の撮影位置の高さよりも高い水平面を基準面とし、前記撮影手段の撮像位置よりも高い範囲の画像を座標変換して当該基準面に投影した第1の俯瞰画像データを作成する第1の画像変換手段と、
前記第1の画像変換手段により作成された第1の俯瞰画像データに第1の特徴点を設定する第1の特徴点設定手段と、
自車両の移動量を検出する移動量検出手段と、
自車両が移動した場合に、前記移動量検出手段により検出された自車両の移動量と前記第1の特徴点設定手段により設定された第1の特徴点の第1の俯瞰画像データにおける変化とから、前記第1の特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断する立体判断手段と、
前記立体判断手段により、前記第1の特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されていると判断された場合に、報知を行う報知手段と
を備えることを特徴とする車両周辺画像処理装置。 Photographing means for photographing the periphery of the vehicle;
A horizontal plane that is higher than the height of the photographing position of the photographing means is used as a reference plane, and an image in a range higher than the imaging position of the photographing means is subjected to coordinate transformation to generate first overhead image data projected on the reference plane. 1 image conversion means;
First feature point setting means for setting a first feature point in the first overhead image data created by the first image conversion means;
A movement amount detecting means for detecting a movement amount of the host vehicle;
When the host vehicle moves, the movement amount of the host vehicle detected by the movement amount detection unit and the change in the first overhead image data of the first feature point set by the first feature point setting unit; From the above, a solid determination unit that determines whether or not the first feature point is set to a solid object that exists at a position higher than the height of the shooting position of the shooting unit;
An informing means for informing when the solid judging means judges that the first feature point is set to a solid object existing at a position higher than the height of the photographing position of the photographing means; A vehicle periphery image processing apparatus comprising:
前記特徴点設定手段は、前記第2の画像変換手段により作成された第2の俯瞰画像データに第2の特徴点を設定し、
前記立体判断手段は、自車両が移動した場合に、前記移動量検出手段により検出された自車両の移動量と前記第2の特徴点の第2の俯瞰画像データにおける変化とから、前記第2の特徴点が地面上の立体物に設定されているか否かを判断することを特徴とする請求項1乃至請求項5の何れか一項に記載の車両周辺画像処理装置。 Further comprising second image conversion means for creating second overhead image data obtained by coordinate conversion of an image captured by the imaging means with the ground as a reference plane;
The feature point setting means sets a second feature point in the second overhead image data created by the second image conversion means,
When the host vehicle moves, the three-dimensional determination unit is configured to calculate the second feature point based on a movement amount of the host vehicle detected by the movement amount detection unit and a change in the second overhead image data of the second feature point. 6. The vehicle peripheral image processing device according to claim 1, wherein the feature point is determined as a solid object on the ground.
前記表示手段は、前記立体判断手段により前記第1の特徴点又は前記第2の特徴点が立体物に設定されていると判断された場合に、当該立体物を強調表示することを特徴とする請求項6乃至請求項8の何れか1項に記載の車両周辺画像処理装置。 And further comprising display means for displaying second overhead image data obtained by coordinate conversion by the second image conversion means,
The display means highlights the three-dimensional object when the three-dimensional determination means determines that the first feature point or the second feature point is set as a three-dimensional object. The vehicle periphery image processing device according to any one of claims 6 to 8.
自車両が移動した場合に、当該自車両の移動量と前記設定された徴点の俯瞰画像データにおける変化とから、前記特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断して、立体物が存在するか否かを運転者に提供すること
を特徴とする車両周辺状況提示方法。 A vehicle periphery image obtained by photographing the periphery of the vehicle is generated by the imaging means, and a horizontal plane higher than the height of the imaging position of the imaging means is used as a reference plane, and an image in a range higher than the imaging position of the imaging means is subjected to coordinate conversion and Create overhead image data projected on the reference plane, set feature points in the created overhead image data,
When the own vehicle moves, the feature point is present at a position higher than the height of the photographing position of the photographing means, based on the amount of movement of the own vehicle and the change in the overhead image data of the set point. A vehicle surroundings state presentation method characterized by determining whether or not a three-dimensional object is present by determining whether or not a three-dimensional object is set.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007262032A JP5003395B2 (en) | 2007-10-05 | 2007-10-05 | Vehicle periphery image processing apparatus and vehicle periphery state presentation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007262032A JP5003395B2 (en) | 2007-10-05 | 2007-10-05 | Vehicle periphery image processing apparatus and vehicle periphery state presentation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009093332A true JP2009093332A (en) | 2009-04-30 |
JP5003395B2 JP5003395B2 (en) | 2012-08-15 |
Family
ID=40665286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007262032A Active JP5003395B2 (en) | 2007-10-05 | 2007-10-05 | Vehicle periphery image processing apparatus and vehicle periphery state presentation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5003395B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011070593A (en) * | 2009-09-28 | 2011-04-07 | Mitsubishi Motors Corp | Vehicle periphery monitoring device |
CN102288165A (en) * | 2010-06-21 | 2011-12-21 | 日产自动车株式会社 | Travel distance detection device and travel distance detection method |
JP2012004693A (en) * | 2010-06-15 | 2012-01-05 | Clarion Co Ltd | Driving support device |
JP2012227913A (en) * | 2011-04-14 | 2012-11-15 | Harman Becker Automotive Systems Gmbh | Vehicle surround view system |
JP2014531799A (en) * | 2011-09-06 | 2014-11-27 | ジャガー ランド ローバー リミテッドJaguar Land Rover Limited | Terrain visualization for vehicles and vehicle drivers |
EP3258686A4 (en) * | 2015-02-10 | 2018-10-10 | Clarion Co., Ltd. | Entry possibility determining device for vehicle |
WO2019069469A1 (en) * | 2017-10-06 | 2019-04-11 | 日本電気株式会社 | Object detection device, object detection method, and computer readable recording medium |
US10397544B2 (en) | 2010-08-19 | 2019-08-27 | Nissan Motor Co., Ltd. | Three-dimensional object detection device and three-dimensional object detection method |
DE102018124033B4 (en) | 2017-09-29 | 2023-08-10 | Toyota Jidosha Kabushiki Kaisha | Ground contact determination device for a three-dimensional object |
JP7392754B2 (en) | 2022-03-23 | 2023-12-06 | いすゞ自動車株式会社 | Vehicle rear monitoring system and vehicle rear monitoring method |
JP7392753B2 (en) | 2022-03-23 | 2023-12-06 | いすゞ自動車株式会社 | Vehicle rear monitoring system and vehicle rear monitoring method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0793693A (en) * | 1993-09-21 | 1995-04-07 | Nissan Motor Co Ltd | Object detector for vehicle |
JPH1062162A (en) * | 1996-08-13 | 1998-03-06 | Nissan Motor Co Ltd | Detector for obstacle |
JPH10222679A (en) * | 1997-02-04 | 1998-08-21 | Toyota Motor Corp | Vehicle image processor |
JP2004289386A (en) * | 2003-03-20 | 2004-10-14 | Clarion Co Ltd | Image display method, image display apparatus, and image processing apparatus |
JP2006341641A (en) * | 2005-06-07 | 2006-12-21 | Nissan Motor Co Ltd | Image display apparatus and image display method |
JP2007235642A (en) * | 2006-03-02 | 2007-09-13 | Hitachi Ltd | Obstruction detecting system |
-
2007
- 2007-10-05 JP JP2007262032A patent/JP5003395B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0793693A (en) * | 1993-09-21 | 1995-04-07 | Nissan Motor Co Ltd | Object detector for vehicle |
JPH1062162A (en) * | 1996-08-13 | 1998-03-06 | Nissan Motor Co Ltd | Detector for obstacle |
JPH10222679A (en) * | 1997-02-04 | 1998-08-21 | Toyota Motor Corp | Vehicle image processor |
JP2004289386A (en) * | 2003-03-20 | 2004-10-14 | Clarion Co Ltd | Image display method, image display apparatus, and image processing apparatus |
JP2006341641A (en) * | 2005-06-07 | 2006-12-21 | Nissan Motor Co Ltd | Image display apparatus and image display method |
JP2007235642A (en) * | 2006-03-02 | 2007-09-13 | Hitachi Ltd | Obstruction detecting system |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011070593A (en) * | 2009-09-28 | 2011-04-07 | Mitsubishi Motors Corp | Vehicle periphery monitoring device |
JP2012004693A (en) * | 2010-06-15 | 2012-01-05 | Clarion Co Ltd | Driving support device |
CN102288165A (en) * | 2010-06-21 | 2011-12-21 | 日产自动车株式会社 | Travel distance detection device and travel distance detection method |
JP2012003662A (en) * | 2010-06-21 | 2012-01-05 | Nissan Motor Co Ltd | Moving distance detector and moving distance detection method |
US8854456B2 (en) | 2010-06-21 | 2014-10-07 | Nissan Motor Co., Ltd. | Travel distance detection device and travel distance detection method |
US10397544B2 (en) | 2010-08-19 | 2019-08-27 | Nissan Motor Co., Ltd. | Three-dimensional object detection device and three-dimensional object detection method |
JP2012227913A (en) * | 2011-04-14 | 2012-11-15 | Harman Becker Automotive Systems Gmbh | Vehicle surround view system |
JP2014531799A (en) * | 2011-09-06 | 2014-11-27 | ジャガー ランド ローバー リミテッドJaguar Land Rover Limited | Terrain visualization for vehicles and vehicle drivers |
US10063836B2 (en) | 2011-09-06 | 2018-08-28 | Jaguar Land Rover Limited | Terrain visualization for a vehicle and vehicle driver |
EP3258686A4 (en) * | 2015-02-10 | 2018-10-10 | Clarion Co., Ltd. | Entry possibility determining device for vehicle |
US10339396B2 (en) | 2015-02-10 | 2019-07-02 | Clarion Co., Ltd. | Vehicle accessibility determination device |
DE102018124033B4 (en) | 2017-09-29 | 2023-08-10 | Toyota Jidosha Kabushiki Kaisha | Ground contact determination device for a three-dimensional object |
WO2019069469A1 (en) * | 2017-10-06 | 2019-04-11 | 日本電気株式会社 | Object detection device, object detection method, and computer readable recording medium |
JPWO2019069469A1 (en) * | 2017-10-06 | 2020-10-22 | 日本電気株式会社 | Object detection device, object detection method, and program |
US11417080B2 (en) | 2017-10-06 | 2022-08-16 | Nec Corporation | Object detection apparatus, object detection method, and computer-readable recording medium |
JP7392754B2 (en) | 2022-03-23 | 2023-12-06 | いすゞ自動車株式会社 | Vehicle rear monitoring system and vehicle rear monitoring method |
JP7392753B2 (en) | 2022-03-23 | 2023-12-06 | いすゞ自動車株式会社 | Vehicle rear monitoring system and vehicle rear monitoring method |
Also Published As
Publication number | Publication date |
---|---|
JP5003395B2 (en) | 2012-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
JP5615441B2 (en) | Image processing apparatus and image processing method | |
JP5444338B2 (en) | Vehicle perimeter monitoring device | |
JP5057936B2 (en) | Bird's-eye image generation apparatus and method | |
JP4816923B2 (en) | Vehicle peripheral image providing apparatus and method | |
JP2009118416A (en) | Vehicle-periphery image generating apparatus and method of correcting distortion of vehicle-periphery image | |
JP2010109452A (en) | Vehicle surrounding monitoring device and vehicle surrounding monitoring method | |
US20150116494A1 (en) | Overhead view image display device | |
CN107950023B (en) | Vehicle display device and vehicle display method | |
JP5163165B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
JP6167824B2 (en) | Parking assistance device | |
JP2008048094A (en) | Video display device for vehicle, and display method of video images in vicinity of the vehicle | |
US10417743B2 (en) | Image processing device, image processing method and computer readable medium | |
JP2013141120A (en) | Image display device | |
JP2006254318A (en) | Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method | |
JP2011024079A (en) | Peripheral display device | |
JP5067136B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
EP4156125A1 (en) | Image processing system, mobile object, image processing method, and storage medium | |
EP4156127A1 (en) | Image processing system, mobile object, image processing method, and storage medium | |
JP2013115738A (en) | Vehicle periphery imaging apparatus and method of processing vehicle peripheral image | |
JP2009077022A (en) | Driving support system and vehicle | |
JP2008294616A (en) | Driving support system and vehicle | |
JP5395373B2 (en) | Perimeter monitoring device | |
JP4736611B2 (en) | Image processing apparatus and image processing method | |
JP2017117357A (en) | Three-dimensional object detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120424 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120507 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150601 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5003395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |