JP2014038401A - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP2014038401A JP2014038401A JP2012179217A JP2012179217A JP2014038401A JP 2014038401 A JP2014038401 A JP 2014038401A JP 2012179217 A JP2012179217 A JP 2012179217A JP 2012179217 A JP2012179217 A JP 2012179217A JP 2014038401 A JP2014038401 A JP 2014038401A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- captured image
- monitoring device
- periphery monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 31
- 239000011159 matrix material Substances 0.000 claims abstract description 82
- 238000003384 imaging method Methods 0.000 claims abstract description 59
- 230000008859 change Effects 0.000 claims abstract description 47
- 238000013519 translation Methods 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims description 45
- 230000009466 transformation Effects 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000012544 monitoring process Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 6
- 238000000034 method Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 18
- 238000000605 extraction Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、車両の走行中、該車両に搭載された撮像部を用いて異なる時点で撮像することで得た複数の撮像画像に基づいて、前記車両の周辺に存在する対象物を検知する車両周辺監視装置に関する。 The present invention is a vehicle that detects an object existing around a vehicle based on a plurality of captured images obtained by capturing images at different times using an imaging unit mounted on the vehicle while the vehicle is traveling. The present invention relates to a peripheral monitoring device.
従来から、車両の走行支援等を目的として、車両外に存在する物体を検知し、あるいは物体と自車両との相対的な位置関係等を監視する技術が知られている。特に、車両の前方に搭載された車載カメラ(撮像部)を用いて撮像し、得られた撮像画像を基に物体を検知等する方法が種々提案されている。 2. Description of the Related Art Conventionally, a technique for detecting an object existing outside a vehicle or monitoring a relative positional relationship between the object and the host vehicle is known for the purpose of driving support of the vehicle. In particular, various methods have been proposed for imaging using an in-vehicle camera (imaging unit) mounted in front of a vehicle and detecting an object based on the obtained captured image.
この車載カメラは、車両のいずれかの部位に固定・設置されている。従って、例えば、車両のピッチ角(車幅方向の軸であるピッチ軸周りの車両の傾斜角)の変動に伴い、車載カメラの撮像画像内での物体の位置が変動する。そして、この変動は、車両の外部に存在する物体と自車両との相対的な位置関係等を把握する場合の誤差要因となる。 This in-vehicle camera is fixed and installed in any part of the vehicle. Therefore, for example, the position of the object in the captured image of the in-vehicle camera varies with the variation of the vehicle pitch angle (the vehicle inclination angle around the pitch axis that is the axis in the vehicle width direction). And this fluctuation | variation becomes an error factor in grasping | ascertaining the relative positional relationship of the object which exists outside the vehicle, and the own vehicle.
これに対し、車両のピッチ角の推定値に応じて、撮像画像から認識される物体の位置を補正することで、この位置の検出精度を向上できる。例えば、特許文献1に、車両のピッチ角を推定する手法が提案されている。
On the other hand, the position detection accuracy can be improved by correcting the position of the object recognized from the captured image in accordance with the estimated value of the pitch angle of the vehicle. For example,
本発明は上記特許文献1に開示された技術的思想に関連してなされたものであり、車両の姿勢が突発的に変動した場合であっても、車両の周辺で移動する対象物の存在を正確に検知可能な車両周辺監視装置を提供することを目的とする。
The present invention has been made in connection with the technical idea disclosed in the above-mentioned
本発明に係る車両周辺監視装置は、車両に搭載され、該車両の走行中に異なる時点で撮像することで複数の撮像画像を取得する撮像部と、第1撮像時点にて第1撮像画像が撮像された際の前記撮像部の位置・姿勢を基準とした、第2撮像時点にて第2撮像画像が撮像された際の前記撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、前記変化量算出部により算出された前記並進ベクトル及び前記回転行列に基づいて、前記第1撮像画像が示す第1撮像面から前記第2撮像画像が示す第2撮像面への射影変換を表す平面射影行列を算出する変換行列算出部と、前記変換行列算出部により算出された前記平面射影行列に基づいて、前記第1撮像画像と前記第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段とを備えることを特徴とする。 The vehicle periphery monitoring apparatus according to the present invention is mounted on a vehicle, and an imaging unit that acquires a plurality of captured images by capturing images at different times during traveling of the vehicle, and a first captured image at the first imaging time point. A translation vector and a rotation matrix that represent the amount of change in the position / orientation of the imaging unit when the second captured image is captured at the second imaging time point with reference to the position / orientation of the imaging unit at the time of imaging. Based on the translation vector and the rotation matrix calculated by the change amount calculation unit, and a second amount indicated by the second picked-up image from the first image pickup surface indicated by the first picked-up image. Based on the plane projection matrix calculated by the conversion matrix calculation unit, a conversion matrix calculation unit that calculates a plane projection matrix that represents the projection conversion to the imaging surface, the first captured image and the second captured image Cancels out the motion component of the vehicle between Characterized in that it comprises a vehicle motion component canceling means.
このように、撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、前記並進ベクトル及び前記回転行列から算出された平面射影行列に基づいて、第1撮像画像と第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段とを設けたので、車両の姿勢の変動に起因して生じる、撮像部の位置・姿勢の変化量に等しい車両の運動成分を相殺できる。これにより、車両の姿勢が突発的に変動した場合であっても、車両の周辺で移動する対象物の存在を正確に検知できる。 As described above, based on the change amount calculation unit for calculating the translation vector and the rotation matrix representing the change amount of the position and orientation of the image pickup unit, and the plane projection matrix calculated from the translation vector and the rotation matrix, the first image pickup Since the vehicle motion component canceling means for canceling the motion component of the vehicle between the image and the second captured image is provided, the amount of change in the position and orientation of the imaging unit caused by the change in the posture of the vehicle Equal vehicle motion components can be offset. Thereby, even if the posture of the vehicle suddenly changes, the presence of an object moving around the vehicle can be accurately detected.
また、前記変換行列算出部は、前記第1撮像画像の中に含まれる道路領域から前記第2撮像画像の中に含まれる道路領域への射影変換を表す前記平面射影行列を算出することが好ましい。これにより、道路領域上に存在する物体の検知・認識精度(運動成分の相殺効果)を高めることができる。道路領域上に存在する物体ほど車両との衝突の危険度が高いため特に好ましい。逆に、道路領域から離れた位置に存在する物体については、対象物として正しく検知できなくなるため、煩わしい過警報等を抑制することができる。 Moreover, it is preferable that the said conversion matrix calculation part calculates the said plane projection matrix showing the projective transformation from the road area | region included in the said 1st captured image to the road area | region included in the said 2nd captured image. . Thereby, the detection / recognition accuracy of the object existing on the road area (motion component canceling effect) can be enhanced. An object present on the road area is particularly preferable because it has a higher risk of collision with the vehicle. On the other hand, since an object existing at a position away from the road area cannot be correctly detected as a target object, a troublesome over-alarm or the like can be suppressed.
さらに、前記車両運動成分相殺手段は、前記車両の運動成分を相殺した画像を作成する画像作成部であることが好ましい。 Furthermore, it is preferable that the vehicle motion component canceling unit is an image creating unit that creates an image in which the motion component of the vehicle is canceled.
さらに、前記画像作成部により作成された少なくとも1つの前記画像に基づいて、前記車両の周辺で移動する対象物を検知する移動対象物検知部をさらに備えることが好ましい。 Furthermore, it is preferable to further include a moving object detection unit that detects an object moving around the vehicle based on at least one of the images generated by the image generation unit.
さらに、前記移動対象物検知部は、前記第1撮像時点及び前記第2撮像時点のうち少なくとも一方が異なる複数の前記画像に基づいて前記対象物を検知することが好ましい。 Furthermore, it is preferable that the moving object detection unit detects the object based on a plurality of the images in which at least one of the first imaging time point and the second imaging time point is different.
さらに、前記画像作成部は、前記画像として差分画像を作成することが好ましい。このように、画像差分法を適用することで、他の画像処理手法と比べて演算処理量を大幅に低減できる。 Furthermore, it is preferable that the image creation unit creates a difference image as the image. In this way, by applying the image difference method, the amount of calculation processing can be significantly reduced as compared with other image processing methods.
さらに、前記画像作成部は、前記対象物を含む第1関心領域を前記第1撮像画像の中から抽出し、前記対象物を含む第2関心領域を前記第2撮像画像の中から抽出した後、前記第1関心領域と前記第2関心領域との間の前記画像を作成することが好ましい。 Further, the image creation unit extracts a first region of interest including the object from the first captured image, and extracts a second region of interest including the object from the second captured image. Preferably, the image between the first region of interest and the second region of interest is created.
さらに、前記画像作成部は、前記第1関心領域の位置を特定する第1基準位置に対して前記平面射影行列に基づく正射影変換を施した位置を、前記第2関心領域の位置を特定する第2基準位置として前記画像を作成することが好ましい。 Furthermore, the image creation unit identifies the position of the second region of interest as a position obtained by performing orthographic transformation based on the planar projection matrix with respect to the first reference position that identifies the position of the first region of interest. It is preferable to create the image as the second reference position.
また、前記画像作成部は、前記第2関心領域の位置を特定する第2基準位置に対して前記平面射影行列に基づく逆射影変換を施した位置を、前記第1関心領域の位置を特定する第1基準位置として前記画像を作成することが好ましい。 In addition, the image creation unit identifies the position of the first region of interest as a position obtained by performing reverse projection transformation based on the planar projection matrix with respect to the second reference position that identifies the position of the second region of interest. It is preferable to create the image as the first reference position.
さらに、前記画像作成部は、前記第1撮像画像に対して前記平面射影行列に基づく正射影変換を施した撮像画像と前記第2撮像画像との間の前記画像、及び、前記第2撮像画像に前記平面射影行列に基づく逆射影変換を施した撮像画像と前記第1撮像画像との間の前記画像のうちいずれか一方を作成することが好ましい。これにより、撮像部の位置・姿勢の変化に伴う、撮像画像上での対象物の形態の変化をも考慮に入れて画像を作成することができる。 Furthermore, the image creation unit includes the image between the captured image obtained by performing orthographic transformation based on the planar projection matrix with respect to the first captured image and the second captured image, and the second captured image. Preferably, any one of the images between the captured image that has been subjected to reverse projection transformation based on the planar projection matrix and the first captured image is created. Thereby, it is possible to create an image taking into account the change in the form of the object on the captured image accompanying the change in the position and orientation of the imaging unit.
本発明に係る車両周辺監視装置によれば、撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、前記並進ベクトル及び前記回転行列から算出された平面射影行列に基づいて、第1撮像画像と第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段とを設けたので、車両の姿勢の変動に起因して生じる、撮像部の位置・姿勢の変化量に等しい車両の運動成分を相殺できる。これにより、車両の姿勢が突発的に変動した場合であっても、車両の周辺で移動する対象物の存在を正確に検知できる。 According to the vehicle periphery monitoring apparatus according to the present invention, a change amount calculation unit that calculates a translation vector and a rotation matrix that represents a change amount of the position and orientation of the imaging unit, and a planar projection calculated from the translation vector and the rotation matrix Since the vehicle motion component canceling unit that cancels the motion component of the vehicle between the first captured image and the second captured image is provided based on the matrix, the imaging unit is caused due to a change in the posture of the vehicle. The motion component of the vehicle equal to the amount of change in the position / posture can be offset. Thereby, even if the posture of the vehicle suddenly changes, the presence of an object moving around the vehicle can be accurately detected.
以下、本発明に係る車両周辺監視装置について好適な実施形態を挙げ、添付の図面を参照しながら説明する。 Hereinafter, preferred embodiments of a vehicle periphery monitoring device according to the present invention will be described with reference to the accompanying drawings.
図1は、本実施の形態に係る車両周辺監視装置10の構成を示すブロック図である。図2は、図1に示す車両周辺監視装置10が搭載された車両12の概略斜視図である。
FIG. 1 is a block diagram showing a configuration of a vehicle
図1及び図2に示すように、車両周辺監視装置10は、複数のカラーチャンネルからなるカラー画像(以下、撮像画像という。)を撮像するカラーカメラ(以下、単に「カメラ14」という。)と、車両12の車速Vsを検出する車速センサ16と、車両12のヨーレートYrを検出するヨーレートセンサ18と、運転者によるブレーキペダルの操作量Brを検出するブレーキセンサ20と、この車両周辺監視装置10を制御する電子制御装置(以下、「ECU22」という。)と、音声で警報等を発するためのスピーカ24と、カメラ14から出力された撮像画像等を表示する表示装置26とを備える。
As shown in FIGS. 1 and 2, the vehicle
カメラ14は、主に可視光領域の波長を有する光を利用するカメラであり、車両12の周辺を撮像する撮像手段として機能する。カメラ14は、被写体の表面を反射する光量が多いほど、その出力信号レベルが高くなり、画像の輝度(例えば、RGB値)が増加する特性を有する。図2に示すように、カメラ14は、車両12の前部バンパー部の略中心部に固定的に配置(搭載)されている。
The
なお、車両12の周囲を撮像する撮像手段は、上記した構成例(いわゆる単眼カメラ)に限られることなく、例えば複眼カメラ(ステレオカメラ)であってもよい。また、カラーカメラに代替して赤外線カメラを用いてもよく、或いは両方を併せ備えてもよい。さらに、単眼カメラの場合、別の測距手段(レーダ装置)を併せて備えてもよい。
The imaging means for imaging the periphery of the
図1に戻って、スピーカ24は、ECU22からの指令に応じて、警報音等の出力を行う。スピーカ24は、車両12の図示しないダッシュボードに設けられる。あるいは、スピーカ24に代替して、他の装置(例えば、オーディオ装置又はナビゲーション装置)が備える音声出力機能を用いてもよい。
Returning to FIG. 1, the
表示装置26(図1及び図2参照)は、車両12のフロントウインドシールド上、運転者の前方視界を妨げない位置に配されたHUD(ヘッドアップディスプレイ)である。表示装置26として、HUDに限らず、車両12に搭載されたナビゲーションシステムの地図等を表示するディスプレイや、メータユニット内等に設けられた燃費等を表示するディスプレイ(MID;マルチインフォメーションディスプレイ)を利用することができる。
The display device 26 (see FIGS. 1 and 2) is a HUD (head-up display) disposed on the front windshield of the
ECU22は、入出力部28、演算部30、表示制御部32、及び記憶部34を基本的に備える。
The
カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号は、入出力部28を介してECU22側に入力される。また、ECU22からの各信号は、入出力部28を介してスピーカ24及び表示装置26側に出力される。入出力部28は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
Signals from the
演算部30は、カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号に基づく演算を実行し、演算結果に基づきスピーカ24及び表示装置26に対する信号を生成する。演算部30は、対象物抽出部40、平面パラメータ推定部42、変化量算出部44、変換行列算出部46、差分画像作成部48(車両運動成分相殺手段、画像作成部)、移動対象物検知部50及び動き検出部52として機能する。各部の機能は、記憶部34に記憶されているプログラムを読み出して実行することにより実現される。或いは、前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。
The
表示制御部32は、表示装置26を駆動制御する制御回路である。表示制御部32が、入出力部28を介して、表示制御に供される信号を表示装置26に出力することで、表示装置26が駆動する。これにより、表示装置26は各種画像(撮像画像、マーク等)を表示することができる。
The
記憶部34は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。
The
本実施の形態に係る車両周辺監視装置10は、基本的には、以上のように構成される。この車両周辺監視装置10の動作の概要について以下説明する。
The vehicle
ECU22は、所定のフレームクロック間隔・周期(例えば、1秒あたり30フレーム)毎に、カメラ14から出力されるアナログの映像信号をデジタル信号に変換し、記憶部34に一時的に取り込む。そして、ECU22は、記憶部34から読み出した撮像画像(車両12の前方画像)に対して各種演算処理を施す。
The
ECU22(特に演算部30)は、撮像画像に対する処理結果、必要に応じて車両12の走行状態を示す各信号(車速Vs、ヨーレートYr及び操作量Br)を総合的に考慮し、車両12の前方に存在する歩行者、動物等を、監視対象となる物体(以下、「監視対象物」あるいは単に「対象物」という。)として検出する。
The ECU 22 (especially the calculation unit 30) comprehensively considers the processing result for the captured image and each signal (vehicle speed Vs, yaw rate Yr, and operation amount Br) indicating the traveling state of the
車両12が監視対象物に接触する可能性が高いと演算部30により判断された場合、ECU22は、運転者の注意を喚起するために車両周辺監視装置10の各出力部を制御する。ECU22は、例えば、スピーカ24を介して警報音(例えば、ピッ、ピッ、…と鳴る音)を出力させるともに、表示装置26上に可視化された撮像画像のうちその監視対象物の部位を強調表示させる。
When the
続いて、車両周辺監視装置10の詳細な動作について、図3のフローチャートを参照しながら説明する。なお、本処理の流れは、車両12が走行中である場合、撮像のフレーム毎に実行される。
Next, the detailed operation of the vehicle
ステップS1において、ECU22は、フレーム毎に、カメラ14により撮像された車両12の前方(所定画角範囲)の出力信号である撮像画像を取得する。
In step S1, the
図4Aに示すように、第1撮像時点T1において、第1フレームの撮像画像(以下、第1撮像画像Iaという。)が得られたとする。そして、ECU22は、取得した第1撮像画像Iaを記憶部34に一時的に記憶させる。例えば、カメラ14としてRGBカメラを用いる場合、得られた撮像画像は、3つのカラーチャンネルからなる多階調画像である。
As shown in FIG. 4A, it is assumed that a captured image of the first frame (hereinafter referred to as a first captured image Ia) is obtained at the first imaging time point T1. Then, the
ステップS2において、演算部30は、2つ以上の撮像画像を既に取得したか否かを判別する。取得されたと判別された場合(ステップS2:YES)、後述するステップS5に進む。一方、取得されていないと判別された場合(ステップS2:NO)、次のステップ(S3)に進む。
In step S2, the
ステップS3において、対象物抽出部40は、ステップS1で取得された第1撮像画像Iaの中から対象物を抽出する。この抽出の際、静止画像に適用可能な公知の画像認識手法(パターンマッチング等を含む。)を種々用いてもよい。また、対象物抽出部40は、上記した処理と併せて、それぞれ抽出された各対象物の存在を特定するための位置(以下、基準位置という。)を決定しておき、記憶部34に一時的に記憶させておく。
In step S3, the
図4A例では、第1撮像画像Iaにおいて、車両12が走行する道路領域(以下、単に「道路60a」)、道路60aに沿って略等間隔に設置された複数の電柱領域(以下、単に「電柱62a」)、道路60a上に存在する歩行者領域(以下、単に「歩行者64a」)がそれぞれ存在する。例えば、対象物抽出部40は、道路60a及び歩行者64aをそれぞれ抽出したとする。
In the example of FIG. 4A, in the first captured image Ia, a road area (hereinafter simply referred to as “
ステップS4において、ECU22は、フレーム間隔時間だけ待機した後、第2撮像時点T2において次の撮像動作(ステップS1)に移行する。
In step S4, after waiting for the frame interval time, the
図4Bに示すように、第2フレームの撮像画像(以下、第2撮像画像Ibという。)が得られたとする。第2撮像画像Ibにおいて、第1撮像画像Iaの場合と同様に、道路領域(以下、道路60b)、複数の電柱領域(以下、電柱62b)、及び歩行者領域(以下、歩行者64b)がそれぞれ存在する。ところが、フレーム間隔時間が経過するにつれて、カメラ14及び各対象物の間の相対的位置関係が時々刻々と変化する。これにより、第1撮像画像Ia及び第2撮像画像Ibが同一の画角範囲であっても、各対象物は、それぞれ異なる形態(形状、大きさ又は色彩)で画像化される。
As shown in FIG. 4B, it is assumed that a captured image of the second frame (hereinafter referred to as a second captured image Ib) is obtained. In the second captured image Ib, as in the case of the first captured image Ia, a road area (hereinafter,
再度のステップS2において、演算部30は、2つ以上の撮像画像が取得されたと判別し(ステップS2:YES)、次のステップ(S5)に進む。
In step S2 again, the
ステップS5において、平面パラメータ推定部42は、ステップS3で検知された道路60a(実在の路面)を表現する平面パラメータを推定する。ここで、平面パラメータの推定には、公知の画像処理手法を種々用いることができる。
In step S5, the plane
図5Aに示すように、平面パラメータとしての法線ベクトル↑n、及び距離dによって、カメラ14及び実在の路面(以下、単に路面Sという。)の間の幾何学的位置関係が特定される。ここで、法線ベクトル↑nは、路面Sの法線方向に沿った単位ベクトルである。また、距離dは、第1撮像画像Iaが撮像されたときのカメラ14の光学中心C及び路面Sの間の距離である。
As shown in FIG. 5A, the geometric positional relationship between the
ところで、路面Sは、通常、車両12の車幅方向と略平行であるので、カメラ14による撮像画像の横方向(カメラ座標系のX軸方向)に略平行である。このため、第1カメラ座標系上における法線ベクトル↑nは、カメラ14の光軸Lcに対する路面Sの傾き角度θを用いて、↑n=[0,cosθ,sinθ]Tと表記される。
By the way, the road surface S is generally substantially parallel to the vehicle width direction of the
ステップS6において、変化量算出部44は、カメラ14の位置・姿勢の変化量を算出する。具体的には、変化量算出部44は、第1撮像画像Iaが撮像されたときのカメラ14の位置・姿勢を基準とした、第2撮像画像Ibが撮像されたときのカメラ14の位置・姿勢の変化量をそれぞれ算出する。ここで、変化量算出部44は、早い撮像時点(T1)を基準とした、遅い撮像時点(T2)での変化量を算出しているが、その逆であってもよい。すなわち、変化量算出部44は、遅い撮像時点(T2)を基準とした、早い撮像時点(T1)での変化量を算出してもよい。
In step S <b> 6, the change
変化量算出部44は、SfM(Structure from Motion)等による公知の手法を用いて、第1撮像画像Ia及び第2撮像画像Ibから、カメラ14の空間的な位置の変化量(具体的には、並進ベクトル↑t)を算出する。図5Bに示すように、並進ベクトル↑tは、第1撮像時点T1でのカメラ14の基準点を始点とし、第2撮像時点T2でのカメラ14の基準点を終点とするベクトルである。基準点は、カメラ14に対して固定された点であり、例えばカメラ14の光学中心Cに相当する。
The change
また、変化量算出部44は、第1撮像画像Ia及び第2撮像画像Ibから、カメラ14の空間的な姿勢の変化量(具体的には、回転行列R)を算出する。図5Bに示すように、回転行列Rは、第1撮像時点T1でのカメラ座標系の原点を、第2撮像時点T2でのカメラ座標系の原点に一致させた場合、両方のカメラ座標系の間の座標変換(3軸周りの回転変換)を表現する行列である。なお、カメラ座標系は、カメラ14に対して固定された座標系、本図例のように、基準点(光学中心C)を原点としてカメラ14に対して固定された座標系(3軸座標系)である。本実施の形態では、このカメラ座標系は、カメラ14の光軸方向をZ軸方向、カメラ14の横方向(車幅方向)をX軸方向、カメラ14の縦方向(Z軸方向及びX軸方向に直交する方向)をY軸方向とする3軸座標系である。
Further, the change
並進ベクトル↑t及び回転行列Rを算出する際、具体的には、第1撮像画像Ia及び第2撮像画像Ibの間のオプティカルフロー推定をSfMに適用した手法(例えば、「Structure from Motion without Correspondence」/Frank Dellaert, Steven M.Seitz, Charles E.Thorpe, Sebastian Thrun/Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213 を参照)等を用いてもよい。また、並進ベクトル↑t及び回転行列Rを算出するために、3つ以上の撮像画像を使用してもよい。 When calculating the translation vector ↑ t and the rotation matrix R, specifically, a technique (for example, “Structure from Motion without Correspondence” in which optical flow estimation between the first captured image Ia and the second captured image Ib is applied to SfM. / Frank Dellaert, Steven M. Seitz, Charles E. Thorpe, Sebastian Thrun / see Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213). Further, in order to calculate the translation vector ↑ t and the rotation matrix R, three or more captured images may be used.
ステップS7において、変換行列算出部46は、ステップS5で推定された平面パラメータ、並びに、ステップS6でそれぞれ算出された並進ベクトル↑t及び回転行列Rを用いて、平面射影行列H(ホモグラフィ行列)を算出する。ここで、平面射影行列Hは、第1撮像面(図5B参照)から第2撮像面(同図参照)への平面射影変換を表す2次元行列である。
In step S7, the transformation
変換行列算出部46は、公知の手法・任意の拘束条件の組み合わせで平面射影行列Hを算出してもよい。本実施の形態において、平面射影行列Hは、第1撮像画像Iaの中に含まれる道路60aから、第2撮像画像Ibの中に含まれる道路60bへの射影変換を表す行列に相当する。
The transformation
この場合、第1撮像画像Ia内の投影点P1の位置ベクトル↑P1と、第2撮像画像Ib内の投影点P2の位置ベクトル↑P2との間の関係は、平面射影変換によって対応付けられる。具体的に、この平面射影変換を施すための平面射影行列Hは、上記した並進ベクトル↑t、回転行列R、路面Sの平面パラメータ(↑n、d)を用いて、次の(1)式により与えられる。
H=RT−RT・↑t・(↑n/d) T …(1)
In this case, the relationship between the position vector ↑ P1 of the projection point P1 in the first captured image Ia and the position vector ↑ P2 of the projection point P2 in the second captured image Ib is associated by plane projective transformation. Specifically, the plane projection matrix H for performing the plane projection transformation is expressed by the following equation (1) using the above-described translation vector ↑ t, rotation matrix R, and plane parameters (↑ n, d) of the road surface S. Given by.
H = R T −R T · ↑ t · (↑ n / d) T (1)
そして、位置ベクトル↑P2は、位置ベクトル↑P1及び平面射影行列Hを用いて、以下の(2)式で与えられる。なお、kは、正の比例定数である。
↑P2=k・H・↑P1 …(2)
The position vector ↑ P2 is given by the following expression (2) using the position vector ↑ P1 and the planar projection matrix H. Note that k is a positive proportionality constant.
↑ P2 = k ・ H ・ ↑ P1 (2)
従って、(2)式に(1)式の平面射影行列Hを代入することで、位置ベクトル↑P2は次の(3)式で表される。
↑P2=k・(RT−RT・↑t・(↑n/d) T)・↑P1 …(3)
Accordingly, the position vector ↑ P2 is expressed by the following equation (3) by substituting the planar projection matrix H of the equation (1) into the equation (2).
↑ P2 = k · (R T −R T · ↑ t · (↑ n / d) T ) · ↑ P1 (3)
ステップS8において、差分画像作成部48は、ステップS7で算出された平面射影行列Hを用いて、第1撮像画像Ia及び第2撮像画像Ibの間の差分画像Dを作成する。差分画像Dの作成に先立ち、差分画像作成部48は、第1撮像画像Iaの中から、人体M(図5B参照)に対応する歩行者64aを含む画像領域(以下、第1関心領域という。)を設定する。また、差分画像作成部48は、第2撮像画像Ibの中から、人体M(図5B参照)に対応する歩行者64bを含む画像領域(以下、第2関心領域という。)を設定する。
In step S8, the difference
図6Aは、第1撮像画像Iaにおける歩行者64aの抽出例を示す概略説明図である。上述したステップS3において、対象物抽出部40は、道路60a及び歩行者64aの接触位置(すなわち、道路60aと歩行者64aとの接触点)を、第1基準位置70として決定したとする。例えば、差分画像作成部48は、第1基準位置70を目印として、予め定めた規則に従って矩形状の第1関心領域72を設定したとする。そうすると、本図に示すように、第1撮像画像Iaにおいて、破線で図示する歩行者64aをすべて含むように第1関心領域72が設定されている。
FIG. 6A is a schematic explanatory diagram illustrating an extraction example of the
ところが、図6Bに示すように、第2撮像画像Ibに対して図6Aと同一位置及び同一サイズの関心領域(第1関心領域72)を設定した場合、歩行者64bの両足の先端部を抽出できなくなる。これは、車両12の姿勢が突発的に変動(例えば、ピッチング)することで、歩行者64a、64bの間の予期しない変位に追従できないからである。この結果、得られた差分画像Dに基づいて、歩行者64a、64bの存在又は状態を正確に把握できない場合がある。
However, as shown in FIG. 6B, when a region of interest (first region of interest 72) having the same position and size as in FIG. 6A is set for the second captured image Ib, the tip portions of both feet of the
そこで、本実施の形態では、既に算出された平面射影行例Hを用いて、カメラ14の位置・姿勢の変化量を相殺した差分画像Dを作成する。ここで、差分画像作成部48は、平面射影行例Hを用いて、第1撮像画像Iaにおける各対象物(具体的には、歩行者64a)の第1基準位置70を、第2撮像画像Ibにおける各対象物(具体的には、歩行者64b)の第2基準位置74に変換する。
Therefore, in the present embodiment, the difference image D in which the amount of change in the position / orientation of the
差分画像作成部48は、上記した(3)式に従って、第1撮像画像Iaに応じた第1基準位置70を、第2撮像画像Ibに応じた第2基準位置74に変換する。そして、差分画像作成部48は、第2基準位置74を目印として、位置変化による見え方の変化や対象の移動成分等を考慮した上で、図6Aと同様の規則に従って矩形状の第2関心領域76を設定する。
The difference
その結果、図7Bに示すように、第2撮像画像Ibにおいて、歩行者64bをすべて含むように第2関心領域76が設定することが可能になる。これにより、車両12の姿勢が突発的に変動した場合であっても、得られた差分画像Dからの歩行者64a(64b)の検知精度が向上する。
As a result, as shown in FIG. 7B, the second region of
なお、第1撮像画像Iaに応じた第1基準位置70を、第2撮像画像Ibに応じた第2基準位置74に変換するのみならず、その逆変換、すなわち逆射影変換を施してもよい。この場合、第2撮像画像Ib内の第2基準位置74が既知であることを前提とする。第2撮像画像Ib内の投影点P2の位置ベクトル↑P2と、第1撮像画像Ia内の投影点P1の位置ベクトル↑P1との間の関係は、(2)式を変形することで、次の(4)式で与えられる。
↑P1=(1/k)・H−1・↑P2 …(4)
Note that the
↑ P1 = (1 / k) · H −1 · ↑ P2 (4)
従って、(4)式に(1)式の平面射影行列Hを代入することで、位置ベクトル↑P1は次の(5)式で表される。ここで、「−1」の添字は、逆行列を表している。
↑P1=(1/k)・(RT−RT・↑t・(↑n/d) T)−1・↑P2 …(5)
Accordingly, the position vector ↑ P1 is expressed by the following equation (5) by substituting the planar projection matrix H of the equation (1) into the equation (4). Here, the subscript “−1” represents an inverse matrix.
↑ P1 = (1 / k) · (R T −R T · ↑ t · (↑ n / d) T ) −1 · ↑ P2 (5)
また、差分画像作成部48は、第1撮像画像Ia及び第2撮像画像Ibのうちいずれか一方の撮像画像(全部又は一部)を、平面射影行列Hに従ってマッピング(第1撮像画像Iaの場合は正射影変換、第2撮像画像Ibの場合は逆射影変換)した上で、画像の差分処理を施してもよい。これにより、カメラ14の位置・姿勢の変化に伴う、画像上での対象物(歩行者64a、64b)の形態の変化をも考慮に入れて差分画像Dを作成することができる。
Further, the difference
そして、差分画像作成部48は、差分処理に供される第1関心領域72、第2関心領域76のそれぞれの大きさを正規化する。これにより、第1関心領域72に応じた第1正規化画像、及び、第2関心領域76に応じた第2正規化画像がそれぞれ作成される。
Then, the difference
図9に示すように、第1正規化画像80aが示す歩行者64aの高さは、第2正規化画像80bが示す歩行者64bの高さに略一致する。同じサイズである第1正規化画像80a及び第2正規化画像80bに対して差分演算を施すことで、両者の差異領域が画像化された差分画像Dが得られる。なお、差異領域の検出精度を向上させるため、差分演算の前に、第1正規化画像80a及び第2正規化画像80bの相対的な位置関係を調整することが好ましい。本図例では、差異領域として、歩行者64bの両手84及び両足86がそれぞれ抽出される。
As shown in FIG. 9, the height of the
このように、差分画像作成部48は、平面射影行列Hに基づいて、第1撮像画像Iaと第2撮像画像Ibとの間の、カメラ14の位置・姿勢(すなわち、車両12の運動成分)を相殺する車両運動成分相殺手段の一形態である。相殺演算が施される対象は撮像画像に限られることなく、撮像画像の中から抽出されるオブジェクト、特徴量等であってもよい。
As described above, the difference
ステップS9において、移動対象物検知部50は、ステップS8で作成された少なくとも1つの差分画像Dに基づいて、車両12の周辺で移動する対象物をそれぞれ検知する。ここで、複数(2以上)の差分画像Dを用いる場合、第1撮像時点T1及び第2撮像時点T2のうち少なくとも一方が異なっている必要がある。例えば、移動対象物検知部50は、図9の差分画像D内の抽出成分(両手84及び両足86)の特徴から、路面S上の所定位置に人体Mが存在することを検知する。
In step S9, the moving
ステップS10において、動き検出部52は、ステップS9で検知された各対象物の動きを検出する。例えば、動き検出部52は、車両12と人体Mとの間の距離及び各フレーム間での歩行者64a、64bの変位量から、人体Mの移動量及び移動方向を推定してもよい。また、動き検出部52は、図9の差分画像D内の抽出成分(両手84及び両足86)の特徴から、人体Mが歩行中であることを検出してもよい。
In step S10, the
ステップS11において、対象物抽出部40は、抽出対象(監視対象)としての各対象物を更新する。例えば、対象物抽出部40は、カメラ14の撮像領域内に新たに進入した対象物を追加するとともに、前記撮像領域の外に進出した対象物を除外する。また、第1正規化画像80a、第2正規化画像80b間の一致性が所定の閾値よりも低いと判断された場合、その対象物を監視下から除外してもよい。
In step S11, the target
ステップS12において、対象物抽出部40は、ステップS10で更新された各対象物の基準位置を更新する。図8A及び図8Bに示す歩行者64a(人体M)の例では、対象物抽出部40は、人体Mに応じた基準位置を、第1基準位置70から第2基準位置74に更新・設定する。
In step S12, the
ステップS13において、ECU22は、次回の演算処理に必要なデータを記憶部34に記憶させる。例えば、ステップS8で作成された差分画像Dや、ステップS11で更新された抽出対象の属性、ステップS12で更新された基準位置等が挙げられる。
In step S13, the
このように、ECU22は、撮像のフレーム毎に、ステップS1〜S13に従って動作する。上記では、第1フレーム及び第2フレームの関係下での差分処理について説明したが、第nフレーム(nは自然数)に拡張した場合の動作について、図10を参照しながら説明する。ここでは、第nフレーム目の撮像画像をI(n)と表記する。
In this way, the
図10に示すように、第(n+1)フレームにおいて、現時点での撮像画像I(n+1)を取得した後、変換行列算出部46は、直近の撮像画像I(n)から現時点での撮像画像I(n+1)にマッピングする平面射影行列H(n)を作成する。そして、差分画像作成部48は、撮像画像I(n)に対して平面射影行列H(n)に基づく正射影変換を施した撮像画像と、撮像画像I(n+1)との間の差分画像D(n+1)を作成する。ところで、その1つ前のフレームである第nフレームにおいて、上記と同様にして、差分画像作成部48は、差分画像D(n)を既に作成している。
As illustrated in FIG. 10, after obtaining the current captured image I (n + 1) in the (n + 1) th frame, the transformation
その後、移動対象物検知部50は、2つの差分画像D(n+1)、D(n)に対して所定の演算、例えばAND演算を行うことで、動き検出画像Im(n)を作成する。動き検出画像Im(n)を参照することで、3つのフレーム間{第(n−1)、第n、及び第(n+1)フレーム}で移動している対象物の存在を検出することができる。あわせて、動き検出部52は、差分画像D(n)、動き検出画像Im(n)を作成する過程で得られた画像情報や位置情報に基づいて、各対象物の動きをそれぞれ検出する。
Thereafter, the moving
この動作を遂次実行することで、車両周辺監視装置10は、所定の時間間隔で、車両12の前方に存在する対象物(例えば、図5Bの人体M)を監視することができる。ところで、本実施の形態に係る検知処理(以下、本検知処理)を適用することで、カメラ14の位置・姿勢の変化量を相殺する効果の他、対象物の検出精度に関する別の作用効果も得られる。以下、その効果について、図11A及び図11Bを参照しながら説明する。
By sequentially executing this operation, the vehicle
上述した(1)式に示す平面射影行列Hは、路面S上に存在する各投影点の射影変換を表す行列である。すなわち、平面射影行列Hは、路面S上に存在する対象物の位置・姿勢を補正するのに適した行列である。一方、平面射影行列Hは、路面Sから3次元的(車幅方向、奥行き方向及び高さ方向)に離れた対象物の位置・姿勢を補正するのに必ずしも適していない。つまり、平面射影行列Hによる位置変換精度は、路面Sに近い対象物ほど高くなり、路面Sから遠い対象物ほど低くなるという特徴がある。 The plane projection matrix H shown in the above-described equation (1) is a matrix representing the projection transformation of each projection point existing on the road surface S. That is, the planar projection matrix H is a matrix suitable for correcting the position / posture of an object existing on the road surface S. On the other hand, the planar projection matrix H is not necessarily suitable for correcting the position / posture of an object that is three-dimensionally separated from the road surface S (the vehicle width direction, the depth direction, and the height direction). That is, the position conversion accuracy based on the planar projection matrix H is higher as the object is closer to the road surface S and lower as the object is farther from the road surface S.
図11Aは、第1撮像画像Iaの中の第1関心領域100の射影変換例を表す概略説明図である。監視対象でない物体に属する交通標識(図示しない。)は、長尺のポールの先端部に円状の標識板が固定されてなり、路面S(図5B参照)の側に立設されている。そして、第1関心領域100の右下部には、上記標識板の一面に記されたマーク102が存在する。
FIG. 11A is a schematic explanatory diagram illustrating an example of projective transformation of the first region of
ここで、図6A〜図7Bで説明したように、差分画像作成部48は、第1関心領域100を特定する第1基準位置104に対して平面射影行列Hに基づく正射影変換を施すことで、第2基準位置106及び第2関心領域108を得る。ところが、第2撮像画像Ibの中の第2関心領域108の右下隅には、マーク102の形状と異なるマーク110が存在する。なぜならば、標識板は、基準面である路面Sに対して遥か上方に位置し、第1撮像画像Ia内におけるマーク102近傍での位置変換精度が高くないからである。
Here, as described with reference to FIGS. 6A to 7B, the difference
その結果、移動対象物検知部50及び動き検出部52は、撮像のフレーム間で、標識板(マーク102、110)が大きく変動したものと検知する。そして、対象物抽出部40は、検出異常であるとして、この標識板を抽出対象(監視対象)から除外することができる。このように、本検知処理を遂次実行することで、別異の処理を行うことなく、通常の画像認識処理の際に誤検出し易い物体(例えば、標識・看板等)を監視対象物から除外することができる。
As a result, the moving
図11Bは、第1撮像画像Iaの別の例示図である。第1撮像画像Iaには、車両12が走行する道路領域(以下、単に「道路112」)、道路112を横切る陸橋領域(以下、単に「陸橋114」)、道路112上に存在する歩行者領域(以下、単に「道路歩行者116」)、陸橋114上に存在する歩行者領域(以下、単に「陸橋歩行者118」)がそれぞれ存在する。
FIG. 11B is another exemplary view of the first captured image Ia. The first captured image Ia includes a road area where the
図11A例の場合と同様に考察すると、道路112上の地点120に近い道路歩行者116に関し、平面射影行列Hを用いて、フレーム間での位置変化を正確に求めることができる。これにより、移動対象物検知部50は、車両12の運動成分を相殺した画像を利用して、対象物としての道路歩行者116を正しく検知することができる。
Considering in the same manner as in the example of FIG. 11A, regarding the
一方、道路112上の地点122から遠い陸橋歩行者118に関し、平面射影行列Hを用いて、フレーム間での位置変化を正確に求めることができない。これにより、移動対象物検知部50は、陸橋歩行者118を対象物から除外することができる。
On the other hand, with respect to the
このように、本検知処理を用いることで、道路112上に存在する物体(道路歩行者116)の検知・認識精度を向上することができる。これは、道路112上に存在する物体ほど車両12との衝突の危険度が高いため特に好ましい。逆に、車両12との衝突の危険度が低い物体、すなわち道路112から離れた位置に存在する物体(陸橋歩行者118)については、対象物として正しく検知できなくなるため、煩わしい過警報等を抑制することができる。
In this way, by using this detection process, the detection / recognition accuracy of an object (road pedestrian 116) existing on the
ところで、本検知処理は、通常想定される動作範囲内において効果的に機能する。しかし、本検知処理によって各対象物の検知精度が十分に確保できない場合もある。そこで、演算部30は、複数の検知処理(本検知処理を含む。)を実行可能であり、撮像画像を取得した都度に本検知処理の適性を判別した上で、実行する検知処理を1つ選択してもよい。
By the way, this detection process functions effectively within the normally assumed operation range. However, there are cases where the detection accuracy of each object cannot be sufficiently secured by this detection process. Therefore, the
第1の適性として、撮像画像の中から道路領域を抽出可能であるか否かを考慮してもよい。本検知処理を適用するために、第1撮像画像Ia内の道路60a(図5Bの路面S)をフレーム毎に抽出する必要があるからである。例えば、自己の車両12のすぐ前方に他の車両が存在する等、カメラ14の撮像視野から道路60aが遮られる場合、平面パラメータを高精度に推定できなくなり、各対象物の検知精度が低下する可能性が高い。演算部30は、この状態を検出する際、エピポール、フロー(動きベクトル)等に関する位置情報を利用してもよい。
As a first aptitude, it may be considered whether a road region can be extracted from a captured image. This is because the
第2の適性として、平面射影行列Hの算出精度を十分に確保できるか否かを考慮してもよい。例えば、自己の車両12の走行速度が極めて低い場合、平面射影行列Hの算出誤差が生じ易くなり、各対象物の検知精度が低下する可能性が高い。そこで、演算部30は、車速センサ16から取得した車速Vsが所定の閾値を上回るか否かで判別してもよい。
As a second aptitude, it may be considered whether the calculation accuracy of the planar projection matrix H can be sufficiently secured. For example, when the traveling speed of the
以上のように、本発明に係る車両周辺監視装置10は、車両12に搭載され、車両12の走行中に異なる撮像時点T1、T2で撮像することで複数の撮像画像Ia、Ibを取得するカメラ14と、第1撮像時点T1にて第1撮像画像Iaが撮像された際のカメラ14の位置・姿勢を基準とした、第2撮像時点T2にて第2撮像画像Ibが撮像された際のカメラ14の位置・姿勢の変化量を表す並進ベクトル↑t及び回転行列Rを算出する変化量算出部44と、並進ベクトル↑t及び回転行列Rに基づいて、第1撮像画像Iaが示す第1撮像面から第2撮像画像Ibが示す第2撮像面への射影変換を表す平面射影行列Hを算出する変換行列算出部46と、平面射影行列Hに基づいて、第1撮像画像Iaと第2撮像画像Ibとの間の車両12の運動成分を相殺した差分画像Dを作成する差分画像作成部48と、少なくとも1つの差分画像Dに基づいて、車両12の周辺で移動する対象物(例えば、人体M)を検知する移動対象物検知部50とを備える。
As described above, the vehicle
このように、カメラ14の位置・姿勢の変化量を表す並進ベクトル↑t及び回転行列Rを算出する変化量算出部44と、並進ベクトル↑t及び回転行列Rから算出された平面射影行列Hに基づいて、第1撮像画像Iaと第2撮像画像Ibとの間の車両12の運動成分を相殺する車両運動成分相殺手段(例えば、差分画像作成部48)とを設けたので、車両12の姿勢の変動に起因して生じる、カメラ14の位置・姿勢の変化量に等しい車両12の運動成分を相殺できる。これにより、車両12の姿勢が突発的に変動した場合であっても、車両12の周辺で移動する対象物(人体M)の存在を正確に検知できる。
As described above, the translation vector ↑ t representing the change amount of the position / orientation of the
ここで、カメラ14の位置・姿勢の変化量(車両12の運動成分)を相殺した画像は、差分画像Dに限られず、勾配法・ブロックマッチング法等を用いて得たオプティカルフローを示す画像であってもよい。特に、画像差分法を適用することで、他の画像処理手法と比べて演算処理量を大幅に低減できる。 Here, the image in which the change amount of the position / orientation of the camera 14 (the motion component of the vehicle 12) is canceled is not limited to the difference image D, and is an image showing an optical flow obtained by using a gradient method, a block matching method, or the like. There may be. In particular, by applying the image difference method, the amount of calculation processing can be significantly reduced as compared with other image processing methods.
なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。 In addition, this invention is not limited to embodiment mentioned above, Of course, it can change freely in the range which does not deviate from the main point of this invention.
本実施の形態では、単眼カメラ(カメラ14)により得られた撮像画像に対して上記した画像を作成しているが、複眼カメラ(ステレオカメラ)でも同様の作用効果が得られることは言うまでもない。 In the present embodiment, the above-described image is created for the captured image obtained by the monocular camera (camera 14). However, it goes without saying that a similar effect can be obtained even with a compound-eye camera (stereo camera).
10…車両周辺監視装置 12…車両
14…カメラ 22…ECU
28…入出力部 30…演算部
34…記憶部 40…対象物抽出部
42…平面パラメータ推定部 44…変化量算出部
46…変換行列算出部 48…差分画像作成部
50…移動対象物検知部 52…動き検出部
60a、60b、112…道路 64a、64b…歩行者
70、104…第1基準位置 72、100…第1関心領域
74、106…第2基準位置 76、108…第2関心領域
116…道路歩行者 118…陸橋歩行者
Ia…第1撮像画像 Ib…第2撮像画像
I(n−1)、I(n)、I(n+1)…撮像画像
H…平面射影行列 ↑t…並進ベクトル
M…人体 R…回転行列
S…路面
DESCRIPTION OF
DESCRIPTION OF
Claims (10)
第1撮像時点にて第1撮像画像が撮像された際の前記撮像部の位置・姿勢を基準とした、第2撮像時点にて第2撮像画像が撮像された際の前記撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、
前記変化量算出部により算出された前記並進ベクトル及び前記回転行列に基づいて、前記第1撮像画像が示す第1撮像面から前記第2撮像画像が示す第2撮像面への射影変換を表す平面射影行列を算出する変換行列算出部と、
前記変換行列算出部により算出された前記平面射影行列に基づいて、前記第1撮像画像と前記第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段と
を備えることを特徴とする車両周辺監視装置。 An imaging unit that is mounted on a vehicle and acquires a plurality of captured images by capturing images at different times while the vehicle is running;
Based on the position and orientation of the imaging unit when the first captured image is captured at the first imaging time point, the position and position of the imaging unit when the second captured image is captured at the second imaging time point A change amount calculation unit for calculating a translation vector and a rotation matrix representing the amount of change in posture;
A plane representing projective transformation from the first imaging surface indicated by the first captured image to the second imaging surface indicated by the second captured image based on the translation vector and the rotation matrix calculated by the change amount calculation unit. A transformation matrix calculation unit for calculating a projection matrix;
Vehicle motion component canceling means for canceling the motion component of the vehicle between the first captured image and the second captured image based on the planar projection matrix calculated by the conversion matrix calculating unit. A vehicle periphery monitoring device.
前記変換行列算出部は、前記第1撮像画像の中に含まれる道路領域から前記第2撮像画像の中に含まれる道路領域への射影変換を表す前記平面射影行列を算出することを特徴とする車両周辺監視装置。 The vehicle periphery monitoring device according to claim 1,
The transformation matrix calculation unit calculates the planar projection matrix representing projection transformation from a road area included in the first captured image to a road area included in the second captured image. Vehicle periphery monitoring device.
前記車両運動成分相殺手段は、前記車両の運動成分を相殺した画像を作成する画像作成部であることを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 1 or 2,
The vehicle periphery monitoring device, wherein the vehicle motion component canceling unit is an image creating unit that creates an image in which the motion component of the vehicle is cancelled.
前記画像作成部により作成された少なくとも1つの前記画像に基づいて、前記車両の周辺で移動する対象物を検知する移動対象物検知部をさらに備えることを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 3,
A vehicle periphery monitoring device, further comprising a moving object detection unit that detects an object moving around the vehicle based on at least one of the images generated by the image generation unit.
前記移動対象物検知部は、前記第1撮像時点及び前記第2撮像時点のうち少なくとも一方が異なる複数の前記画像に基づいて前記対象物を検知することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 4,
The said moving target object detection part detects the said target object based on the several said image from which at least one differs among the said 1st imaging time points and the said 2nd imaging time points, The vehicle periphery monitoring apparatus characterized by the above-mentioned.
前記画像作成部は、前記画像として差分画像を作成することを特徴とする車両周辺監視装置。 The vehicle periphery monitoring device according to any one of claims 3 to 5,
The vehicle periphery monitoring device, wherein the image creation unit creates a difference image as the image.
前記画像作成部は、前記対象物を含む第1関心領域を前記第1撮像画像の中から抽出し、前記対象物を含む第2関心領域を前記第2撮像画像の中から抽出した後、前記第1関心領域と前記第2関心領域との間の前記画像を作成することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to any one of claims 3 to 6,
The image creation unit extracts a first region of interest including the object from the first captured image, extracts a second region of interest including the object from the second captured image, A vehicle periphery monitoring device that creates the image between a first region of interest and the second region of interest.
前記画像作成部は、前記第1関心領域の位置を特定する第1基準位置に対して前記平面射影行列に基づく正射影変換を施した位置を、前記第2関心領域の位置を特定する第2基準位置として前記画像を作成することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 7,
The image creation unit specifies a position obtained by performing orthographic transformation based on the planar projection matrix with respect to a first reference position that specifies the position of the first region of interest, and specifies a position of the second region of interest. A vehicle periphery monitoring device, wherein the image is created as a reference position.
前記画像作成部は、前記第2関心領域の位置を特定する第2基準位置に対して前記平面射影行列に基づく逆射影変換を施した位置を、前記第1関心領域の位置を特定する第1基準位置として前記画像を作成することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 7,
The image creation unit specifies a position obtained by performing a reverse projection transformation based on the planar projection matrix with respect to a second reference position that specifies the position of the second region of interest, and specifies a position of the first region of interest. A vehicle periphery monitoring device, wherein the image is created as a reference position.
前記画像作成部は、前記第1撮像画像に対して前記平面射影行列に基づく正射影変換を施した撮像画像と前記第2撮像画像との間の前記画像、及び、前記第2撮像画像に前記平面射影行列に基づく逆射影変換を施した撮像画像と前記第1撮像画像との間の前記画像のうちいずれか一方を作成することを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to any one of claims 3 to 9,
The image creation unit includes the captured image obtained by performing orthogonal projection transformation based on the planar projection matrix on the first captured image and the second captured image, and the second captured image. A vehicle periphery monitoring device that creates one of the images between a captured image subjected to reverse projection transformation based on a planar projection matrix and the first captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012179217A JP5695000B2 (en) | 2012-08-13 | 2012-08-13 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012179217A JP5695000B2 (en) | 2012-08-13 | 2012-08-13 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014038401A true JP2014038401A (en) | 2014-02-27 |
JP5695000B2 JP5695000B2 (en) | 2015-04-01 |
Family
ID=50286513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012179217A Expired - Fee Related JP5695000B2 (en) | 2012-08-13 | 2012-08-13 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5695000B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101888171B1 (en) * | 2017-11-16 | 2018-08-13 | 엘아이지넥스원 주식회사 | Method and device for recognizing environment based on position information of unmanned surface vessel |
JP2019518253A (en) * | 2015-12-04 | 2019-06-27 | ヴィオニア スウェーデン エービー | Automotive vision system and method of controlling a vision system |
JP6645642B1 (en) * | 2019-05-30 | 2020-02-14 | 三菱電機ビルテクノサービス株式会社 | Elevator passenger detection device and elevator system |
US11010622B2 (en) * | 2018-11-02 | 2021-05-18 | Toyota Research Institute, Inc. | Infrastructure-free NLoS obstacle detection for autonomous cars |
CN113496144A (en) * | 2020-03-19 | 2021-10-12 | 杭州海康威视数字技术股份有限公司 | Vehicle information detection method and device and electronic equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002005626A (en) * | 2000-06-27 | 2002-01-09 | Honda Motor Co Ltd | Position detector |
US6993159B1 (en) * | 1999-09-20 | 2006-01-31 | Matsushita Electric Industrial Co., Ltd. | Driving support system |
JP2008219063A (en) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | Apparatus and method for monitoring vehicle's surrounding |
JP2008227646A (en) * | 2007-03-09 | 2008-09-25 | Clarion Co Ltd | Obstacle detector |
JP2012003662A (en) * | 2010-06-21 | 2012-01-05 | Nissan Motor Co Ltd | Moving distance detector and moving distance detection method |
JP2012052884A (en) * | 2010-08-31 | 2012-03-15 | Honda Motor Co Ltd | Range finder with the use of on-vehicle camera |
-
2012
- 2012-08-13 JP JP2012179217A patent/JP5695000B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6993159B1 (en) * | 1999-09-20 | 2006-01-31 | Matsushita Electric Industrial Co., Ltd. | Driving support system |
JP2002005626A (en) * | 2000-06-27 | 2002-01-09 | Honda Motor Co Ltd | Position detector |
JP2008219063A (en) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | Apparatus and method for monitoring vehicle's surrounding |
JP2008227646A (en) * | 2007-03-09 | 2008-09-25 | Clarion Co Ltd | Obstacle detector |
JP2012003662A (en) * | 2010-06-21 | 2012-01-05 | Nissan Motor Co Ltd | Moving distance detector and moving distance detection method |
JP2012052884A (en) * | 2010-08-31 | 2012-03-15 | Honda Motor Co Ltd | Range finder with the use of on-vehicle camera |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019518253A (en) * | 2015-12-04 | 2019-06-27 | ヴィオニア スウェーデン エービー | Automotive vision system and method of controlling a vision system |
US10706589B2 (en) | 2015-12-04 | 2020-07-07 | Veoneer Sweden Ab | Vision system for a motor vehicle and method of controlling a vision system |
KR101888171B1 (en) * | 2017-11-16 | 2018-08-13 | 엘아이지넥스원 주식회사 | Method and device for recognizing environment based on position information of unmanned surface vessel |
US11010622B2 (en) * | 2018-11-02 | 2021-05-18 | Toyota Research Institute, Inc. | Infrastructure-free NLoS obstacle detection for autonomous cars |
JP6645642B1 (en) * | 2019-05-30 | 2020-02-14 | 三菱電機ビルテクノサービス株式会社 | Elevator passenger detection device and elevator system |
WO2020240783A1 (en) * | 2019-05-30 | 2020-12-03 | 三菱電機ビルテクノサービス株式会社 | Passenger detecting device for elevator, and elevator system |
CN113496144A (en) * | 2020-03-19 | 2021-10-12 | 杭州海康威视数字技术股份有限公司 | Vehicle information detection method and device and electronic equipment |
CN113496144B (en) * | 2020-03-19 | 2023-10-27 | 杭州海康威视数字技术股份有限公司 | Vehicle information detection method and device and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP5695000B2 (en) | 2015-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9073484B2 (en) | Surrounding area monitoring apparatus for vehicle | |
US8854231B2 (en) | Parking assistance system and method | |
US20190251374A1 (en) | Travel assistance device and computer program | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
JP4869745B2 (en) | Depression angle calculation device, depression angle calculation method, depression angle calculation program, and image processing apparatus | |
JP5695000B2 (en) | Vehicle periphery monitoring device | |
WO2012029382A1 (en) | Vehicle surroundings monitoring device | |
JP6337811B2 (en) | Image processing apparatus and image processing method | |
JP2007310706A (en) | Vehicle periphery monitoring device | |
CN111279354A (en) | Image processing method, apparatus and computer-readable storage medium | |
JP2013257872A (en) | Object tracking method and system from parallax figure | |
JP2017068424A (en) | Attitude measuring apparatus and attitude measurement method | |
EP2988097B1 (en) | Driving support system, method, and program | |
JP7337617B2 (en) | Estimation device, estimation method and program | |
JP2008197722A (en) | Face tracking device | |
JP2017016474A (en) | Obstacle detection system and obstacle detection method | |
KR101658089B1 (en) | Method for estimating a center lane for lkas control and apparatus threof | |
JP2011209070A (en) | Image processor | |
JP2015215299A (en) | Object position estimation device | |
JP2007278869A (en) | Range finder, periphery monitor for vehicle, range finding method, and program for range finding | |
JP4629638B2 (en) | Vehicle periphery monitoring device | |
JP2004038760A (en) | Traveling lane recognition device for vehicle | |
JP2004272694A (en) | Apparatus and method for object recognition | |
JP5430213B2 (en) | Vehicle periphery monitoring device | |
JP5330341B2 (en) | Ranging device using in-vehicle camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140811 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150108 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5695000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |