JP2014038401A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2014038401A
JP2014038401A JP2012179217A JP2012179217A JP2014038401A JP 2014038401 A JP2014038401 A JP 2014038401A JP 2012179217 A JP2012179217 A JP 2012179217A JP 2012179217 A JP2012179217 A JP 2012179217A JP 2014038401 A JP2014038401 A JP 2014038401A
Authority
JP
Japan
Prior art keywords
vehicle
image
captured image
monitoring device
periphery monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012179217A
Other languages
Japanese (ja)
Other versions
JP5695000B2 (en
Inventor
Shun Iwasaki
瞬 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012179217A priority Critical patent/JP5695000B2/en
Publication of JP2014038401A publication Critical patent/JP2014038401A/en
Application granted granted Critical
Publication of JP5695000B2 publication Critical patent/JP5695000B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring device capable of accurately detecting the existence of an object moving around a vehicle even when the posture of the vehicle abruptly changes.SOLUTION: A vehicle periphery monitoring device comprises: a change amount calculation unit (44) that calculates a translation vector (upward arrow t) and a rotation matrix (R) representing a change amount of the position and posture of an imaging unit (14); and vehicle movement component cancellation means (48) that cancels a movement component of a vehicle (12) between a first captured image (Ia) and a second captured image (Ib) on the basis of a plane projection matrix (H) calculated from the translation vector (upward arrow t) and the rotation matrix (R).

Description

この発明は、車両の走行中、該車両に搭載された撮像部を用いて異なる時点で撮像することで得た複数の撮像画像に基づいて、前記車両の周辺に存在する対象物を検知する車両周辺監視装置に関する。   The present invention is a vehicle that detects an object existing around a vehicle based on a plurality of captured images obtained by capturing images at different times using an imaging unit mounted on the vehicle while the vehicle is traveling. The present invention relates to a peripheral monitoring device.

従来から、車両の走行支援等を目的として、車両外に存在する物体を検知し、あるいは物体と自車両との相対的な位置関係等を監視する技術が知られている。特に、車両の前方に搭載された車載カメラ(撮像部)を用いて撮像し、得られた撮像画像を基に物体を検知等する方法が種々提案されている。   2. Description of the Related Art Conventionally, a technique for detecting an object existing outside a vehicle or monitoring a relative positional relationship between the object and the host vehicle is known for the purpose of driving support of the vehicle. In particular, various methods have been proposed for imaging using an in-vehicle camera (imaging unit) mounted in front of a vehicle and detecting an object based on the obtained captured image.

この車載カメラは、車両のいずれかの部位に固定・設置されている。従って、例えば、車両のピッチ角(車幅方向の軸であるピッチ軸周りの車両の傾斜角)の変動に伴い、車載カメラの撮像画像内での物体の位置が変動する。そして、この変動は、車両の外部に存在する物体と自車両との相対的な位置関係等を把握する場合の誤差要因となる。   This in-vehicle camera is fixed and installed in any part of the vehicle. Therefore, for example, the position of the object in the captured image of the in-vehicle camera varies with the variation of the vehicle pitch angle (the vehicle inclination angle around the pitch axis that is the axis in the vehicle width direction). And this fluctuation | variation becomes an error factor in grasping | ascertaining the relative positional relationship of the object which exists outside the vehicle, and the own vehicle.

これに対し、車両のピッチ角の推定値に応じて、撮像画像から認識される物体の位置を補正することで、この位置の検出精度を向上できる。例えば、特許文献1に、車両のピッチ角を推定する手法が提案されている。   On the other hand, the position detection accuracy can be improved by correcting the position of the object recognized from the captured image in accordance with the estimated value of the pitch angle of the vehicle. For example, Patent Document 1 proposes a method for estimating the pitch angle of a vehicle.

特許第3808287号公報Japanese Patent No. 3808287

本発明は上記特許文献1に開示された技術的思想に関連してなされたものであり、車両の姿勢が突発的に変動した場合であっても、車両の周辺で移動する対象物の存在を正確に検知可能な車両周辺監視装置を提供することを目的とする。   The present invention has been made in connection with the technical idea disclosed in the above-mentioned Patent Document 1. Even when the attitude of the vehicle suddenly changes, the presence of an object that moves around the vehicle is detected. An object of the present invention is to provide a vehicle periphery monitoring device that can be accurately detected.

本発明に係る車両周辺監視装置は、車両に搭載され、該車両の走行中に異なる時点で撮像することで複数の撮像画像を取得する撮像部と、第1撮像時点にて第1撮像画像が撮像された際の前記撮像部の位置・姿勢を基準とした、第2撮像時点にて第2撮像画像が撮像された際の前記撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、前記変化量算出部により算出された前記並進ベクトル及び前記回転行列に基づいて、前記第1撮像画像が示す第1撮像面から前記第2撮像画像が示す第2撮像面への射影変換を表す平面射影行列を算出する変換行列算出部と、前記変換行列算出部により算出された前記平面射影行列に基づいて、前記第1撮像画像と前記第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段とを備えることを特徴とする。   The vehicle periphery monitoring apparatus according to the present invention is mounted on a vehicle, and an imaging unit that acquires a plurality of captured images by capturing images at different times during traveling of the vehicle, and a first captured image at the first imaging time point. A translation vector and a rotation matrix that represent the amount of change in the position / orientation of the imaging unit when the second captured image is captured at the second imaging time point with reference to the position / orientation of the imaging unit at the time of imaging. Based on the translation vector and the rotation matrix calculated by the change amount calculation unit, and a second amount indicated by the second picked-up image from the first image pickup surface indicated by the first picked-up image. Based on the plane projection matrix calculated by the conversion matrix calculation unit, a conversion matrix calculation unit that calculates a plane projection matrix that represents the projection conversion to the imaging surface, the first captured image and the second captured image Cancels out the motion component of the vehicle between Characterized in that it comprises a vehicle motion component canceling means.

このように、撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、前記並進ベクトル及び前記回転行列から算出された平面射影行列に基づいて、第1撮像画像と第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段とを設けたので、車両の姿勢の変動に起因して生じる、撮像部の位置・姿勢の変化量に等しい車両の運動成分を相殺できる。これにより、車両の姿勢が突発的に変動した場合であっても、車両の周辺で移動する対象物の存在を正確に検知できる。   As described above, based on the change amount calculation unit for calculating the translation vector and the rotation matrix representing the change amount of the position and orientation of the image pickup unit, and the plane projection matrix calculated from the translation vector and the rotation matrix, the first image pickup Since the vehicle motion component canceling means for canceling the motion component of the vehicle between the image and the second captured image is provided, the amount of change in the position and orientation of the imaging unit caused by the change in the posture of the vehicle Equal vehicle motion components can be offset. Thereby, even if the posture of the vehicle suddenly changes, the presence of an object moving around the vehicle can be accurately detected.

また、前記変換行列算出部は、前記第1撮像画像の中に含まれる道路領域から前記第2撮像画像の中に含まれる道路領域への射影変換を表す前記平面射影行列を算出することが好ましい。これにより、道路領域上に存在する物体の検知・認識精度(運動成分の相殺効果)を高めることができる。道路領域上に存在する物体ほど車両との衝突の危険度が高いため特に好ましい。逆に、道路領域から離れた位置に存在する物体については、対象物として正しく検知できなくなるため、煩わしい過警報等を抑制することができる。   Moreover, it is preferable that the said conversion matrix calculation part calculates the said plane projection matrix showing the projective transformation from the road area | region included in the said 1st captured image to the road area | region included in the said 2nd captured image. . Thereby, the detection / recognition accuracy of the object existing on the road area (motion component canceling effect) can be enhanced. An object present on the road area is particularly preferable because it has a higher risk of collision with the vehicle. On the other hand, since an object existing at a position away from the road area cannot be correctly detected as a target object, a troublesome over-alarm or the like can be suppressed.

さらに、前記車両運動成分相殺手段は、前記車両の運動成分を相殺した画像を作成する画像作成部であることが好ましい。   Furthermore, it is preferable that the vehicle motion component canceling unit is an image creating unit that creates an image in which the motion component of the vehicle is canceled.

さらに、前記画像作成部により作成された少なくとも1つの前記画像に基づいて、前記車両の周辺で移動する対象物を検知する移動対象物検知部をさらに備えることが好ましい。   Furthermore, it is preferable to further include a moving object detection unit that detects an object moving around the vehicle based on at least one of the images generated by the image generation unit.

さらに、前記移動対象物検知部は、前記第1撮像時点及び前記第2撮像時点のうち少なくとも一方が異なる複数の前記画像に基づいて前記対象物を検知することが好ましい。   Furthermore, it is preferable that the moving object detection unit detects the object based on a plurality of the images in which at least one of the first imaging time point and the second imaging time point is different.

さらに、前記画像作成部は、前記画像として差分画像を作成することが好ましい。このように、画像差分法を適用することで、他の画像処理手法と比べて演算処理量を大幅に低減できる。   Furthermore, it is preferable that the image creation unit creates a difference image as the image. In this way, by applying the image difference method, the amount of calculation processing can be significantly reduced as compared with other image processing methods.

さらに、前記画像作成部は、前記対象物を含む第1関心領域を前記第1撮像画像の中から抽出し、前記対象物を含む第2関心領域を前記第2撮像画像の中から抽出した後、前記第1関心領域と前記第2関心領域との間の前記画像を作成することが好ましい。   Further, the image creation unit extracts a first region of interest including the object from the first captured image, and extracts a second region of interest including the object from the second captured image. Preferably, the image between the first region of interest and the second region of interest is created.

さらに、前記画像作成部は、前記第1関心領域の位置を特定する第1基準位置に対して前記平面射影行列に基づく正射影変換を施した位置を、前記第2関心領域の位置を特定する第2基準位置として前記画像を作成することが好ましい。   Furthermore, the image creation unit identifies the position of the second region of interest as a position obtained by performing orthographic transformation based on the planar projection matrix with respect to the first reference position that identifies the position of the first region of interest. It is preferable to create the image as the second reference position.

また、前記画像作成部は、前記第2関心領域の位置を特定する第2基準位置に対して前記平面射影行列に基づく逆射影変換を施した位置を、前記第1関心領域の位置を特定する第1基準位置として前記画像を作成することが好ましい。   In addition, the image creation unit identifies the position of the first region of interest as a position obtained by performing reverse projection transformation based on the planar projection matrix with respect to the second reference position that identifies the position of the second region of interest. It is preferable to create the image as the first reference position.

さらに、前記画像作成部は、前記第1撮像画像に対して前記平面射影行列に基づく正射影変換を施した撮像画像と前記第2撮像画像との間の前記画像、及び、前記第2撮像画像に前記平面射影行列に基づく逆射影変換を施した撮像画像と前記第1撮像画像との間の前記画像のうちいずれか一方を作成することが好ましい。これにより、撮像部の位置・姿勢の変化に伴う、撮像画像上での対象物の形態の変化をも考慮に入れて画像を作成することができる。   Furthermore, the image creation unit includes the image between the captured image obtained by performing orthographic transformation based on the planar projection matrix with respect to the first captured image and the second captured image, and the second captured image. Preferably, any one of the images between the captured image that has been subjected to reverse projection transformation based on the planar projection matrix and the first captured image is created. Thereby, it is possible to create an image taking into account the change in the form of the object on the captured image accompanying the change in the position and orientation of the imaging unit.

本発明に係る車両周辺監視装置によれば、撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、前記並進ベクトル及び前記回転行列から算出された平面射影行列に基づいて、第1撮像画像と第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段とを設けたので、車両の姿勢の変動に起因して生じる、撮像部の位置・姿勢の変化量に等しい車両の運動成分を相殺できる。これにより、車両の姿勢が突発的に変動した場合であっても、車両の周辺で移動する対象物の存在を正確に検知できる。   According to the vehicle periphery monitoring apparatus according to the present invention, a change amount calculation unit that calculates a translation vector and a rotation matrix that represents a change amount of the position and orientation of the imaging unit, and a planar projection calculated from the translation vector and the rotation matrix Since the vehicle motion component canceling unit that cancels the motion component of the vehicle between the first captured image and the second captured image is provided based on the matrix, the imaging unit is caused due to a change in the posture of the vehicle. The motion component of the vehicle equal to the amount of change in the position / posture can be offset. Thereby, even if the posture of the vehicle suddenly changes, the presence of an object moving around the vehicle can be accurately detected.

本実施の形態に係る車両周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus which concerns on this Embodiment. 図1に示す車両周辺監視装置が搭載された車両の概略斜視図である。It is a schematic perspective view of the vehicle carrying the vehicle periphery monitoring apparatus shown in FIG. 図1に示すECUの動作説明に供されるフローチャートである。2 is a flowchart provided for explaining the operation of the ECU shown in FIG. 図4A及び図4Bは、カメラを用いた撮像により取得された撮像画像の例示図である。4A and 4B are diagrams illustrating captured images acquired by imaging using a camera. 図5Aは、カメラ、人体及び路面の幾何学的な位置関係を表す概略説明図である。図5Bは、第1撮像時点におけるカメラ及び路面の幾何学的な位置関係を表す概略説明図である。FIG. 5A is a schematic explanatory diagram illustrating a geometric positional relationship among a camera, a human body, and a road surface. FIG. 5B is a schematic explanatory diagram illustrating a geometric positional relationship between the camera and the road surface at the time of the first imaging. 図6Aは、第1撮像画像における歩行者の抽出例を示す概略説明図である。図6Bは、カメラの位置・姿勢の変化を考慮しない場合における、第2撮像画像内の関心領域の設定方法についての概略説明図である。FIG. 6A is a schematic explanatory diagram illustrating an example of extraction of pedestrians in the first captured image. FIG. 6B is a schematic explanatory diagram of a method of setting a region of interest in the second captured image when changes in the position / posture of the camera are not considered. 図7A及び図7Bは、カメラの位置・姿勢の変化を考慮した場合における、第2撮像画像内の関心領域の設定方法についての概略説明図である。7A and 7B are schematic explanatory diagrams of a method for setting a region of interest in the second captured image in consideration of changes in the position and orientation of the camera. 図8A及び図8Bは、各撮像領域における歩行者の位置及び高さに関する概略説明図である。8A and 8B are schematic explanatory diagrams regarding the position and height of a pedestrian in each imaging region. 差分画像の作成方法に関する概略説明図である。It is a schematic explanatory drawing regarding the production method of a difference image. 差分画像及び動き検出画像の作成方法の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of the production method of a difference image and a motion detection image. 図11A及び図11Bは、本検知処理により得られる作用効果を説明するための概略説明図である。FIG. 11A and FIG. 11B are schematic explanatory diagrams for explaining the operational effects obtained by this detection processing.

以下、本発明に係る車両周辺監視装置について好適な実施形態を挙げ、添付の図面を参照しながら説明する。   Hereinafter, preferred embodiments of a vehicle periphery monitoring device according to the present invention will be described with reference to the accompanying drawings.

図1は、本実施の形態に係る車両周辺監視装置10の構成を示すブロック図である。図2は、図1に示す車両周辺監視装置10が搭載された車両12の概略斜視図である。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring apparatus 10 according to the present embodiment. FIG. 2 is a schematic perspective view of the vehicle 12 on which the vehicle periphery monitoring device 10 shown in FIG. 1 is mounted.

図1及び図2に示すように、車両周辺監視装置10は、複数のカラーチャンネルからなるカラー画像(以下、撮像画像という。)を撮像するカラーカメラ(以下、単に「カメラ14」という。)と、車両12の車速Vsを検出する車速センサ16と、車両12のヨーレートYrを検出するヨーレートセンサ18と、運転者によるブレーキペダルの操作量Brを検出するブレーキセンサ20と、この車両周辺監視装置10を制御する電子制御装置(以下、「ECU22」という。)と、音声で警報等を発するためのスピーカ24と、カメラ14から出力された撮像画像等を表示する表示装置26とを備える。   As shown in FIGS. 1 and 2, the vehicle periphery monitoring device 10 is a color camera (hereinafter simply referred to as “camera 14”) that captures a color image (hereinafter referred to as a captured image) including a plurality of color channels. The vehicle speed sensor 16 for detecting the vehicle speed Vs of the vehicle 12, the yaw rate sensor 18 for detecting the yaw rate Yr of the vehicle 12, the brake sensor 20 for detecting the brake pedal operation amount Br by the driver, and the vehicle periphery monitoring device 10 An electronic control device (hereinafter referred to as “ECU 22”), a speaker 24 for issuing an alarm or the like by sound, and a display device 26 for displaying a captured image output from the camera 14.

カメラ14は、主に可視光領域の波長を有する光を利用するカメラであり、車両12の周辺を撮像する撮像手段として機能する。カメラ14は、被写体の表面を反射する光量が多いほど、その出力信号レベルが高くなり、画像の輝度(例えば、RGB値)が増加する特性を有する。図2に示すように、カメラ14は、車両12の前部バンパー部の略中心部に固定的に配置(搭載)されている。   The camera 14 is a camera that mainly uses light having a wavelength in the visible light region, and functions as an imaging unit that images the periphery of the vehicle 12. The camera 14 has a characteristic that the output signal level increases as the amount of light reflected on the surface of the subject increases, and the luminance (for example, RGB value) of the image increases. As shown in FIG. 2, the camera 14 is fixedly disposed (mounted) at a substantially central portion of the front bumper portion of the vehicle 12.

なお、車両12の周囲を撮像する撮像手段は、上記した構成例(いわゆる単眼カメラ)に限られることなく、例えば複眼カメラ(ステレオカメラ)であってもよい。また、カラーカメラに代替して赤外線カメラを用いてもよく、或いは両方を併せ備えてもよい。さらに、単眼カメラの場合、別の測距手段(レーダ装置)を併せて備えてもよい。   The imaging means for imaging the periphery of the vehicle 12 is not limited to the above configuration example (so-called monocular camera), and may be, for example, a compound eye camera (stereo camera). Further, an infrared camera may be used instead of the color camera, or both may be provided. Further, in the case of a monocular camera, another ranging means (radar apparatus) may be provided.

図1に戻って、スピーカ24は、ECU22からの指令に応じて、警報音等の出力を行う。スピーカ24は、車両12の図示しないダッシュボードに設けられる。あるいは、スピーカ24に代替して、他の装置(例えば、オーディオ装置又はナビゲーション装置)が備える音声出力機能を用いてもよい。   Returning to FIG. 1, the speaker 24 outputs an alarm sound or the like in response to a command from the ECU 22. The speaker 24 is provided on a dashboard (not shown) of the vehicle 12. Alternatively, instead of the speaker 24, an audio output function provided in another device (for example, an audio device or a navigation device) may be used.

表示装置26(図1及び図2参照)は、車両12のフロントウインドシールド上、運転者の前方視界を妨げない位置に配されたHUD(ヘッドアップディスプレイ)である。表示装置26として、HUDに限らず、車両12に搭載されたナビゲーションシステムの地図等を表示するディスプレイや、メータユニット内等に設けられた燃費等を表示するディスプレイ(MID;マルチインフォメーションディスプレイ)を利用することができる。   The display device 26 (see FIGS. 1 and 2) is a HUD (head-up display) disposed on the front windshield of the vehicle 12 at a position that does not obstruct the driver's front view. The display device 26 is not limited to the HUD, but a display that displays a map or the like of a navigation system mounted on the vehicle 12 or a display (MID; multi-information display) that displays fuel consumption or the like provided in a meter unit or the like is used. can do.

ECU22は、入出力部28、演算部30、表示制御部32、及び記憶部34を基本的に備える。   The ECU 22 basically includes an input / output unit 28, a calculation unit 30, a display control unit 32, and a storage unit 34.

カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号は、入出力部28を介してECU22側に入力される。また、ECU22からの各信号は、入出力部28を介してスピーカ24及び表示装置26側に出力される。入出力部28は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。   Signals from the camera 14, the vehicle speed sensor 16, the yaw rate sensor 18, and the brake sensor 20 are input to the ECU 22 side via the input / output unit 28. Each signal from the ECU 22 is output to the speaker 24 and the display device 26 via the input / output unit 28. The input / output unit 28 includes an A / D conversion circuit (not shown) that converts an input analog signal into a digital signal.

演算部30は、カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号に基づく演算を実行し、演算結果に基づきスピーカ24及び表示装置26に対する信号を生成する。演算部30は、対象物抽出部40、平面パラメータ推定部42、変化量算出部44、変換行列算出部46、差分画像作成部48(車両運動成分相殺手段、画像作成部)、移動対象物検知部50及び動き検出部52として機能する。各部の機能は、記憶部34に記憶されているプログラムを読み出して実行することにより実現される。或いは、前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。   The calculation unit 30 performs calculations based on the signals from the camera 14, the vehicle speed sensor 16, the yaw rate sensor 18, and the brake sensor 20, and generates signals for the speaker 24 and the display device 26 based on the calculation results. The calculation unit 30 includes an object extraction unit 40, a plane parameter estimation unit 42, a change amount calculation unit 44, a transformation matrix calculation unit 46, a difference image creation unit 48 (vehicle motion component offset means, an image creation unit), and a moving object detection. Functions as the unit 50 and the motion detection unit 52. The function of each unit is realized by reading and executing a program stored in the storage unit 34. Alternatively, the program may be supplied from the outside via a wireless communication device (mobile phone, smartphone, etc.) not shown.

表示制御部32は、表示装置26を駆動制御する制御回路である。表示制御部32が、入出力部28を介して、表示制御に供される信号を表示装置26に出力することで、表示装置26が駆動する。これにより、表示装置26は各種画像(撮像画像、マーク等)を表示することができる。   The display control unit 32 is a control circuit that drives and controls the display device 26. The display control unit 32 drives the display device 26 by outputting a signal used for display control to the display device 26 via the input / output unit 28. As a result, the display device 26 can display various images (captured images, marks, etc.).

記憶部34は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。   The storage unit 34 includes an imaging signal converted into a digital signal, a RAM (Random Access Memory) that stores temporary data used for various arithmetic processes, and a ROM (Read Only Memory) that stores an execution program, a table, a map, or the like. ) Etc.

本実施の形態に係る車両周辺監視装置10は、基本的には、以上のように構成される。この車両周辺監視装置10の動作の概要について以下説明する。   The vehicle periphery monitoring apparatus 10 according to the present embodiment is basically configured as described above. An outline of the operation of the vehicle periphery monitoring device 10 will be described below.

ECU22は、所定のフレームクロック間隔・周期(例えば、1秒あたり30フレーム)毎に、カメラ14から出力されるアナログの映像信号をデジタル信号に変換し、記憶部34に一時的に取り込む。そして、ECU22は、記憶部34から読み出した撮像画像(車両12の前方画像)に対して各種演算処理を施す。   The ECU 22 converts the analog video signal output from the camera 14 into a digital signal at predetermined frame clock intervals / cycles (for example, 30 frames per second) and temporarily captures it in the storage unit 34. Then, the ECU 22 performs various arithmetic processes on the captured image (the front image of the vehicle 12) read from the storage unit 34.

ECU22(特に演算部30)は、撮像画像に対する処理結果、必要に応じて車両12の走行状態を示す各信号(車速Vs、ヨーレートYr及び操作量Br)を総合的に考慮し、車両12の前方に存在する歩行者、動物等を、監視対象となる物体(以下、「監視対象物」あるいは単に「対象物」という。)として検出する。   The ECU 22 (especially the calculation unit 30) comprehensively considers the processing result for the captured image and each signal (vehicle speed Vs, yaw rate Yr, and operation amount Br) indicating the traveling state of the vehicle 12 as necessary, and the front of the vehicle 12 Are detected as objects to be monitored (hereinafter referred to as “monitoring objects” or simply “objects”).

車両12が監視対象物に接触する可能性が高いと演算部30により判断された場合、ECU22は、運転者の注意を喚起するために車両周辺監視装置10の各出力部を制御する。ECU22は、例えば、スピーカ24を介して警報音(例えば、ピッ、ピッ、…と鳴る音)を出力させるともに、表示装置26上に可視化された撮像画像のうちその監視対象物の部位を強調表示させる。   When the calculation unit 30 determines that there is a high possibility that the vehicle 12 is in contact with the monitoring target, the ECU 22 controls each output unit of the vehicle periphery monitoring device 10 in order to call the driver's attention. For example, the ECU 22 outputs an alarm sound (for example, a beeping sound) via the speaker 24 and highlights the part of the monitored object in the captured image visualized on the display device 26. Let

続いて、車両周辺監視装置10の詳細な動作について、図3のフローチャートを参照しながら説明する。なお、本処理の流れは、車両12が走行中である場合、撮像のフレーム毎に実行される。   Next, the detailed operation of the vehicle periphery monitoring device 10 will be described with reference to the flowchart of FIG. Note that this processing flow is executed for each imaging frame when the vehicle 12 is traveling.

ステップS1において、ECU22は、フレーム毎に、カメラ14により撮像された車両12の前方(所定画角範囲)の出力信号である撮像画像を取得する。   In step S1, the ECU 22 acquires a captured image that is an output signal in front of the vehicle 12 (predetermined angle of view range) captured by the camera 14 for each frame.

図4Aに示すように、第1撮像時点T1において、第1フレームの撮像画像(以下、第1撮像画像Iaという。)が得られたとする。そして、ECU22は、取得した第1撮像画像Iaを記憶部34に一時的に記憶させる。例えば、カメラ14としてRGBカメラを用いる場合、得られた撮像画像は、3つのカラーチャンネルからなる多階調画像である。   As shown in FIG. 4A, it is assumed that a captured image of the first frame (hereinafter referred to as a first captured image Ia) is obtained at the first imaging time point T1. Then, the ECU 22 temporarily stores the acquired first captured image Ia in the storage unit 34. For example, when an RGB camera is used as the camera 14, the obtained captured image is a multi-gradation image composed of three color channels.

ステップS2において、演算部30は、2つ以上の撮像画像を既に取得したか否かを判別する。取得されたと判別された場合(ステップS2:YES)、後述するステップS5に進む。一方、取得されていないと判別された場合(ステップS2:NO)、次のステップ(S3)に進む。   In step S2, the calculation unit 30 determines whether two or more captured images have already been acquired. When it is determined that it has been acquired (step S2: YES), the process proceeds to step S5 described later. On the other hand, when it is determined that it has not been acquired (step S2: NO), the process proceeds to the next step (S3).

ステップS3において、対象物抽出部40は、ステップS1で取得された第1撮像画像Iaの中から対象物を抽出する。この抽出の際、静止画像に適用可能な公知の画像認識手法(パターンマッチング等を含む。)を種々用いてもよい。また、対象物抽出部40は、上記した処理と併せて、それぞれ抽出された各対象物の存在を特定するための位置(以下、基準位置という。)を決定しておき、記憶部34に一時的に記憶させておく。   In step S3, the object extraction unit 40 extracts the object from the first captured image Ia acquired in step S1. In this extraction, various known image recognition methods (including pattern matching) applicable to still images may be used. In addition to the above-described processing, the object extraction unit 40 determines a position (hereinafter referred to as a reference position) for specifying the presence of each extracted object, and temporarily stores it in the storage unit 34. Remember me.

図4A例では、第1撮像画像Iaにおいて、車両12が走行する道路領域(以下、単に「道路60a」)、道路60aに沿って略等間隔に設置された複数の電柱領域(以下、単に「電柱62a」)、道路60a上に存在する歩行者領域(以下、単に「歩行者64a」)がそれぞれ存在する。例えば、対象物抽出部40は、道路60a及び歩行者64aをそれぞれ抽出したとする。   In the example of FIG. 4A, in the first captured image Ia, a road area (hereinafter simply referred to as “road 60a”) on which the vehicle 12 travels, and a plurality of utility pole areas (hereinafter simply referred to as “ There is a pedestrian area (hereinafter simply referred to as “pedestrian 64a”) on the road 60a. For example, it is assumed that the object extraction unit 40 extracts a road 60a and a pedestrian 64a.

ステップS4において、ECU22は、フレーム間隔時間だけ待機した後、第2撮像時点T2において次の撮像動作(ステップS1)に移行する。   In step S4, after waiting for the frame interval time, the ECU 22 proceeds to the next imaging operation (step S1) at the second imaging time point T2.

図4Bに示すように、第2フレームの撮像画像(以下、第2撮像画像Ibという。)が得られたとする。第2撮像画像Ibにおいて、第1撮像画像Iaの場合と同様に、道路領域(以下、道路60b)、複数の電柱領域(以下、電柱62b)、及び歩行者領域(以下、歩行者64b)がそれぞれ存在する。ところが、フレーム間隔時間が経過するにつれて、カメラ14及び各対象物の間の相対的位置関係が時々刻々と変化する。これにより、第1撮像画像Ia及び第2撮像画像Ibが同一の画角範囲であっても、各対象物は、それぞれ異なる形態(形状、大きさ又は色彩)で画像化される。   As shown in FIG. 4B, it is assumed that a captured image of the second frame (hereinafter referred to as a second captured image Ib) is obtained. In the second captured image Ib, as in the case of the first captured image Ia, a road area (hereinafter, road 60b), a plurality of utility pole areas (hereinafter, telephone pole 62b), and a pedestrian area (hereinafter, pedestrian 64b) are included. Each exists. However, as the frame interval time elapses, the relative positional relationship between the camera 14 and each object changes every moment. Thereby, even if the 1st captured image Ia and the 2nd captured image Ib are the same view angle range, each target object is imaged with a respectively different form (shape, magnitude | size, or color).

再度のステップS2において、演算部30は、2つ以上の撮像画像が取得されたと判別し(ステップS2:YES)、次のステップ(S5)に進む。   In step S2 again, the calculation unit 30 determines that two or more captured images have been acquired (step S2: YES), and proceeds to the next step (S5).

ステップS5において、平面パラメータ推定部42は、ステップS3で検知された道路60a(実在の路面)を表現する平面パラメータを推定する。ここで、平面パラメータの推定には、公知の画像処理手法を種々用いることができる。   In step S5, the plane parameter estimation unit 42 estimates a plane parameter representing the road 60a (actual road surface) detected in step S3. Here, various known image processing techniques can be used for estimating the plane parameters.

図5Aに示すように、平面パラメータとしての法線ベクトル↑n、及び距離dによって、カメラ14及び実在の路面(以下、単に路面Sという。)の間の幾何学的位置関係が特定される。ここで、法線ベクトル↑nは、路面Sの法線方向に沿った単位ベクトルである。また、距離dは、第1撮像画像Iaが撮像されたときのカメラ14の光学中心C及び路面Sの間の距離である。   As shown in FIG. 5A, the geometric positional relationship between the camera 14 and the actual road surface (hereinafter simply referred to as the road surface S) is specified by the normal vector ↑ n as the plane parameter and the distance d. Here, the normal vector ↑ n is a unit vector along the normal direction of the road surface S. The distance d is a distance between the optical center C of the camera 14 and the road surface S when the first captured image Ia is captured.

ところで、路面Sは、通常、車両12の車幅方向と略平行であるので、カメラ14による撮像画像の横方向(カメラ座標系のX軸方向)に略平行である。このため、第1カメラ座標系上における法線ベクトル↑nは、カメラ14の光軸Lcに対する路面Sの傾き角度θを用いて、↑n=[0,cosθ,sinθ]と表記される。 By the way, the road surface S is generally substantially parallel to the vehicle width direction of the vehicle 12, and is therefore substantially parallel to the lateral direction of the image captured by the camera 14 (X-axis direction of the camera coordinate system). Therefore, the normal vector ↑ n on the first camera coordinate system is expressed as ↑ n = [0, cos θ, sin θ] T using the inclination angle θ of the road surface S with respect to the optical axis Lc of the camera 14.

ステップS6において、変化量算出部44は、カメラ14の位置・姿勢の変化量を算出する。具体的には、変化量算出部44は、第1撮像画像Iaが撮像されたときのカメラ14の位置・姿勢を基準とした、第2撮像画像Ibが撮像されたときのカメラ14の位置・姿勢の変化量をそれぞれ算出する。ここで、変化量算出部44は、早い撮像時点(T1)を基準とした、遅い撮像時点(T2)での変化量を算出しているが、その逆であってもよい。すなわち、変化量算出部44は、遅い撮像時点(T2)を基準とした、早い撮像時点(T1)での変化量を算出してもよい。   In step S <b> 6, the change amount calculation unit 44 calculates the change amount of the position / orientation of the camera 14. Specifically, the change amount calculation unit 44 uses the position / posture of the camera 14 when the first captured image Ia is captured as a reference for the position / position of the camera 14 when the second captured image Ib is captured. The amount of change in posture is calculated. Here, the change amount calculation unit 44 calculates the change amount at the later imaging time point (T2) with reference to the earlier imaging time point (T1), but the reverse may be possible. That is, the change amount calculation unit 44 may calculate the change amount at the earlier imaging time point (T1) with reference to the later imaging time point (T2).

変化量算出部44は、SfM(Structure from Motion)等による公知の手法を用いて、第1撮像画像Ia及び第2撮像画像Ibから、カメラ14の空間的な位置の変化量(具体的には、並進ベクトル↑t)を算出する。図5Bに示すように、並進ベクトル↑tは、第1撮像時点T1でのカメラ14の基準点を始点とし、第2撮像時点T2でのカメラ14の基準点を終点とするベクトルである。基準点は、カメラ14に対して固定された点であり、例えばカメラ14の光学中心Cに相当する。   The change amount calculation unit 44 uses a known technique such as SfM (Structure from Motion) or the like to change the spatial position change amount of the camera 14 (specifically, from the first captured image Ia and the second captured image Ib). , A translation vector ↑ t) is calculated. As shown in FIG. 5B, the translation vector ↑ t is a vector having a reference point of the camera 14 at the first imaging time point T1 as a starting point and an end point being the reference point of the camera 14 at the second imaging time point T2. The reference point is a point fixed with respect to the camera 14 and corresponds to, for example, the optical center C of the camera 14.

また、変化量算出部44は、第1撮像画像Ia及び第2撮像画像Ibから、カメラ14の空間的な姿勢の変化量(具体的には、回転行列R)を算出する。図5Bに示すように、回転行列Rは、第1撮像時点T1でのカメラ座標系の原点を、第2撮像時点T2でのカメラ座標系の原点に一致させた場合、両方のカメラ座標系の間の座標変換(3軸周りの回転変換)を表現する行列である。なお、カメラ座標系は、カメラ14に対して固定された座標系、本図例のように、基準点(光学中心C)を原点としてカメラ14に対して固定された座標系(3軸座標系)である。本実施の形態では、このカメラ座標系は、カメラ14の光軸方向をZ軸方向、カメラ14の横方向(車幅方向)をX軸方向、カメラ14の縦方向(Z軸方向及びX軸方向に直交する方向)をY軸方向とする3軸座標系である。   Further, the change amount calculation unit 44 calculates a change amount (specifically, a rotation matrix R) of the spatial orientation of the camera 14 from the first captured image Ia and the second captured image Ib. As shown in FIG. 5B, when the origin of the camera coordinate system at the first imaging time point T1 is made coincident with the origin of the camera coordinate system at the second imaging time point T2, as shown in FIG. It is a matrix expressing coordinate transformation between them (rotational transformation around three axes). The camera coordinate system is a coordinate system fixed with respect to the camera 14, and a coordinate system fixed with respect to the camera 14 with the reference point (optical center C) as the origin (three-axis coordinate system) as in this example. ). In the present embodiment, the camera coordinate system is such that the optical axis direction of the camera 14 is the Z-axis direction, the lateral direction (vehicle width direction) of the camera 14 is the X-axis direction, and the vertical direction of the camera 14 (Z-axis direction and X-axis). This is a three-axis coordinate system in which the direction perpendicular to the direction) is the Y-axis direction.

並進ベクトル↑t及び回転行列Rを算出する際、具体的には、第1撮像画像Ia及び第2撮像画像Ibの間のオプティカルフロー推定をSfMに適用した手法(例えば、「Structure from Motion without Correspondence」/Frank Dellaert, Steven M.Seitz, Charles E.Thorpe, Sebastian Thrun/Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213 を参照)等を用いてもよい。また、並進ベクトル↑t及び回転行列Rを算出するために、3つ以上の撮像画像を使用してもよい。   When calculating the translation vector ↑ t and the rotation matrix R, specifically, a technique (for example, “Structure from Motion without Correspondence” in which optical flow estimation between the first captured image Ia and the second captured image Ib is applied to SfM. / Frank Dellaert, Steven M. Seitz, Charles E. Thorpe, Sebastian Thrun / see Computer Sience Department & Robotics Institute Canegie Mellon University, Pittsborgh PA 15213). Further, in order to calculate the translation vector ↑ t and the rotation matrix R, three or more captured images may be used.

ステップS7において、変換行列算出部46は、ステップS5で推定された平面パラメータ、並びに、ステップS6でそれぞれ算出された並進ベクトル↑t及び回転行列Rを用いて、平面射影行列H(ホモグラフィ行列)を算出する。ここで、平面射影行列Hは、第1撮像面(図5B参照)から第2撮像面(同図参照)への平面射影変換を表す2次元行列である。   In step S7, the transformation matrix calculation unit 46 uses the plane parameter estimated in step S5 and the translation vector ↑ t and rotation matrix R calculated in step S6, respectively, to generate a plane projection matrix H (homography matrix). Is calculated. Here, the planar projection matrix H is a two-dimensional matrix that represents planar projection conversion from the first imaging plane (see FIG. 5B) to the second imaging plane (see the figure).

変換行列算出部46は、公知の手法・任意の拘束条件の組み合わせで平面射影行列Hを算出してもよい。本実施の形態において、平面射影行列Hは、第1撮像画像Iaの中に含まれる道路60aから、第2撮像画像Ibの中に含まれる道路60bへの射影変換を表す行列に相当する。   The transformation matrix calculation unit 46 may calculate the planar projection matrix H by a combination of a known method and an arbitrary constraint condition. In the present embodiment, the planar projection matrix H corresponds to a matrix that represents the projective transformation from the road 60a included in the first captured image Ia to the road 60b included in the second captured image Ib.

この場合、第1撮像画像Ia内の投影点P1の位置ベクトル↑P1と、第2撮像画像Ib内の投影点P2の位置ベクトル↑P2との間の関係は、平面射影変換によって対応付けられる。具体的に、この平面射影変換を施すための平面射影行列Hは、上記した並進ベクトル↑t、回転行列R、路面Sの平面パラメータ(↑n、d)を用いて、次の(1)式により与えられる。
H=R−R・↑t・(↑n/d) …(1)
In this case, the relationship between the position vector ↑ P1 of the projection point P1 in the first captured image Ia and the position vector ↑ P2 of the projection point P2 in the second captured image Ib is associated by plane projective transformation. Specifically, the plane projection matrix H for performing the plane projection transformation is expressed by the following equation (1) using the above-described translation vector ↑ t, rotation matrix R, and plane parameters (↑ n, d) of the road surface S. Given by.
H = R T −R T · ↑ t · (↑ n / d) T (1)

そして、位置ベクトル↑P2は、位置ベクトル↑P1及び平面射影行列Hを用いて、以下の(2)式で与えられる。なお、kは、正の比例定数である。
↑P2=k・H・↑P1 …(2)
The position vector ↑ P2 is given by the following expression (2) using the position vector ↑ P1 and the planar projection matrix H. Note that k is a positive proportionality constant.
↑ P2 = k ・ H ・ ↑ P1 (2)

従って、(2)式に(1)式の平面射影行列Hを代入することで、位置ベクトル↑P2は次の(3)式で表される。
↑P2=k・(R−R・↑t・(↑n/d))・↑P1 …(3)
Accordingly, the position vector ↑ P2 is expressed by the following equation (3) by substituting the planar projection matrix H of the equation (1) into the equation (2).
↑ P2 = k · (R T −R T · ↑ t · (↑ n / d) T ) · ↑ P1 (3)

ステップS8において、差分画像作成部48は、ステップS7で算出された平面射影行列Hを用いて、第1撮像画像Ia及び第2撮像画像Ibの間の差分画像Dを作成する。差分画像Dの作成に先立ち、差分画像作成部48は、第1撮像画像Iaの中から、人体M(図5B参照)に対応する歩行者64aを含む画像領域(以下、第1関心領域という。)を設定する。また、差分画像作成部48は、第2撮像画像Ibの中から、人体M(図5B参照)に対応する歩行者64bを含む画像領域(以下、第2関心領域という。)を設定する。   In step S8, the difference image creation unit 48 creates a difference image D between the first captured image Ia and the second captured image Ib by using the planar projection matrix H calculated in step S7. Prior to the creation of the difference image D, the difference image creation unit 48 includes an image region (hereinafter referred to as a first region of interest) including the pedestrian 64a corresponding to the human body M (see FIG. 5B) from the first captured image Ia. ) Is set. Moreover, the difference image creation part 48 sets the image area | region (henceforth a 2nd region of interest) containing the pedestrian 64b corresponding to the human body M (refer FIG. 5B) from the 2nd captured image Ib.

図6Aは、第1撮像画像Iaにおける歩行者64aの抽出例を示す概略説明図である。上述したステップS3において、対象物抽出部40は、道路60a及び歩行者64aの接触位置(すなわち、道路60aと歩行者64aとの接触点)を、第1基準位置70として決定したとする。例えば、差分画像作成部48は、第1基準位置70を目印として、予め定めた規則に従って矩形状の第1関心領域72を設定したとする。そうすると、本図に示すように、第1撮像画像Iaにおいて、破線で図示する歩行者64aをすべて含むように第1関心領域72が設定されている。   FIG. 6A is a schematic explanatory diagram illustrating an extraction example of the pedestrian 64a in the first captured image Ia. In step S3 described above, it is assumed that the object extraction unit 40 determines the contact position between the road 60a and the pedestrian 64a (that is, the contact point between the road 60a and the pedestrian 64a) as the first reference position 70. For example, it is assumed that the differential image creation unit 48 sets the first region of interest 72 having a rectangular shape according to a predetermined rule with the first reference position 70 as a mark. Then, as shown in the figure, in the first captured image Ia, the first region of interest 72 is set so as to include all the pedestrians 64a illustrated by broken lines.

ところが、図6Bに示すように、第2撮像画像Ibに対して図6Aと同一位置及び同一サイズの関心領域(第1関心領域72)を設定した場合、歩行者64bの両足の先端部を抽出できなくなる。これは、車両12の姿勢が突発的に変動(例えば、ピッチング)することで、歩行者64a、64bの間の予期しない変位に追従できないからである。この結果、得られた差分画像Dに基づいて、歩行者64a、64bの存在又は状態を正確に把握できない場合がある。   However, as shown in FIG. 6B, when a region of interest (first region of interest 72) having the same position and size as in FIG. 6A is set for the second captured image Ib, the tip portions of both feet of the pedestrian 64b are extracted. become unable. This is because an unexpected displacement between the pedestrians 64a and 64b cannot be followed by the sudden change (for example, pitching) of the posture of the vehicle 12. As a result, the presence or state of the pedestrians 64a and 64b may not be accurately grasped based on the obtained difference image D.

そこで、本実施の形態では、既に算出された平面射影行例Hを用いて、カメラ14の位置・姿勢の変化量を相殺した差分画像Dを作成する。ここで、差分画像作成部48は、平面射影行例Hを用いて、第1撮像画像Iaにおける各対象物(具体的には、歩行者64a)の第1基準位置70を、第2撮像画像Ibにおける各対象物(具体的には、歩行者64b)の第2基準位置74に変換する。   Therefore, in the present embodiment, the difference image D in which the amount of change in the position / orientation of the camera 14 is offset is created using the already calculated plane projection example H. Here, the difference image creation unit 48 uses the planar projection example H to determine the first reference position 70 of each object (specifically, the pedestrian 64a) in the first captured image Ia as the second captured image. It converts into each 2nd reference position 74 of each target object (specifically pedestrian 64b) in Ib.

差分画像作成部48は、上記した(3)式に従って、第1撮像画像Iaに応じた第1基準位置70を、第2撮像画像Ibに応じた第2基準位置74に変換する。そして、差分画像作成部48は、第2基準位置74を目印として、位置変化による見え方の変化や対象の移動成分等を考慮した上で、図6Aと同様の規則に従って矩形状の第2関心領域76を設定する。   The difference image creation unit 48 converts the first reference position 70 corresponding to the first captured image Ia to the second reference position 74 corresponding to the second captured image Ib according to the above-described equation (3). Then, the difference image creation unit 48 uses the second reference position 74 as a mark, takes into account the change in appearance due to the position change, the moving component of the object, and the like, and then takes the rectangular second interest according to the same rules as in FIG. 6A. Region 76 is set.

その結果、図7Bに示すように、第2撮像画像Ibにおいて、歩行者64bをすべて含むように第2関心領域76が設定することが可能になる。これにより、車両12の姿勢が突発的に変動した場合であっても、得られた差分画像Dからの歩行者64a(64b)の検知精度が向上する。   As a result, as shown in FIG. 7B, the second region of interest 76 can be set to include all the pedestrians 64b in the second captured image Ib. Thereby, even if it is a case where the attitude | position of the vehicle 12 changes suddenly, the detection precision of the pedestrian 64a (64b) from the obtained difference image D improves.

なお、第1撮像画像Iaに応じた第1基準位置70を、第2撮像画像Ibに応じた第2基準位置74に変換するのみならず、その逆変換、すなわち逆射影変換を施してもよい。この場合、第2撮像画像Ib内の第2基準位置74が既知であることを前提とする。第2撮像画像Ib内の投影点P2の位置ベクトル↑P2と、第1撮像画像Ia内の投影点P1の位置ベクトル↑P1との間の関係は、(2)式を変形することで、次の(4)式で与えられる。
↑P1=(1/k)・H−1・↑P2 …(4)
Note that the first reference position 70 corresponding to the first captured image Ia may be converted not only to the second reference position 74 corresponding to the second captured image Ib, but may also be subjected to inverse conversion, that is, reverse projection conversion. . In this case, it is assumed that the second reference position 74 in the second captured image Ib is known. The relationship between the position vector ↑ P2 of the projection point P2 in the second captured image Ib and the position vector ↑ P1 of the projection point P1 in the first captured image Ia can be expressed as follows by modifying equation (2). (4).
↑ P1 = (1 / k) · H −1 · ↑ P2 (4)

従って、(4)式に(1)式の平面射影行列Hを代入することで、位置ベクトル↑P1は次の(5)式で表される。ここで、「−1」の添字は、逆行列を表している。
↑P1=(1/k)・(R−R・↑t・(↑n/d)−1・↑P2 …(5)
Accordingly, the position vector ↑ P1 is expressed by the following equation (5) by substituting the planar projection matrix H of the equation (1) into the equation (4). Here, the subscript “−1” represents an inverse matrix.
↑ P1 = (1 / k) · (R T −R T · ↑ t · (↑ n / d) T ) −1 · ↑ P2 (5)

また、差分画像作成部48は、第1撮像画像Ia及び第2撮像画像Ibのうちいずれか一方の撮像画像(全部又は一部)を、平面射影行列Hに従ってマッピング(第1撮像画像Iaの場合は正射影変換、第2撮像画像Ibの場合は逆射影変換)した上で、画像の差分処理を施してもよい。これにより、カメラ14の位置・姿勢の変化に伴う、画像上での対象物(歩行者64a、64b)の形態の変化をも考慮に入れて差分画像Dを作成することができる。   Further, the difference image creation unit 48 maps one of the first captured image Ia and the second captured image Ib (all or a part) according to the planar projection matrix H (in the case of the first captured image Ia). May be subjected to image difference processing after normal projection conversion, or reverse projection conversion in the case of the second captured image Ib. Thereby, the difference image D can be created taking into consideration the change in the form of the object (pedestrians 64a and 64b) on the image accompanying the change in the position and orientation of the camera 14.

そして、差分画像作成部48は、差分処理に供される第1関心領域72、第2関心領域76のそれぞれの大きさを正規化する。これにより、第1関心領域72に応じた第1正規化画像、及び、第2関心領域76に応じた第2正規化画像がそれぞれ作成される。   Then, the difference image creation unit 48 normalizes the sizes of the first region of interest 72 and the second region of interest 76 that are subjected to the difference processing. Accordingly, a first normalized image corresponding to the first region of interest 72 and a second normalized image corresponding to the second region of interest 76 are created.

図9に示すように、第1正規化画像80aが示す歩行者64aの高さは、第2正規化画像80bが示す歩行者64bの高さに略一致する。同じサイズである第1正規化画像80a及び第2正規化画像80bに対して差分演算を施すことで、両者の差異領域が画像化された差分画像Dが得られる。なお、差異領域の検出精度を向上させるため、差分演算の前に、第1正規化画像80a及び第2正規化画像80bの相対的な位置関係を調整することが好ましい。本図例では、差異領域として、歩行者64bの両手84及び両足86がそれぞれ抽出される。   As shown in FIG. 9, the height of the pedestrian 64a indicated by the first normalized image 80a substantially matches the height of the pedestrian 64b indicated by the second normalized image 80b. By performing a difference calculation on the first normalized image 80a and the second normalized image 80b having the same size, a difference image D in which the difference area between the two is imaged is obtained. In order to improve the detection accuracy of the difference area, it is preferable to adjust the relative positional relationship between the first normalized image 80a and the second normalized image 80b before the difference calculation. In this example, both hands 84 and both feet 86 of the pedestrian 64b are extracted as the different areas.

このように、差分画像作成部48は、平面射影行列Hに基づいて、第1撮像画像Iaと第2撮像画像Ibとの間の、カメラ14の位置・姿勢(すなわち、車両12の運動成分)を相殺する車両運動成分相殺手段の一形態である。相殺演算が施される対象は撮像画像に限られることなく、撮像画像の中から抽出されるオブジェクト、特徴量等であってもよい。   As described above, the difference image creating unit 48 is based on the planar projection matrix H, and the position / posture of the camera 14 between the first captured image Ia and the second captured image Ib (that is, the motion component of the vehicle 12). This is one form of vehicle motion component canceling means for canceling The target to which the cancellation calculation is performed is not limited to the captured image, but may be an object extracted from the captured image, a feature amount, or the like.

ステップS9において、移動対象物検知部50は、ステップS8で作成された少なくとも1つの差分画像Dに基づいて、車両12の周辺で移動する対象物をそれぞれ検知する。ここで、複数(2以上)の差分画像Dを用いる場合、第1撮像時点T1及び第2撮像時点T2のうち少なくとも一方が異なっている必要がある。例えば、移動対象物検知部50は、図9の差分画像D内の抽出成分(両手84及び両足86)の特徴から、路面S上の所定位置に人体Mが存在することを検知する。   In step S9, the moving object detection unit 50 detects each object that moves around the vehicle 12 based on at least one difference image D created in step S8. Here, when a plurality of (two or more) difference images D are used, at least one of the first imaging time T1 and the second imaging time T2 needs to be different. For example, the moving object detection unit 50 detects the presence of the human body M at a predetermined position on the road surface S from the characteristics of the extracted components (both hands 84 and both feet 86) in the difference image D in FIG.

ステップS10において、動き検出部52は、ステップS9で検知された各対象物の動きを検出する。例えば、動き検出部52は、車両12と人体Mとの間の距離及び各フレーム間での歩行者64a、64bの変位量から、人体Mの移動量及び移動方向を推定してもよい。また、動き検出部52は、図9の差分画像D内の抽出成分(両手84及び両足86)の特徴から、人体Mが歩行中であることを検出してもよい。   In step S10, the motion detection unit 52 detects the motion of each object detected in step S9. For example, the motion detection unit 52 may estimate the moving amount and moving direction of the human body M from the distance between the vehicle 12 and the human body M and the displacement amount of the pedestrians 64a and 64b between the frames. Further, the motion detection unit 52 may detect that the human body M is walking from the characteristics of the extracted components (both hands 84 and both feet 86) in the difference image D in FIG.

ステップS11において、対象物抽出部40は、抽出対象(監視対象)としての各対象物を更新する。例えば、対象物抽出部40は、カメラ14の撮像領域内に新たに進入した対象物を追加するとともに、前記撮像領域の外に進出した対象物を除外する。また、第1正規化画像80a、第2正規化画像80b間の一致性が所定の閾値よりも低いと判断された場合、その対象物を監視下から除外してもよい。   In step S11, the target object extraction unit 40 updates each target object as an extraction target (monitoring target). For example, the object extraction unit 40 adds a new object that has entered the imaging area of the camera 14 and excludes an object that has advanced outside the imaging area. Further, when it is determined that the coincidence between the first normalized image 80a and the second normalized image 80b is lower than a predetermined threshold value, the object may be excluded from being monitored.

ステップS12において、対象物抽出部40は、ステップS10で更新された各対象物の基準位置を更新する。図8A及び図8Bに示す歩行者64a(人体M)の例では、対象物抽出部40は、人体Mに応じた基準位置を、第1基準位置70から第2基準位置74に更新・設定する。   In step S12, the object extraction unit 40 updates the reference position of each object updated in step S10. In the example of the pedestrian 64a (human body M) shown in FIGS. 8A and 8B, the object extraction unit 40 updates and sets the reference position corresponding to the human body M from the first reference position 70 to the second reference position 74. .

ステップS13において、ECU22は、次回の演算処理に必要なデータを記憶部34に記憶させる。例えば、ステップS8で作成された差分画像Dや、ステップS11で更新された抽出対象の属性、ステップS12で更新された基準位置等が挙げられる。   In step S13, the ECU 22 causes the storage unit 34 to store data necessary for the next calculation process. For example, the difference image D created in step S8, the attribute of the extraction target updated in step S11, the reference position updated in step S12, and the like can be mentioned.

このように、ECU22は、撮像のフレーム毎に、ステップS1〜S13に従って動作する。上記では、第1フレーム及び第2フレームの関係下での差分処理について説明したが、第nフレーム(nは自然数)に拡張した場合の動作について、図10を参照しながら説明する。ここでは、第nフレーム目の撮像画像をI(n)と表記する。   In this way, the ECU 22 operates according to steps S1 to S13 for each frame of imaging. In the above description, the difference processing under the relationship between the first frame and the second frame has been described, but the operation when expanding to the nth frame (n is a natural number) will be described with reference to FIG. Here, the captured image of the nth frame is denoted as I (n).

図10に示すように、第(n+1)フレームにおいて、現時点での撮像画像I(n+1)を取得した後、変換行列算出部46は、直近の撮像画像I(n)から現時点での撮像画像I(n+1)にマッピングする平面射影行列H(n)を作成する。そして、差分画像作成部48は、撮像画像I(n)に対して平面射影行列H(n)に基づく正射影変換を施した撮像画像と、撮像画像I(n+1)との間の差分画像D(n+1)を作成する。ところで、その1つ前のフレームである第nフレームにおいて、上記と同様にして、差分画像作成部48は、差分画像D(n)を既に作成している。   As illustrated in FIG. 10, after obtaining the current captured image I (n + 1) in the (n + 1) th frame, the transformation matrix calculation unit 46 calculates the current captured image I from the most recent captured image I (n). A planar projection matrix H (n) that maps to (n + 1) is created. Then, the difference image creation unit 48 calculates the difference image D between the captured image I (n + 1) and the captured image I (n) obtained by performing orthogonal projection transformation based on the planar projection matrix H (n). (N + 1) is created. By the way, in the nth frame that is the previous frame, the difference image creation unit 48 has already created the difference image D (n) in the same manner as described above.

その後、移動対象物検知部50は、2つの差分画像D(n+1)、D(n)に対して所定の演算、例えばAND演算を行うことで、動き検出画像Im(n)を作成する。動き検出画像Im(n)を参照することで、3つのフレーム間{第(n−1)、第n、及び第(n+1)フレーム}で移動している対象物の存在を検出することができる。あわせて、動き検出部52は、差分画像D(n)、動き検出画像Im(n)を作成する過程で得られた画像情報や位置情報に基づいて、各対象物の動きをそれぞれ検出する。   Thereafter, the moving object detection unit 50 creates a motion detection image Im (n) by performing a predetermined operation, for example, an AND operation, on the two difference images D (n + 1) and D (n). By referring to the motion detection image Im (n), it is possible to detect the presence of an object moving between three frames {(n-1) th, nth, and (n + 1) th frames}. . In addition, the motion detection unit 52 detects the motion of each object based on the image information and the position information obtained in the process of creating the difference image D (n) and the motion detection image Im (n).

この動作を遂次実行することで、車両周辺監視装置10は、所定の時間間隔で、車両12の前方に存在する対象物(例えば、図5Bの人体M)を監視することができる。ところで、本実施の形態に係る検知処理(以下、本検知処理)を適用することで、カメラ14の位置・姿勢の変化量を相殺する効果の他、対象物の検出精度に関する別の作用効果も得られる。以下、その効果について、図11A及び図11Bを参照しながら説明する。   By sequentially executing this operation, the vehicle periphery monitoring apparatus 10 can monitor an object (for example, the human body M in FIG. 5B) existing in front of the vehicle 12 at a predetermined time interval. By the way, in addition to the effect of offsetting the amount of change in the position and orientation of the camera 14 by applying the detection process according to the present embodiment (hereinafter referred to as the main detection process), there are other effects related to the detection accuracy of the object. can get. Hereinafter, the effect will be described with reference to FIGS. 11A and 11B.

上述した(1)式に示す平面射影行列Hは、路面S上に存在する各投影点の射影変換を表す行列である。すなわち、平面射影行列Hは、路面S上に存在する対象物の位置・姿勢を補正するのに適した行列である。一方、平面射影行列Hは、路面Sから3次元的(車幅方向、奥行き方向及び高さ方向)に離れた対象物の位置・姿勢を補正するのに必ずしも適していない。つまり、平面射影行列Hによる位置変換精度は、路面Sに近い対象物ほど高くなり、路面Sから遠い対象物ほど低くなるという特徴がある。   The plane projection matrix H shown in the above-described equation (1) is a matrix representing the projection transformation of each projection point existing on the road surface S. That is, the planar projection matrix H is a matrix suitable for correcting the position / posture of an object existing on the road surface S. On the other hand, the planar projection matrix H is not necessarily suitable for correcting the position / posture of an object that is three-dimensionally separated from the road surface S (the vehicle width direction, the depth direction, and the height direction). That is, the position conversion accuracy based on the planar projection matrix H is higher as the object is closer to the road surface S and lower as the object is farther from the road surface S.

図11Aは、第1撮像画像Iaの中の第1関心領域100の射影変換例を表す概略説明図である。監視対象でない物体に属する交通標識(図示しない。)は、長尺のポールの先端部に円状の標識板が固定されてなり、路面S(図5B参照)の側に立設されている。そして、第1関心領域100の右下部には、上記標識板の一面に記されたマーク102が存在する。   FIG. 11A is a schematic explanatory diagram illustrating an example of projective transformation of the first region of interest 100 in the first captured image Ia. A traffic sign (not shown) belonging to an object not to be monitored has a circular sign plate fixed to the end of a long pole, and stands on the road surface S (see FIG. 5B). In the lower right part of the first region of interest 100, there is a mark 102 marked on one side of the sign board.

ここで、図6A〜図7Bで説明したように、差分画像作成部48は、第1関心領域100を特定する第1基準位置104に対して平面射影行列Hに基づく正射影変換を施すことで、第2基準位置106及び第2関心領域108を得る。ところが、第2撮像画像Ibの中の第2関心領域108の右下隅には、マーク102の形状と異なるマーク110が存在する。なぜならば、標識板は、基準面である路面Sに対して遥か上方に位置し、第1撮像画像Ia内におけるマーク102近傍での位置変換精度が高くないからである。   Here, as described with reference to FIGS. 6A to 7B, the difference image creation unit 48 performs orthographic transformation based on the planar projection matrix H on the first reference position 104 that specifies the first region of interest 100. , A second reference position 106 and a second region of interest 108 are obtained. However, a mark 110 different from the shape of the mark 102 exists at the lower right corner of the second region of interest 108 in the second captured image Ib. This is because the sign board is located far above the road surface S, which is the reference plane, and the position conversion accuracy in the vicinity of the mark 102 in the first captured image Ia is not high.

その結果、移動対象物検知部50及び動き検出部52は、撮像のフレーム間で、標識板(マーク102、110)が大きく変動したものと検知する。そして、対象物抽出部40は、検出異常であるとして、この標識板を抽出対象(監視対象)から除外することができる。このように、本検知処理を遂次実行することで、別異の処理を行うことなく、通常の画像認識処理の際に誤検出し易い物体(例えば、標識・看板等)を監視対象物から除外することができる。   As a result, the moving object detection unit 50 and the motion detection unit 52 detect that the sign board (marks 102 and 110) has changed greatly between the frames of the imaging. And the target object extraction part 40 can exclude this marker board from extraction object (monitoring object) noting that it is detection abnormality. In this way, by sequentially executing this detection process, an object (for example, a sign / signboard, etc.) that is likely to be erroneously detected during normal image recognition processing can be detected from the monitoring target without performing different processes. Can be excluded.

図11Bは、第1撮像画像Iaの別の例示図である。第1撮像画像Iaには、車両12が走行する道路領域(以下、単に「道路112」)、道路112を横切る陸橋領域(以下、単に「陸橋114」)、道路112上に存在する歩行者領域(以下、単に「道路歩行者116」)、陸橋114上に存在する歩行者領域(以下、単に「陸橋歩行者118」)がそれぞれ存在する。   FIG. 11B is another exemplary view of the first captured image Ia. The first captured image Ia includes a road area where the vehicle 12 travels (hereinafter simply “road 112”), a crossover area that crosses the road 112 (hereinafter simply “overpass 114”), and a pedestrian area existing on the road 112. (Hereinafter simply “road pedestrian 116”) and pedestrian areas existing on the overpass 114 (hereinafter simply “overpass pedestrian 118”).

図11A例の場合と同様に考察すると、道路112上の地点120に近い道路歩行者116に関し、平面射影行列Hを用いて、フレーム間での位置変化を正確に求めることができる。これにより、移動対象物検知部50は、車両12の運動成分を相殺した画像を利用して、対象物としての道路歩行者116を正しく検知することができる。   Considering in the same manner as in the example of FIG. 11A, regarding the road pedestrian 116 close to the point 120 on the road 112, the change in position between frames can be accurately obtained using the planar projection matrix H. Thereby, the moving object detection part 50 can detect the road pedestrian 116 as an object correctly using the image which canceled the motion component of the vehicle 12. FIG.

一方、道路112上の地点122から遠い陸橋歩行者118に関し、平面射影行列Hを用いて、フレーム間での位置変化を正確に求めることができない。これにより、移動対象物検知部50は、陸橋歩行者118を対象物から除外することができる。   On the other hand, with respect to the overpass pedestrian 118 far from the point 122 on the road 112, the position change between frames cannot be accurately obtained using the planar projection matrix H. Thereby, the moving target object detection part 50 can exclude the overpass pedestrian 118 from a target object.

このように、本検知処理を用いることで、道路112上に存在する物体(道路歩行者116)の検知・認識精度を向上することができる。これは、道路112上に存在する物体ほど車両12との衝突の危険度が高いため特に好ましい。逆に、車両12との衝突の危険度が低い物体、すなわち道路112から離れた位置に存在する物体(陸橋歩行者118)については、対象物として正しく検知できなくなるため、煩わしい過警報等を抑制することができる。   In this way, by using this detection process, the detection / recognition accuracy of an object (road pedestrian 116) existing on the road 112 can be improved. This is particularly preferable because an object present on the road 112 has a higher risk of collision with the vehicle 12. Conversely, an object with a low risk of collision with the vehicle 12, that is, an object existing at a position away from the road 112 (overpass pedestrian 118) cannot be correctly detected as an object, and thus annoying over-alarms and the like are suppressed. can do.

ところで、本検知処理は、通常想定される動作範囲内において効果的に機能する。しかし、本検知処理によって各対象物の検知精度が十分に確保できない場合もある。そこで、演算部30は、複数の検知処理(本検知処理を含む。)を実行可能であり、撮像画像を取得した都度に本検知処理の適性を判別した上で、実行する検知処理を1つ選択してもよい。   By the way, this detection process functions effectively within the normally assumed operation range. However, there are cases where the detection accuracy of each object cannot be sufficiently secured by this detection process. Therefore, the calculation unit 30 can execute a plurality of detection processes (including the main detection process), and determines the suitability of the main detection process each time a captured image is acquired, and then executes one detection process. You may choose.

第1の適性として、撮像画像の中から道路領域を抽出可能であるか否かを考慮してもよい。本検知処理を適用するために、第1撮像画像Ia内の道路60a(図5Bの路面S)をフレーム毎に抽出する必要があるからである。例えば、自己の車両12のすぐ前方に他の車両が存在する等、カメラ14の撮像視野から道路60aが遮られる場合、平面パラメータを高精度に推定できなくなり、各対象物の検知精度が低下する可能性が高い。演算部30は、この状態を検出する際、エピポール、フロー(動きベクトル)等に関する位置情報を利用してもよい。   As a first aptitude, it may be considered whether a road region can be extracted from a captured image. This is because the road 60a (the road surface S in FIG. 5B) in the first captured image Ia needs to be extracted for each frame in order to apply this detection process. For example, when the road 60a is obstructed from the imaging field of view of the camera 14, such as when another vehicle is present in front of the own vehicle 12, the plane parameter cannot be estimated with high accuracy, and the detection accuracy of each object is reduced. Probability is high. When detecting this state, the arithmetic unit 30 may use position information regarding an epipole, a flow (motion vector), and the like.

第2の適性として、平面射影行列Hの算出精度を十分に確保できるか否かを考慮してもよい。例えば、自己の車両12の走行速度が極めて低い場合、平面射影行列Hの算出誤差が生じ易くなり、各対象物の検知精度が低下する可能性が高い。そこで、演算部30は、車速センサ16から取得した車速Vsが所定の閾値を上回るか否かで判別してもよい。   As a second aptitude, it may be considered whether the calculation accuracy of the planar projection matrix H can be sufficiently secured. For example, when the traveling speed of the vehicle 12 is extremely low, a calculation error of the plane projection matrix H is likely to occur, and there is a high possibility that the detection accuracy of each target object is lowered. Therefore, the calculation unit 30 may determine whether or not the vehicle speed Vs acquired from the vehicle speed sensor 16 exceeds a predetermined threshold value.

以上のように、本発明に係る車両周辺監視装置10は、車両12に搭載され、車両12の走行中に異なる撮像時点T1、T2で撮像することで複数の撮像画像Ia、Ibを取得するカメラ14と、第1撮像時点T1にて第1撮像画像Iaが撮像された際のカメラ14の位置・姿勢を基準とした、第2撮像時点T2にて第2撮像画像Ibが撮像された際のカメラ14の位置・姿勢の変化量を表す並進ベクトル↑t及び回転行列Rを算出する変化量算出部44と、並進ベクトル↑t及び回転行列Rに基づいて、第1撮像画像Iaが示す第1撮像面から第2撮像画像Ibが示す第2撮像面への射影変換を表す平面射影行列Hを算出する変換行列算出部46と、平面射影行列Hに基づいて、第1撮像画像Iaと第2撮像画像Ibとの間の車両12の運動成分を相殺した差分画像Dを作成する差分画像作成部48と、少なくとも1つの差分画像Dに基づいて、車両12の周辺で移動する対象物(例えば、人体M)を検知する移動対象物検知部50とを備える。   As described above, the vehicle periphery monitoring device 10 according to the present invention is mounted on the vehicle 12 and acquires a plurality of captured images Ia and Ib by capturing images at different imaging time points T1 and T2 while the vehicle 12 is traveling. 14 and when the second captured image Ib is captured at the second imaging time point T2 with reference to the position and orientation of the camera 14 when the first captured image Ia is captured at the first imaging time point T1. Based on the translation vector ↑ t and the rotation matrix R that represent the amount of change in the position and orientation of the camera 14 and the translation vector ↑ t and the rotation matrix R, the first captured image Ia indicates the first. Based on the plane projection matrix H, a conversion matrix calculation unit 46 that calculates a plane projection matrix H representing projection conversion from the imaging plane to the second imaging plane indicated by the second captured image Ib, and the first captured image Ia and the second The luck of the vehicle 12 between the captured image Ib A difference image creation unit 48 that creates a difference image D with components canceled out, and a moving object detection unit that detects an object (for example, a human body M) that moves around the vehicle 12 based on at least one difference image D. 50.

このように、カメラ14の位置・姿勢の変化量を表す並進ベクトル↑t及び回転行列Rを算出する変化量算出部44と、並進ベクトル↑t及び回転行列Rから算出された平面射影行列Hに基づいて、第1撮像画像Iaと第2撮像画像Ibとの間の車両12の運動成分を相殺する車両運動成分相殺手段(例えば、差分画像作成部48)とを設けたので、車両12の姿勢の変動に起因して生じる、カメラ14の位置・姿勢の変化量に等しい車両12の運動成分を相殺できる。これにより、車両12の姿勢が突発的に変動した場合であっても、車両12の周辺で移動する対象物(人体M)の存在を正確に検知できる。   As described above, the translation vector ↑ t representing the change amount of the position / orientation of the camera 14 and the change amount calculation unit 44 for calculating the rotation matrix R, and the plane projection matrix H calculated from the translation vector ↑ t and the rotation matrix R are used. Since the vehicle motion component canceling means (for example, the difference image creation unit 48) for canceling the motion component of the vehicle 12 between the first captured image Ia and the second captured image Ib is provided based on the attitude of the vehicle 12 It is possible to cancel the motion component of the vehicle 12 equal to the amount of change in the position / posture of the camera 14 caused by the fluctuation of the camera 14. Thereby, even if the posture of the vehicle 12 is suddenly changed, the presence of the object (human body M) that moves around the vehicle 12 can be accurately detected.

ここで、カメラ14の位置・姿勢の変化量(車両12の運動成分)を相殺した画像は、差分画像Dに限られず、勾配法・ブロックマッチング法等を用いて得たオプティカルフローを示す画像であってもよい。特に、画像差分法を適用することで、他の画像処理手法と比べて演算処理量を大幅に低減できる。   Here, the image in which the change amount of the position / orientation of the camera 14 (the motion component of the vehicle 12) is canceled is not limited to the difference image D, and is an image showing an optical flow obtained by using a gradient method, a block matching method, or the like. There may be. In particular, by applying the image difference method, the amount of calculation processing can be significantly reduced as compared with other image processing methods.

なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, it can change freely in the range which does not deviate from the main point of this invention.

本実施の形態では、単眼カメラ(カメラ14)により得られた撮像画像に対して上記した画像を作成しているが、複眼カメラ(ステレオカメラ)でも同様の作用効果が得られることは言うまでもない。   In the present embodiment, the above-described image is created for the captured image obtained by the monocular camera (camera 14). However, it goes without saying that a similar effect can be obtained even with a compound-eye camera (stereo camera).

10…車両周辺監視装置 12…車両
14…カメラ 22…ECU
28…入出力部 30…演算部
34…記憶部 40…対象物抽出部
42…平面パラメータ推定部 44…変化量算出部
46…変換行列算出部 48…差分画像作成部
50…移動対象物検知部 52…動き検出部
60a、60b、112…道路 64a、64b…歩行者
70、104…第1基準位置 72、100…第1関心領域
74、106…第2基準位置 76、108…第2関心領域
116…道路歩行者 118…陸橋歩行者
Ia…第1撮像画像 Ib…第2撮像画像
I(n−1)、I(n)、I(n+1)…撮像画像
H…平面射影行列 ↑t…並進ベクトル
M…人体 R…回転行列
S…路面
DESCRIPTION OF SYMBOLS 10 ... Vehicle periphery monitoring apparatus 12 ... Vehicle 14 ... Camera 22 ... ECU
DESCRIPTION OF SYMBOLS 28 ... Input / output part 30 ... Operation part 34 ... Storage part 40 ... Object extraction part 42 ... Plane parameter estimation part 44 ... Change amount calculation part 46 ... Conversion matrix calculation part 48 ... Difference image creation part 50 ... Moving target object detection part 52 ... Motion detectors 60a, 60b, 112 ... Roads 64a, 64b ... Pedestrians 70, 104 ... First reference position 72, 100 ... First region of interest 74, 106 ... Second reference position 76, 108 ... Second region of interest 116 ... Road pedestrian 118 ... Overpass pedestrian Ia ... first captured image Ib ... second captured image I (n-1), I (n), I (n + 1) ... captured image H ... planar projection matrix ↑ t ... translation Vector M ... human body R ... rotation matrix S ... road surface

Claims (10)

車両に搭載され、該車両の走行中に異なる時点で撮像することで複数の撮像画像を取得する撮像部と、
第1撮像時点にて第1撮像画像が撮像された際の前記撮像部の位置・姿勢を基準とした、第2撮像時点にて第2撮像画像が撮像された際の前記撮像部の位置・姿勢の変化量を表す並進ベクトル及び回転行列を算出する変化量算出部と、
前記変化量算出部により算出された前記並進ベクトル及び前記回転行列に基づいて、前記第1撮像画像が示す第1撮像面から前記第2撮像画像が示す第2撮像面への射影変換を表す平面射影行列を算出する変換行列算出部と、
前記変換行列算出部により算出された前記平面射影行列に基づいて、前記第1撮像画像と前記第2撮像画像との間の前記車両の運動成分を相殺する車両運動成分相殺手段と
を備えることを特徴とする車両周辺監視装置。
An imaging unit that is mounted on a vehicle and acquires a plurality of captured images by capturing images at different times while the vehicle is running;
Based on the position and orientation of the imaging unit when the first captured image is captured at the first imaging time point, the position and position of the imaging unit when the second captured image is captured at the second imaging time point A change amount calculation unit for calculating a translation vector and a rotation matrix representing the amount of change in posture;
A plane representing projective transformation from the first imaging surface indicated by the first captured image to the second imaging surface indicated by the second captured image based on the translation vector and the rotation matrix calculated by the change amount calculation unit. A transformation matrix calculation unit for calculating a projection matrix;
Vehicle motion component canceling means for canceling the motion component of the vehicle between the first captured image and the second captured image based on the planar projection matrix calculated by the conversion matrix calculating unit. A vehicle periphery monitoring device.
請求項1記載の車両周辺監視装置において、
前記変換行列算出部は、前記第1撮像画像の中に含まれる道路領域から前記第2撮像画像の中に含まれる道路領域への射影変換を表す前記平面射影行列を算出することを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The transformation matrix calculation unit calculates the planar projection matrix representing projection transformation from a road area included in the first captured image to a road area included in the second captured image. Vehicle periphery monitoring device.
請求項1又は2に記載の車両周辺監視装置において、
前記車両運動成分相殺手段は、前記車両の運動成分を相殺した画像を作成する画像作成部であることを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 or 2,
The vehicle periphery monitoring device, wherein the vehicle motion component canceling unit is an image creating unit that creates an image in which the motion component of the vehicle is cancelled.
請求項3記載の車両周辺監視装置において、
前記画像作成部により作成された少なくとも1つの前記画像に基づいて、前記車両の周辺で移動する対象物を検知する移動対象物検知部をさらに備えることを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 3,
A vehicle periphery monitoring device, further comprising a moving object detection unit that detects an object moving around the vehicle based on at least one of the images generated by the image generation unit.
請求項4記載の車両周辺監視装置において、
前記移動対象物検知部は、前記第1撮像時点及び前記第2撮像時点のうち少なくとも一方が異なる複数の前記画像に基づいて前記対象物を検知することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 4,
The said moving target object detection part detects the said target object based on the several said image from which at least one differs among the said 1st imaging time points and the said 2nd imaging time points, The vehicle periphery monitoring apparatus characterized by the above-mentioned.
請求項3〜5のいずれか1項に記載の車両周辺監視装置であって、
前記画像作成部は、前記画像として差分画像を作成することを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 3 to 5,
The vehicle periphery monitoring device, wherein the image creation unit creates a difference image as the image.
請求項3〜6のいずれか1項に記載の車両周辺監視装置において、
前記画像作成部は、前記対象物を含む第1関心領域を前記第1撮像画像の中から抽出し、前記対象物を含む第2関心領域を前記第2撮像画像の中から抽出した後、前記第1関心領域と前記第2関心領域との間の前記画像を作成することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 3 to 6,
The image creation unit extracts a first region of interest including the object from the first captured image, extracts a second region of interest including the object from the second captured image, A vehicle periphery monitoring device that creates the image between a first region of interest and the second region of interest.
請求項7記載の車両周辺監視装置において、
前記画像作成部は、前記第1関心領域の位置を特定する第1基準位置に対して前記平面射影行列に基づく正射影変換を施した位置を、前記第2関心領域の位置を特定する第2基準位置として前記画像を作成することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 7,
The image creation unit specifies a position obtained by performing orthographic transformation based on the planar projection matrix with respect to a first reference position that specifies the position of the first region of interest, and specifies a position of the second region of interest. A vehicle periphery monitoring device, wherein the image is created as a reference position.
請求項7記載の車両周辺監視装置において、
前記画像作成部は、前記第2関心領域の位置を特定する第2基準位置に対して前記平面射影行列に基づく逆射影変換を施した位置を、前記第1関心領域の位置を特定する第1基準位置として前記画像を作成することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 7,
The image creation unit specifies a position obtained by performing a reverse projection transformation based on the planar projection matrix with respect to a second reference position that specifies the position of the second region of interest, and specifies a position of the first region of interest. A vehicle periphery monitoring device, wherein the image is created as a reference position.
請求項3〜9のいずれか1項に記載の車両周辺監視装置において、
前記画像作成部は、前記第1撮像画像に対して前記平面射影行列に基づく正射影変換を施した撮像画像と前記第2撮像画像との間の前記画像、及び、前記第2撮像画像に前記平面射影行列に基づく逆射影変換を施した撮像画像と前記第1撮像画像との間の前記画像のうちいずれか一方を作成することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 3 to 9,
The image creation unit includes the captured image obtained by performing orthogonal projection transformation based on the planar projection matrix on the first captured image and the second captured image, and the second captured image. A vehicle periphery monitoring device that creates one of the images between a captured image subjected to reverse projection transformation based on a planar projection matrix and the first captured image.
JP2012179217A 2012-08-13 2012-08-13 Vehicle periphery monitoring device Expired - Fee Related JP5695000B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012179217A JP5695000B2 (en) 2012-08-13 2012-08-13 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012179217A JP5695000B2 (en) 2012-08-13 2012-08-13 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2014038401A true JP2014038401A (en) 2014-02-27
JP5695000B2 JP5695000B2 (en) 2015-04-01

Family

ID=50286513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012179217A Expired - Fee Related JP5695000B2 (en) 2012-08-13 2012-08-13 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5695000B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101888171B1 (en) * 2017-11-16 2018-08-13 엘아이지넥스원 주식회사 Method and device for recognizing environment based on position information of unmanned surface vessel
JP2019518253A (en) * 2015-12-04 2019-06-27 ヴィオニア スウェーデン エービー Automotive vision system and method of controlling a vision system
JP6645642B1 (en) * 2019-05-30 2020-02-14 三菱電機ビルテクノサービス株式会社 Elevator passenger detection device and elevator system
US11010622B2 (en) * 2018-11-02 2021-05-18 Toyota Research Institute, Inc. Infrastructure-free NLoS obstacle detection for autonomous cars
CN113496144A (en) * 2020-03-19 2021-10-12 杭州海康威视数字技术股份有限公司 Vehicle information detection method and device and electronic equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005626A (en) * 2000-06-27 2002-01-09 Honda Motor Co Ltd Position detector
US6993159B1 (en) * 1999-09-20 2006-01-31 Matsushita Electric Industrial Co., Ltd. Driving support system
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2008227646A (en) * 2007-03-09 2008-09-25 Clarion Co Ltd Obstacle detector
JP2012003662A (en) * 2010-06-21 2012-01-05 Nissan Motor Co Ltd Moving distance detector and moving distance detection method
JP2012052884A (en) * 2010-08-31 2012-03-15 Honda Motor Co Ltd Range finder with the use of on-vehicle camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993159B1 (en) * 1999-09-20 2006-01-31 Matsushita Electric Industrial Co., Ltd. Driving support system
JP2002005626A (en) * 2000-06-27 2002-01-09 Honda Motor Co Ltd Position detector
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2008227646A (en) * 2007-03-09 2008-09-25 Clarion Co Ltd Obstacle detector
JP2012003662A (en) * 2010-06-21 2012-01-05 Nissan Motor Co Ltd Moving distance detector and moving distance detection method
JP2012052884A (en) * 2010-08-31 2012-03-15 Honda Motor Co Ltd Range finder with the use of on-vehicle camera

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019518253A (en) * 2015-12-04 2019-06-27 ヴィオニア スウェーデン エービー Automotive vision system and method of controlling a vision system
US10706589B2 (en) 2015-12-04 2020-07-07 Veoneer Sweden Ab Vision system for a motor vehicle and method of controlling a vision system
KR101888171B1 (en) * 2017-11-16 2018-08-13 엘아이지넥스원 주식회사 Method and device for recognizing environment based on position information of unmanned surface vessel
US11010622B2 (en) * 2018-11-02 2021-05-18 Toyota Research Institute, Inc. Infrastructure-free NLoS obstacle detection for autonomous cars
JP6645642B1 (en) * 2019-05-30 2020-02-14 三菱電機ビルテクノサービス株式会社 Elevator passenger detection device and elevator system
WO2020240783A1 (en) * 2019-05-30 2020-12-03 三菱電機ビルテクノサービス株式会社 Passenger detecting device for elevator, and elevator system
CN113496144A (en) * 2020-03-19 2021-10-12 杭州海康威视数字技术股份有限公司 Vehicle information detection method and device and electronic equipment
CN113496144B (en) * 2020-03-19 2023-10-27 杭州海康威视数字技术股份有限公司 Vehicle information detection method and device and electronic equipment

Also Published As

Publication number Publication date
JP5695000B2 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
US8854231B2 (en) Parking assistance system and method
US20190251374A1 (en) Travel assistance device and computer program
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP4869745B2 (en) Depression angle calculation device, depression angle calculation method, depression angle calculation program, and image processing apparatus
JP5695000B2 (en) Vehicle periphery monitoring device
WO2012029382A1 (en) Vehicle surroundings monitoring device
JP6337811B2 (en) Image processing apparatus and image processing method
JP2007310706A (en) Vehicle periphery monitoring device
CN111279354A (en) Image processing method, apparatus and computer-readable storage medium
JP2013257872A (en) Object tracking method and system from parallax figure
JP2017068424A (en) Attitude measuring apparatus and attitude measurement method
EP2988097B1 (en) Driving support system, method, and program
JP7337617B2 (en) Estimation device, estimation method and program
JP2008197722A (en) Face tracking device
JP2017016474A (en) Obstacle detection system and obstacle detection method
KR101658089B1 (en) Method for estimating a center lane for lkas control and apparatus threof
JP2011209070A (en) Image processor
JP2015215299A (en) Object position estimation device
JP2007278869A (en) Range finder, periphery monitor for vehicle, range finding method, and program for range finding
JP4629638B2 (en) Vehicle periphery monitoring device
JP2004038760A (en) Traveling lane recognition device for vehicle
JP2004272694A (en) Apparatus and method for object recognition
JP5430213B2 (en) Vehicle periphery monitoring device
JP5330341B2 (en) Ranging device using in-vehicle camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150205

R150 Certificate of patent or registration of utility model

Ref document number: 5695000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees