JP2011232139A - Periphery monitoring device for vehicle - Google Patents

Periphery monitoring device for vehicle Download PDF

Info

Publication number
JP2011232139A
JP2011232139A JP2010101898A JP2010101898A JP2011232139A JP 2011232139 A JP2011232139 A JP 2011232139A JP 2010101898 A JP2010101898 A JP 2010101898A JP 2010101898 A JP2010101898 A JP 2010101898A JP 2011232139 A JP2011232139 A JP 2011232139A
Authority
JP
Japan
Prior art keywords
camera
radar
image
predetermined
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010101898A
Other languages
Japanese (ja)
Other versions
JP5455772B2 (en
Inventor
Masaki Negoro
昌樹 根來
Morimichi Nishigaki
守道 西垣
Yuji Yokochi
裕次 横地
Atsuo Eguchi
敦央 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010101898A priority Critical patent/JP5455772B2/en
Publication of JP2011232139A publication Critical patent/JP2011232139A/en
Application granted granted Critical
Publication of JP5455772B2 publication Critical patent/JP5455772B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a periphery monitoring device for a vehicle, comprising a radar that detects an object around the vehicle, a camera that captures an image around the vehicle, and means for identifying a predetermined region corresponding the position of the object detected by the radar in the corresponding image captured by the camera, and identifying the object within the predetermined region.SOLUTION: The periphery monitoring device comprises means for calculating a phase shift amount between the time variation of the movement amount of the prescribed region in the identified corresponding image and the time variation of the movement amount of the predetermined object in the image captured by the camera, phase correction means that performs phase correction of the output signal of the radar or the camera so that the phase shift amount becomes zero, and a determination means that determines that the radar or the camera has an optical axis deviation if the direction of the position deviation of the prescribed region with respect to the predetermined object in the corresponding image is always the same, and determines that there is a synchronization shift between the radar and the camera if the direction of the position deviation of the prescribed region is opposite to the moving direction of the predetermined object.

Description

本発明は、車両の周辺監視装置に関し、より具体的には、車両の周辺監視装置におけるレーザとカメラの同期ずれ(位相ずれ)あるいは光軸ずれを検出し補正することに関する。   The present invention relates to a vehicle periphery monitoring apparatus, and more specifically, to detecting and correcting a synchronization shift (phase shift) or an optical axis shift between a laser and a camera in a vehicle periphery monitoring apparatus.

特許文献1は、歩行者検出装置を開示する。この歩行者検出装置は、スキャン式のレーザレーダと赤外線カメラを併用し、レーザレーダから得られる歩行者候補の検出情報を基に赤外線画像中の歩行者を検出する。   Patent document 1 discloses a pedestrian detection device. This pedestrian detection device uses a scanning laser radar and an infrared camera together, and detects a pedestrian in an infrared image based on detection information of a pedestrian candidate obtained from the laser radar.

特開2003−302470号公報JP 2003-302470 A

しかし、レーザレーダと赤外線カメラの出力信号に同期ずれ(位相ずれ)があると、両者の検出範囲(位置)がずれてしまい、レーザレーダの検出情報に対応した赤外線画像中の歩行者を検出することができない場合が生ずる。この同期ずれは、スキャンを伴うレーザレーダによる物体の検出時間(例えば約120ms)が赤外線カメラによる当該物体を含む画像の取得時間(例えば約33ms)よりも長くなってしまうことが原因で生ずる。   However, if there is a synchronization shift (phase shift) between the output signals of the laser radar and the infrared camera, the detection range (position) of the two shifts, and a pedestrian in the infrared image corresponding to the detection information of the laser radar is detected. There are cases where it cannot be done. This synchronization shift occurs because the detection time (for example, about 120 ms) of the object by the laser radar accompanied by scanning becomes longer than the acquisition time (for example, about 33 ms) of the image including the object by the infrared camera.

特許文献1に記載の装置では、このレーザレーダと赤外線カメラの同期ずれに対する補正については何ら考慮していない。   In the apparatus described in Patent Document 1, no consideration is given to the correction for the synchronization deviation between the laser radar and the infrared camera.

また、レーザレーダと赤外線カメラの光軸ずれがある場合にも、両者の検出範囲がずれてしまい、同様にレーザレーダの検出情報に対応した赤外線画像中の歩行者を検出することができない場合が生ずる。   Also, when there is a deviation in the optical axes of the laser radar and the infrared camera, the detection ranges of the two will be different, and it may not be possible to detect a pedestrian in the infrared image corresponding to the detection information of the laser radar. Arise.

したがって、レーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを見極めた上で適切な補正をおこなう必要がある。   Therefore, it is necessary to make an appropriate correction after ascertaining whether the deviation between the detection ranges of the laser radar and the infrared camera is caused by the synchronization deviation (phase deviation) or the optical axis deviation between the two.

そこで、本発明は、得られた画像情報からレーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを判別することを目的とする。   In view of the above, the present invention has an object to determine whether the deviation of the detection range of the laser radar and the infrared camera is caused by the synchronization deviation (phase deviation) or the optical axis deviation from the obtained image information. And

また、本発明は、レーザレーダと赤外線カメラの同期ずれ(位相ずれ)があることを確認した上で、両者の出力信号の同期ずれ(位相ずれ)を検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることを目的とする。   Further, the present invention is specified by the radar by detecting and correcting the synchronization shift (phase shift) between the output signals of both after confirming that there is a synchronization shift (phase shift) between the laser radar and the infrared camera. An object of the present invention is to improve the extraction accuracy of a predetermined object on a camera image.

さらに、本発明は、レーザレーダと赤外線カメラの光軸ずれがあることを確認した上で、両者の光軸ずれを検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることを目的とする。   Furthermore, the present invention confirms that there is an optical axis shift between the laser radar and the infrared camera, and then detects and corrects the optical axis shift between the two, thereby detecting a predetermined object on the camera image specified by the radar. The purpose is to improve the extraction accuracy.

本発明によると、車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、レーダが検出した物体の位置に対応する、カメラが撮像した対応画像上の所定領域を特定して所定領域内の物体を特定する手段とを備える、車両の周辺監視装置が提供される。その周辺監視装置は、特定された対応画像上の所定領域の移動量の時間変化と、カメラが撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段と、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段と、を有する。   According to the present invention, a radar that detects an object around the vehicle, a camera that captures an image around the vehicle, and a predetermined area on the corresponding image captured by the camera that corresponds to the position of the object detected by the radar is specified. Thus, there is provided a vehicle periphery monitoring device including means for specifying an object in a predetermined area. The periphery monitoring device calculates a phase shift amount between a temporal change in the movement amount of the predetermined area on the identified corresponding image and a temporal change in the movement amount of the predetermined object on the image captured by the camera; The phase correction means for correcting the phase of the output signal of the radar or camera so that the phase shift amount becomes zero, and the radar or camera when the position shift direction of the predetermined area with respect to the predetermined object on the corresponding image is always the same direction. And determining means for determining that there is a synchronization shift between the radar and the camera when the position shift direction of the predetermined region is opposite to the moving direction of the predetermined object.

本発明によれば、得られた画像情報からレーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを判別することができ、その判別結果に応じて適切な補正をおこなうことができる。その結果レーダによって特定されたカメラ画像上での所定物体の特定(抽出)精度を向上させることが可能となる。   According to the present invention, it is possible to determine from the obtained image information whether the deviation of the detection range of the laser radar and the infrared camera is caused by the synchronization deviation (phase deviation) or the optical axis deviation between the two. Thus, appropriate correction can be performed according to the determination result. As a result, the accuracy of specifying (extracting) a predetermined object on the camera image specified by the radar can be improved.

本発明の一形態によると、位相ずれ量を算出する手段は、判断手段が同期ずれがあると判断する場合に位相ずれ量を算出する。   According to an aspect of the present invention, the means for calculating the phase shift amount calculates the phase shift amount when the determination unit determines that there is a synchronization shift.

本発明の一形態によれば、レーザレーダと赤外線カメラの同期ずれ(位相ずれ)があることを確認した上で、両者の出力信号の同期ずれ(位相ずれ)を検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることが可能となる。   According to one aspect of the present invention, after confirming that there is a synchronization shift (phase shift) between the laser radar and the infrared camera, the synchronization shift (phase shift) between the output signals of the two is detected and corrected. Thus, it is possible to improve the extraction accuracy of the predetermined object on the camera image specified by.

本発明の一形態によると、さらに、対応画像上の所定物体に対する所定領域の位置ずれ量と、カメラの焦点距離とから、レーダとカメラとにおける光軸ずれ量を算出する手段を有し、光軸ずれ量を算出する手段は、判断手段が光軸ずれがあると判断する場合に光軸ずれ量を算出する。   According to an aspect of the present invention, the optical system further includes means for calculating the optical axis deviation amount between the radar and the camera from the positional deviation amount of the predetermined area with respect to the predetermined object on the corresponding image and the focal length of the camera. The means for calculating the amount of axial deviation calculates the amount of optical axis deviation when the determining means determines that there is an optical axis deviation.

本発明の一形態によると、レーザレーダと赤外線カメラの光軸ずれがあることを確認した上で、両者の光軸ずれを検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることが可能となる。   According to one aspect of the present invention, after confirming that there is an optical axis shift between the laser radar and the infrared camera, the optical axis shift between the two is detected and corrected, thereby allowing a predetermined image on the camera image specified by the radar to be detected. It is possible to improve the object extraction accuracy.

本発明の車両の周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the periphery monitoring apparatus of the vehicle of this invention. 本発明の画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in the image processing unit of this invention. 本発明の位置ずれ量算出フローを示す図である。It is a figure which shows the position shift amount calculation flow of this invention. 本発明の画像上での所定領域と歩行者像を示す図である。It is a figure which shows the predetermined area | region and pedestrian image on the image of this invention. 本発明の所定領域の位置ずれ方向を説明するための図である。It is a figure for demonstrating the position shift direction of the predetermined area | region of this invention. 本発明の所定領域の位置ずれ方向を説明するための図である。It is a figure for demonstrating the position shift direction of the predetermined area | region of this invention. 本発明の光軸ずれ補正のフローを示す図である。It is a figure which shows the flow of the optical axis offset correction | amendment of this invention. 本発明の位相ずれ補正のフローを示す図である。It is a figure which shows the flow of phase shift correction of this invention. 本発明の変化量の時系列データの取得を説明するための図である。It is a figure for demonstrating acquisition of the time series data of the variation | change_quantity of this invention. 本発明の変化量の時系列データの取得を説明するための図である。It is a figure for demonstrating acquisition of the time series data of the variation | change_quantity of this invention. 本発明の位相ずれ量の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the phase shift amount of this invention.

図面を参照しながら本発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、レーザレーダ10と、赤外線カメラ12と、赤外線カメラ12によって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット14と、その検出結果に基づいて音または音声で警報を発生するスピーカ16と、赤外線カメラ12の撮像を介して得られた画像を表示すると共に、運転者に車両周辺の物体を認識させるための表示を行う表示装置18とを備える。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The periphery monitoring device is mounted on a vehicle, and includes a laser radar 10, an infrared camera 12, an image processing unit 14 for detecting an object around the vehicle based on image data captured by the infrared camera 12, and a detection result thereof. And a display device 18 for displaying an image obtained through imaging by the infrared camera 12 and for causing the driver to recognize an object around the vehicle. With.

なお、レーザレーダ10は、例えばスキャン式レーザレーダが該当し、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体(候補)の位置(領域)とそれまでの距離を検出する。なお、レーザレーダ10は、他の種類のレーダ(例えばミリ波レーダ等)であってもよい。また、赤外線カメラ12も、赤外線以外の他の波長帯の光(例えば可視光)を利用するカメラであってもよい。したがって、以下の説明では、赤外線カメラ12が撮影したグレースケール画像を対象としているが、これに限定されるものではない。さらに、ナビゲーション装置を備える車両においては、スピーカ16および表示装置18として、ナビゲーション装置が備える該当機能を利用してもよい。   The laser radar 10 corresponds to, for example, a scanning laser radar, and receives the reflected light from the object of the beam scanned in each direction, thereby detecting the position (region) of the object (candidate) in each direction as a detection point. Detect the distance to it. The laser radar 10 may be another type of radar (for example, a millimeter wave radar). The infrared camera 12 may also be a camera that uses light in a wavelength band other than infrared (for example, visible light). Therefore, in the following description, a gray scale image taken by the infrared camera 12 is targeted, but the present invention is not limited to this. Furthermore, in a vehicle provided with a navigation device, the corresponding function provided in the navigation device may be used as the speaker 16 and the display device 18.

図1の画像処理ユニット14は、ブロック141〜147で示される手段(機能)を含む(実行する)。すなわち、画像処理ユニット14は、レーザレーダ10からの信号を受けて車両の周辺の物体の位置を特定する物体位置特定手段141と、赤外線カメラ12が撮影した車両の周辺の画像をグレースケール画像として取得する画像取得手段142と、物体位置特定手段141が特定した物体の位置に対応する、取得された対応するグレースケール画像上の所定領域を特定して当該所定領域内の物体を特定する手段143を含む。なお、物体位置特定手段141は、レーザレーダ10の一部の機能として構成、すなわちレーザレーダ10に一体的に組み込んでもよい。   The image processing unit 14 in FIG. 1 includes (executes) means (functions) indicated by blocks 141 to 147. That is, the image processing unit 14 receives a signal from the laser radar 10 and specifies an object position specifying unit 141 for specifying the position of an object around the vehicle, and an image around the vehicle captured by the infrared camera 12 as a grayscale image. An image acquisition unit 142 to acquire, and a unit 143 that specifies a predetermined region on the acquired corresponding grayscale image corresponding to the position of the object specified by the object position specifying unit 141 and specifies an object in the predetermined region. including. The object position specifying unit 141 may be configured as a part of the function of the laser radar 10, that is, integrated with the laser radar 10.

画像処理ユニット14は、さらに、レーザレーダ10により特定された対応画像上の所定領域の移動量の時間変化と、赤外線カメラ12が撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段144と、対応画像上の所定物体に対する所定領域の位置ずれ量と、カメラの焦点距離とから、レーダとカメラとにおける光軸ずれ量を算出する手段145と、レーダとカメラの光軸ずれを補正する手段146、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段147と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段148とを有する。   The image processing unit 14 further includes a phase change between the temporal change in the movement amount of the predetermined area on the corresponding image specified by the laser radar 10 and the temporal change in the movement amount of the predetermined object on the image captured by the infrared camera 12. Means 144 for calculating the amount of deviation, means 145 for calculating the amount of optical axis deviation between the radar and the camera from the positional deviation amount of the predetermined area with respect to the predetermined object on the corresponding image, and the focal length of the camera, and radar and camera 146, a phase correction unit 147 for correcting the phase of the output signal of the radar or the camera so that the phase shift amount becomes zero, and a positional shift direction of the predetermined region with respect to the predetermined object on the corresponding image. Is always in the same direction, it is determined that there is a deviation of the optical axis of the radar or camera, and the position displacement direction of the predetermined area is opposite to the moving direction of the predetermined object And a determination unit 148 for determining that there is a synchronization error of the radar and the camera.

画像処理ユニット14は、さらに、自車両の速度(車速)を検出する車速センサ、加速度センサ、ヨーレート(旋回方向への回転角の変化速度)を検出するヨーレートセンサ等からの検出信号を受けて必要な処理をおこなう機能を有する。   The image processing unit 14 also needs to receive detection signals from a vehicle speed sensor that detects the speed (vehicle speed) of the host vehicle, an acceleration sensor, and a yaw rate sensor that detects a yaw rate (change speed of the rotation angle in the turning direction). Has a function to perform various processing.

各ブロックの機能は、画像処理ユニット14が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット14の構成は、ナビゲーション装置の中に組み込んでもよい。   The function of each block is realized by a computer (CPU) included in the image processing unit 14. The configuration of the image processing unit 14 may be incorporated in the navigation device.

画像処理ユニット14は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM、スピーカ16に対する駆動信号および表示装置18に対する表示信号などを出力する出力回路を備えている。レーザレーダ10と赤外線カメラ12の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。   The image processing unit 14 includes, for example, an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, and a central processing unit (CPU) that performs various arithmetic processes. ), RAM used by the CPU to store data for computation, ROM to store programs executed by the CPU and data to be used (including tables and maps), drive signals for the speakers 16, display signals to the display device 18, etc. An output circuit for outputting is provided. The output signals of the laser radar 10 and the infrared camera 12 are converted into digital signals and input to the CPU.

次に、本発明の一実施形態におけるレーダまたはカメラの光軸ずれ補正あるいは位相ずれ補正の方法について説明する。図2は、画像処理ユニット14によって実行される処理フローを示す図である。図2の処理フローは、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。   Next, a method for correcting optical axis deviation or phase deviation of a radar or a camera according to an embodiment of the present invention will be described. FIG. 2 is a diagram illustrating a processing flow executed by the image processing unit 14. The processing flow in FIG. 2 is executed at predetermined time intervals by calling the processing program stored in the memory by the CPU of the image processing unit 14.

図2のステップS1において、レーザレーダ10によって検出された物体候補の位置(領域)に対応する赤外線カメラ12によって撮像された画像上の所定領域(範囲)の位置と、赤外線カメラ12が撮像した画像上でのその物体候補の位置との位置ずれ量を算出する。   2, the position of a predetermined region (range) on the image captured by the infrared camera 12 corresponding to the position (region) of the object candidate detected by the laser radar 10 and the image captured by the infrared camera 12. The amount of positional deviation from the position of the object candidate above is calculated.

図3は、図2のステップS1の位置ずれ量算出フロー(ルーチン)を示す図である。図3のステップS11において、レーザレーダ10からの信号を受けて車両の周辺の所定の物体の位置を特定する。その特定には任意の方法を用いることができるが、例えば以下のようにおこなう。   FIG. 3 is a diagram showing a positional deviation amount calculation flow (routine) in step S1 of FIG. In step S11 of FIG. 3, the position of a predetermined object around the vehicle is specified by receiving a signal from the laser radar 10. An arbitrary method can be used for the identification, for example, as follows.

レーザレーダ10としてスキャン式レーザレーダを使用して、その検出点群の幅から物体、例えば歩行者候補の位置を特定する。具体的には、スキャン式レーザレーダでは、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体までの距離を測定する。レーザレーダの位置を原点としてY軸をレーダの正面方向とする2次元座標系にこれらの検出点の位置をプロットして検出点の集合を得る。これらの検出点の集合から、各検出点の相互の間隔が所定値以下のものを検出点群としてグループ化し、グループ化した検出点群のうち、広がり幅が所定値以下のものを所定の物体候補(例えば歩行者候補)とみなしてその位置を特定する。   A scanning laser radar is used as the laser radar 10, and the position of an object, for example, a pedestrian candidate is specified from the width of the detection point group. Specifically, the scanning laser radar measures the distance to the object in each direction as a detection point by receiving reflected light from the object of the beam scanned in each direction. A set of detection points is obtained by plotting the positions of these detection points in a two-dimensional coordinate system in which the position of the laser radar is the origin and the Y axis is the front direction of the radar. From these set of detection points, detection point groups are grouped as detection point groups whose mutual distance between detection points is equal to or smaller than a predetermined value, and among the grouped detection point groups, those having a spread width equal to or smaller than a predetermined value are grouped as predetermined objects. The position is identified as a candidate (for example, a pedestrian candidate).

ステップS12において、赤外線カメラ12の出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール(白黒の濃淡)画像である。対象の温度が高い部分ほど高輝度となる赤外線カメラでは、高輝度部分の明暗値が高い画像データとなり、その温度が低く(低輝度に)なるにつれて明暗値が低い画像データとなる。   In step S12, an output signal (that is, captured image data) of the infrared camera 12 is received as input, A / D converted, and stored in the image memory. The stored image data is a grayscale (monochrome shade) image including luminance information. In an infrared camera in which the higher the temperature of the target, the higher the brightness is, the image data has a higher brightness value in the higher brightness portion, and the image data has a lower brightness value as the temperature becomes lower (lower brightness).

ステップS13において、取得されたグレースケール画像に所定の物体を検知する範囲となる所定領域を設定する。この所定領域は、ステップS12においてレーザレーダ10によって特定された所定の物体候補の位置(領域)を含む領域である。この所定領域の設定は、任意の方法を用いることができるが、例えば物体の位置として歩行者の位置を特定する場合を例にとると、歩行者候補の位置を含む所定サイズの領域(検出点群)を赤外線カメラ12のカメラ座標系に変換し、グレースケール画像中にマッピング(重畳)して、対応するグレースケール画像上の所定領域として設定する。   In step S13, a predetermined area that is a range in which a predetermined object is detected is set in the acquired grayscale image. This predetermined area is an area including the position (area) of the predetermined object candidate specified by the laser radar 10 in step S12. An arbitrary method can be used for setting the predetermined area. For example, when the position of the pedestrian is specified as the position of the object, an area of a predetermined size including the position of the pedestrian candidate (detection point) is used. Group) is converted into the camera coordinate system of the infrared camera 12, mapped (superimposed) in the gray scale image, and set as a predetermined area on the corresponding gray scale image.

ステップS14において、画像上での所定の物体を特定する。この特定は、ステップS13において設定された画像上の所定領域を基準としてその領域内あるいはその近傍の領域内においておこなう。この特定は、任意の方法によりおこなうことができるが、例えば、グレースケール画像を2値化処理して得られる白黒画像から対象物を照合する。具体的には、最初に予めメモリに保管している除外対象物の特徴を有するか否かを調べる。除外対象物とは、例えば発熱体ではあるが明らかに形状等が異なる物体(4足動物、車両等)を意味する。除外対象物に該当しない場合、所定の物体の特徴に該当するか否かを調べる。例えば、所定の物体が歩行者である場合、歩行者の頭部の特徴として丸みを帯びた白部が存在し、その下に胴体、脚部の部分に相当する細長い白部が繋がっていること等が含まれる。また、周知のパターンマッチングを利用し、予め保管してある歩行者を表す所定のパターンとの類似度を算出し、その類似度を歩行者であるか否かの判断材料としてもよい。さらに、歩行者の歩行速度はほぼ一定であることから、レーザレーダ10から得られる物体の移動速度の情報を判断材料の1つとして用いてもよい。   In step S14, a predetermined object on the image is specified. This specification is performed in the area or in the vicinity of the predetermined area on the image set in step S13. This specification can be performed by an arbitrary method. For example, an object is collated from a black and white image obtained by binarizing a grayscale image. Specifically, first, it is checked whether or not it has the characteristics of the excluded object stored in the memory in advance. The excluded object means, for example, an object (such as a quadruped animal or a vehicle) that is a heating element but has a clearly different shape. If it does not correspond to the excluded object, it is checked whether it corresponds to the characteristic of the predetermined object. For example, when the predetermined object is a pedestrian, a rounded white portion exists as a feature of the pedestrian's head, and an elongated white portion corresponding to the body and leg portions is connected below the white portion. Etc. are included. Further, the similarity with a predetermined pattern representing a pedestrian stored in advance may be calculated using known pattern matching, and the similarity may be used as a material for determining whether or not the user is a pedestrian. Furthermore, since the walking speed of the pedestrian is substantially constant, information on the moving speed of the object obtained from the laser radar 10 may be used as one of judgment materials.

ステップS15において、所定の物体が特定できたか否かを判定する。この判定がNoの場合は、ステップS19に進み位置ずれ量をゼロに設定して処理を終了する(戻る)。ステップS15での判定がYesの場合、ステップS16に進む。   In step S15, it is determined whether a predetermined object has been identified. If this determination is No, the process proceeds to step S19, where the amount of positional deviation is set to zero, and the process ends (returns). When the determination in step S15 is Yes, the process proceeds to step S16.

図4を参照しながらステップS16からS18の画像上の所定領域の位置と特定された所定物体の位置との位置ずれ量の算出について説明する。図4は、2値化処理後の白黒画像上の所定領域と所定物体(歩行者)の例を示す図である。なお、図4では線を認識させるために、線の部分を除いて全体が白くなっているが、実際には所定物体である歩行者像22、24の回りの背景部分は黒く表示される。   With reference to FIG. 4, the calculation of the amount of positional deviation between the position of the predetermined area on the image in steps S16 to S18 and the position of the specified predetermined object will be described. FIG. 4 is a diagram illustrating an example of a predetermined area and a predetermined object (pedestrian) on a black and white image after binarization processing. In FIG. 4, in order to recognize the line, the whole is white except for the line part, but the background part around the pedestrian images 22 and 24 that are the predetermined objects is actually displayed in black.

図4において、赤外線カメラ12により取得された2値化処理後の白黒画像20内に所定物体として歩行者像22、24が映っている。(a)の像22は歩行者が静止している場合であり、(b)の像24は歩行者が図の右方向に移動している場合に相当する。符号21、23で指示される枠はレーザレーダ10により歩行者の位置(領域)として特定された所定領域である。(a)の歩行者像22は所定領域21内に収まっており両者の位置ずれは小さいのに対して、(b)における両者の位置ずれは大きくなっている。(b)での位置ずれは、レーダとカメラの同期ずれ(位相ずれ)および光軸ずれのいずれかあるいは双方に起因して生ずる。この同期ずれまたは光軸ずれの切り分けについては後述する。一方(a)の場合は両者の同期ずれおよび光軸ずれがほとんどないか小さい場合に相当する。   In FIG. 4, pedestrian images 22 and 24 are shown as predetermined objects in the binarized black and white image 20 acquired by the infrared camera 12. The image 22 of (a) is a case where the pedestrian is stationary, and the image 24 of (b) is equivalent to the case where the pedestrian is moving in the right direction in the figure. Frames indicated by reference numerals 21 and 23 are predetermined areas specified by the laser radar 10 as pedestrian positions (areas). While the pedestrian image 22 in (a) is within the predetermined area 21 and the positional deviation between the two is small, the positional deviation between both is large in (b). The positional shift in (b) is caused by either or both of the synchronization shift (phase shift) and the optical axis shift between the radar and the camera. This separation of synchronization deviation or optical axis deviation will be described later. On the other hand, the case (a) corresponds to a case where there is almost no or little synchronization shift and optical axis shift between them.

図3のステップS16において、図4の所定領域21、23の重心を算出する。ステップS17において、歩行者像22、24の重心を算出する。ステップS18において、算出した両者の重心の位置P1とQ1またはP2とQ2の横方向(水平方向)での差分をカメラ画像上でのずれ量d1、d2として算出する。なお、ずれ量を算出するための位置は、重心の位置に限られず他の任意の基準により定まる位置、例えば所定領域および歩行者像の水平方向の最大幅の中点等であってもよい。   In step S16 in FIG. 3, the centroids of the predetermined areas 21 and 23 in FIG. 4 are calculated. In step S17, the center of gravity of the pedestrian images 22, 24 is calculated. In step S18, the difference between the calculated positions P1 and Q1 of the center of gravity or P2 and Q2 in the horizontal direction (horizontal direction) is calculated as the shift amounts d1 and d2 on the camera image. Note that the position for calculating the amount of deviation is not limited to the position of the center of gravity, but may be a position determined by another arbitrary reference, for example, the midpoint of the predetermined area and the maximum horizontal width of the pedestrian image.

図2に戻って、ステップS2において、ステップS1において算出された位置ずれ量が所定量よりも大きいか否かを判定する。所定量は同期ずれ補正あるいは光軸ずれ補正が必要か否かを判断するための1つのしきい値として設定される。この判定がNoの場合、処理を終了する。図4の例では、(a)の場合の位置ずれ量d1は所定量よりも小さい場合に相当する。判定がYesの場合、次のステップS3に進む。   Returning to FIG. 2, in step S2, it is determined whether or not the amount of displacement calculated in step S1 is greater than a predetermined amount. The predetermined amount is set as one threshold value for determining whether synchronization deviation correction or optical axis deviation correction is necessary. If this determination is No, the process ends. In the example of FIG. 4, the positional deviation amount d <b> 1 in the case of (a) corresponds to a case where it is smaller than a predetermined amount. If the determination is Yes, the process proceeds to the next step S3.

ステップS3において、画像上の所定物体に対する所定領域の位置ずれ方向を算出する。この算出は、画像上の所定物体の位置に対して所定領域の位置が水平方向での右方向または左方向のいずれ側にずれているかを求める。その際、所定物体の移動方向に対して所定領域の位置が同じ方向あるいは逆方向のいずれにずれているかも求める。具体的には、例えば図3のステップS17において求めた歩行者の重心の位置に対して、ステップS16において求めた所定領域の重心が右方向または左方向のいずれ側にずれているかを求める。同時に、歩行者の重心の移動方向に対して所定領域の重心が同じ方向あるいは逆方向のいずれにずれているかも求める。   In step S3, the position shift direction of the predetermined area with respect to the predetermined object on the image is calculated. This calculation determines whether the position of the predetermined region is shifted to the right or left in the horizontal direction with respect to the position of the predetermined object on the image. At this time, it is also determined whether the position of the predetermined area is shifted in the same direction or the reverse direction with respect to the moving direction of the predetermined object. Specifically, for example, it is determined whether the center of gravity of the predetermined area determined in step S16 is shifted to the right or left with respect to the position of the center of gravity of the pedestrian determined in step S17 of FIG. At the same time, it is also determined whether the center of gravity of the predetermined area is shifted in the same direction or the opposite direction with respect to the moving direction of the center of gravity of the pedestrian.

ステップS4において、画像上の所定物体の位置に対して所定領域の位置が同一方向にずれているか否かを判定する。図5は所定領域の位置ずれ方向を説明するための図である。図5は、図4と同様に2値化処理後の白黒画像20上の所定領域と所定物体(歩行者)を示しており、線を認識させるために、線の部分を除いて全体が白くなっているが、実際には歩行者像の背景部分は黒く表示される。   In step S4, it is determined whether or not the position of the predetermined area is shifted in the same direction with respect to the position of the predetermined object on the image. FIG. 5 is a diagram for explaining the direction of displacement of a predetermined area. FIG. 5 shows a predetermined region and a predetermined object (pedestrian) on the black and white image 20 after the binarization process as in FIG. 4. In order to recognize the line, the whole is white except for the line portion. However, the background part of the pedestrian image is actually displayed in black.

図5(a)の像22は歩行者が静止している場合であり、(b)の像24は歩行者が図の右方向に移動している場合であり、(c)の像25は歩行者が図の左方向に移動している場合にそれぞれ相当する。符号23で指示される枠はレーザレーダ10により歩行者の位置(領域)として特定された所定領域である。図5においては、歩行者が静止あるいは左右に移動した場合のいずれの場合においても所定領域23は歩行者像22、24、25の右側にずれている。したがって、画像上の所定物体(歩行者)の位置に対して所定領域の位置が同一方向にずれている場合に該当する。   An image 22 in FIG. 5A is a case where the pedestrian is stationary, an image 24 in FIG. 5B is a case where the pedestrian is moving in the right direction in the figure, and an image 25 in FIG. This corresponds to the case where the pedestrian is moving in the left direction in the figure. A frame indicated by reference numeral 23 is a predetermined area specified as the position (area) of the pedestrian by the laser radar 10. In FIG. 5, the predetermined area 23 is shifted to the right side of the pedestrian images 22, 24, 25 in any case where the pedestrian is stationary or moved left and right. Therefore, this corresponds to the case where the position of the predetermined area is shifted in the same direction with respect to the position of the predetermined object (pedestrian) on the image.

図5で例示される同一方向への位置ずれは、所定物体(歩行者)の移動の有無にかかわらず定常的に一定割合のずれとして発生するので、レーダまたはカメラの光軸ずれに起因していると判定される。したがって、ステップS4の判定がYesの場合、次のステップS5に進み、光軸ずれ補正をおこなう。この光軸ずれ補正の詳細については後述する。   The positional deviation in the same direction illustrated in FIG. 5 occurs as a constant constant deviation regardless of whether or not the predetermined object (pedestrian) has moved, and therefore is caused by the optical axis deviation of the radar or camera. It is determined that Therefore, if the determination in step S4 is Yes, the process proceeds to the next step S5, and optical axis deviation correction is performed. Details of this optical axis deviation correction will be described later.

ステップS4の判定がNoの場合、ステップS6に進み、画像上の所定物体の移動方向に対して所定領域の位置が逆方向にずれているか否かを判定する。図6は所定領域の位置ずれ方向を説明するための図である。図6は、図5と同様に2値化処理後の白黒画像20上の所定領域と所定物体(歩行者)を示しており、両図で同一符号は同じ対象を示している。   When the determination in step S4 is No, the process proceeds to step S6, and it is determined whether or not the position of the predetermined area is shifted in the reverse direction with respect to the moving direction of the predetermined object on the image. FIG. 6 is a diagram for explaining the direction of displacement of a predetermined area. FIG. 6 shows a predetermined region and a predetermined object (pedestrian) on the black and white image 20 after the binarization processing, as in FIG. 5, and the same reference numerals in both drawings indicate the same object.

図6においては、(a)の歩行者像22が静止している場合は所定領域23の位置ずれはない。(b)の歩行者像24が右方向に移動した場合は、所定領域23は歩行者像24の左側にずれている。一方、(c)の歩行者像24が左方向に移動した場合は、所定領域23は歩行者像24の右側にずれている。したがって、図6の例は、画像上の所定物体(歩行者)の移動方向に対して所定領域の位置が逆方向にずれている場合に該当する。   In FIG. 6, when the pedestrian image 22 in (a) is stationary, there is no position shift of the predetermined region 23. When the pedestrian image 24 of (b) moves rightward, the predetermined area 23 is shifted to the left side of the pedestrian image 24. On the other hand, when the pedestrian image 24 in (c) moves leftward, the predetermined area 23 is shifted to the right side of the pedestrian image 24. Therefore, the example of FIG. 6 corresponds to the case where the position of the predetermined region is shifted in the opposite direction with respect to the moving direction of the predetermined object (pedestrian) on the image.

図6で例示される移動方向に対して逆方向への位置ずれは、主にレーザの出力信号(処理)の遅れに起因しており、レーダとカメラの同期ずれが比較的大きい場合であると判定される。したがって、ステップS6の判定がYesの場合、次のステップS7に進み、位相ずれ補正をおこなう。この位相ずれ補正の詳細については後述する。ステップS6の判定がNoの場合は処理を終了する。   The positional deviation in the direction opposite to the movement direction illustrated in FIG. 6 is mainly caused by a delay in the output signal (processing) of the laser, and is a case where the synchronization deviation between the radar and the camera is relatively large. Determined. Therefore, if the determination in step S6 is Yes, the process proceeds to the next step S7 to perform phase shift correction. Details of the phase shift correction will be described later. A process is complete | finished when determination of step S6 is No.

次に、図7を参照しながら図2のステップS5の光軸ずれ補正の詳細について説明する。図7は、光軸ずれ補正のフローを示す図である。図7のステップS51において、画像上の所定物体の位置に対して所定領域の位置が同一方向にずれている場合、すなわち上述した図5で例示されるレーダまたはカメラの光軸ずれに起因している位置ずれの場合における位置ずれ量dを取得する。この位置ずれ量dの取得は、図4を用いて説明した位置ずれ量d1、d2の場合と同様に、所定物体および所定領域の重心の位置から求める。   Next, details of the optical axis deviation correction in step S5 of FIG. 2 will be described with reference to FIG. FIG. 7 is a diagram showing a flow of optical axis deviation correction. In step S51 of FIG. 7, when the position of the predetermined region is shifted in the same direction with respect to the position of the predetermined object on the image, that is, due to the optical axis shift of the radar or camera exemplified in FIG. The positional deviation amount d in the case of the positional deviation is acquired. The acquisition of the positional deviation amount d is obtained from the position of the center of gravity of the predetermined object and the predetermined area as in the case of the positional deviation amounts d1 and d2 described with reference to FIG.

ステップS52において、得られたずれ量dが所定量ΔL1よりも大きいか否かを判定する。この判定がNoの場合、光軸のずれ量が小さく許容範囲にあるものとして、その補正を行うことなく処理を終了する。判定がYesの場合、ステップS53において、ずれ量dが所定量ΔL2(>ΔL1)よりも小さいか否かを判定する。この判定がNoの場合、光軸のずれ量(角度)が大きくずれ過ぎた範囲にあるものとして、ステップS55に進み、赤外線カメラ12の光軸に補正では調整できない失陥があると判定する。   In step S52, it is determined whether or not the obtained shift amount d is larger than a predetermined amount ΔL1. When this determination is No, it is determined that the amount of deviation of the optical axis is small and within the allowable range, and the process is terminated without performing the correction. If the determination is Yes, it is determined in step S53 whether or not the shift amount d is smaller than a predetermined amount ΔL2 (> ΔL1). When this determination is No, it is determined that the optical axis shift amount (angle) is within a large range, and the process proceeds to step S55, where it is determined that the optical axis of the infrared camera 12 has a defect that cannot be adjusted by correction.

ステップS53の判定がYesの場合、ステップS54において、レーダとカメラの光軸ずれ角度αを算出する。ずれ角度αは、ステップS51で取得したカメラ画像上でのずれ量dと、カメラの焦点距離fとから(1)式により求めることができる。

α = tan−1(d/f) (1)
If the determination in step S53 is Yes, in step S54, the optical axis deviation angle α between the radar and the camera is calculated. The shift angle α can be obtained from equation (1) from the shift amount d on the camera image acquired in step S51 and the focal length f of the camera.

α = tan −1 (d / f) (1)

最後にステップS56において、得られた光軸のずれ角度αに相当する補正をおこなう。その補正方法は、画像処理上での補正あるいは光軸自体の調整等従来からの任意の方法を用いておこなう。   Finally, in step S56, correction corresponding to the obtained optical axis deviation angle α is performed. The correction method is performed using any conventional method such as correction in image processing or adjustment of the optical axis itself.

次に、図8〜図11を参照しながら図2のステップS7の位相ずれ補正の詳細について説明する。図8は、その位相ずれ補正のフローを示す図である。ステップS71において、同期(位相)ずれ補正をおこなうためのデータ区間を特定するために時系列データを取得とする。位相ずれの補正には、レーダとカメラの位相ずれが比較的大きく発生する期間、すなわちレーダまたはカメラが検出する物体の時間的な位置変化量が比較的大きくレーダとカメラの位相ずれ量が検出しやすい期間においてその位相ずれ量を検出することが検出精度の観点等から好ましい。しかし、例えば車両が一般道を走行している場合、その補正に必要な変化を連続的に安定して観測することは困難である。そこで、例えば以下のような方法により、一定時間にわたってデータが時間的に変化している時系列データを取得する。   Next, details of the phase shift correction in step S7 of FIG. 2 will be described with reference to FIGS. FIG. 8 is a diagram showing a flow of the phase shift correction. In step S71, time-series data is acquired in order to specify a data section for performing synchronization (phase) shift correction. Phase correction is performed by detecting the amount of phase shift between the radar and the camera during the period when the phase shift between the radar and the camera is relatively large, that is, the amount of temporal position change of the object detected by the radar or camera is relatively large. It is preferable from the viewpoint of detection accuracy and the like to detect the amount of phase shift in an easy period. However, for example, when the vehicle is traveling on a general road, it is difficult to continuously and stably observe changes necessary for the correction. Therefore, for example, the following method is used to acquire time-series data in which data changes over time over a certain period of time.

図9はレーダまたはカメラが検出する物体の時間的な位置変化量が大きい区間A〜Dの部分のみを寄せ集めて、連続する区間A´〜D´を作ることを説明するための図である。図9において、上側に示される時間的な位置変化量が大きい区間A〜Dの各部分を寄せ集めて、図の下側の時間T1における連続する区間A´〜D´を作る。図9における物体の時間的な位置変化量が大きい区間は、例えば車両の旋回中のヨーレート、あるいは加/減速時の車速等、車両状態の変化が大きい場合の車両の走行状態を示す各種検出信号から得ることが望ましい。このように、物体の時間的な位置変化量が大きい区間のみを結合し、その結合した区間でのレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。   FIG. 9 is a diagram for explaining that the sections A ′ to D ′ are formed by gathering only the sections of the sections A to D where the temporal position change amount of the object detected by the radar or the camera is large. . In FIG. 9, the sections A to D having a large temporal position change amount shown on the upper side are gathered together to create continuous sections A ′ to D ′ at the time T1 on the lower side of the figure. In the section where the temporal position change amount of the object in FIG. 9 is large, various detection signals indicating the running state of the vehicle when the change in the vehicle state is large, such as the yaw rate during turning of the vehicle or the vehicle speed during acceleration / deceleration, for example. It is desirable to obtain from In this way, by combining only sections where the amount of change in the position of the object over time is large, and detecting and correcting the phase shift between the laser and camera in the combined section, the accuracy and reliability of the correction Can be improved.

図10は、所定量以上の時系列データを取得する他の例を説明するための図である。自車が移動(走行)する車載環境では、静止ターゲットは頻繁に入れ替わるため、一般道で補正に必要な変化を連続的に安定して観測することは困難である。そこで、図10の例では、異なる静止ターゲット(歩行者等)の移動速度をつなげることで時間的に連続したデータを生成する。   FIG. 10 is a diagram for explaining another example of acquiring time-series data of a predetermined amount or more. In an in-vehicle environment in which the host vehicle moves (runs), stationary targets are frequently replaced, so it is difficult to continuously and stably observe changes necessary for correction on a general road. Therefore, in the example of FIG. 10, temporally continuous data is generated by connecting the moving speeds of different stationary targets (pedestrians and the like).

図10の(a)では車両30の進行方向において3つの静止ターゲット1〜3が存在する。車両30の進行にともない3つの静止ターゲット1〜3は徐々に車両30に近づいてくる。(b)はその場合の車両30の速度変化32と静止ターゲット1〜3の速度変化33を示している。静止ターゲット1〜3の速度変化33は、図示したように、各静止ターゲット1〜3の速度変化A〜Cをつなげることで得ており、車両30の速度変化32に対して対称(負)な関係(グラフ)となる。これにより、車両と静止ターゲットの相対的な速度が変化する区間を得ることができ、図9の場合と同様に、その区間におけるレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。   In FIG. 10A, there are three stationary targets 1 to 3 in the traveling direction of the vehicle 30. As the vehicle 30 travels, the three stationary targets 1 to 3 gradually approach the vehicle 30. (B) shows the speed change 32 of the vehicle 30 and the speed change 33 of the stationary targets 1 to 3 in that case. As illustrated, the speed change 33 of the stationary targets 1 to 3 is obtained by connecting the speed changes A to C of the stationary targets 1 to 3, and is symmetric (negative) with respect to the speed change 32 of the vehicle 30. Relationship (graph). As a result, it is possible to obtain a section where the relative speed of the vehicle and the stationary target changes. Similarly to the case of FIG. 9, by detecting and correcting the phase shift amount of the laser and the camera in the section, The accuracy and reliability of the correction can be improved.

次に、図8のステップS72において、位相ずれ量を算出する。図11は、位相ずれ量の算出方法を説明するための図である。図11の(a)は図4の(b)の部分を抜き出した2値化後の白黒画像20であり、図4と同じ符号番号を付けてある。図4の説明において既に述べたように、レーザレーダ10により歩行者の位置(領域)として特定された所定領域23は、赤外線カメラ12により取得された2値化処理後の歩行者像24よりもずれて表示される。   Next, in step S72 of FIG. 8, the phase shift amount is calculated. FIG. 11 is a diagram for explaining a method of calculating the phase shift amount. FIG. 11A shows a binarized black and white image 20 obtained by extracting the portion shown in FIG. 4B, and the same reference numerals as those in FIG. As already described in the description of FIG. 4, the predetermined region 23 specified as the position (region) of the pedestrian by the laser radar 10 is more than the pedestrian image 24 after the binarization processing acquired by the infrared camera 12. Displayed out of position.

図11の(b)、(c)は、(a)の場合に対応する白黒画像20上の歩行者像24の移動量の時間変化Aと所定領域23の移動量の時間変化B、B´を示す図である。(b)は、(a)の位置ずれがレーダおよびカメラの同期ずれに起因して生じている場合の時間変化を示す。(c)は(a)の位置ずれがレーダまたはカメラの光軸ずれと両者の同期ずれの双方に起因して生じている場合の時間変化を示す。(b)及び(c)のデータは、例えば上述した図9または図10の例によって得られるような比較的変化の大きい連続した区間における各移動量データを切り出して得られるデータの一部である。   (B) and (c) of FIG. 11 show the time change A of the movement amount of the pedestrian image 24 on the black and white image 20 and the time changes B and B ′ of the movement amount of the predetermined area 23 corresponding to the case of (a). FIG. (B) shows a time change when the positional deviation of (a) occurs due to the synchronization deviation of the radar and the camera. (C) shows a time change when the positional deviation of (a) occurs due to both the optical axis deviation of the radar or camera and the synchronization deviation of both. The data of (b) and (c) is a part of data obtained by cutting out each movement amount data in a continuous section having a relatively large change as obtained by the example of FIG. 9 or FIG. .

(b)のグラフから、所定領域23の移動量変化Bは、歩行者像24の移動量変化AよりもΔT1時間だけ位相(信号の立ち上がり)が遅れていることがわかる。したがって、この場合の位相ずれ量はΔT1となる。この位相ずれ量ΔT1は、(a)の画像上での位置ずれ量d2に対応している。   From the graph of (b), it can be seen that the movement amount change B of the predetermined region 23 is delayed in phase (signal rising) by ΔT1 time than the movement amount change A of the pedestrian image 24. Therefore, the phase shift amount in this case is ΔT1. This phase shift amount ΔT1 corresponds to the positional shift amount d2 on the image of (a).

(c)のグラフから、所定領域23の移動量変化B´は、歩行者像24の移動量変化AよりもΔT2時間だけ位相(信号の立ち上がり)が遅れていることがわかる。この場合の位相ずれ量はΔT2となる。同時に光軸ずれに起因する定常的な振幅の偏差ΔP1が観測される。したがって、(c)の場合において、(a)の画像上での位置ずれ量d2は、位相ずれ量ΔT2および振幅の偏差ΔP1に起因して生じている。   From the graph of (c), it can be seen that the movement amount change B ′ of the predetermined region 23 is delayed in phase (signal rising) by ΔT2 time from the movement amount change A of the pedestrian image 24. In this case, the phase shift amount is ΔT2. At the same time, a steady amplitude deviation ΔP1 caused by the optical axis deviation is observed. Therefore, in the case of (c), the positional deviation amount d2 on the image of (a) is caused by the phase deviation amount ΔT2 and the amplitude deviation ΔP1.

このように、所定区間(時間)における画像上の所定領域および所定物体像の移動量の時間的な変化をモニターすることで両者の位相ずれ量を得ることができる。この位相ずれ量はレーザレーダ10と赤外線カメラ12の出力信号の同期ずれ量に対応している。なお、2つの移動量変化の立ち上がり時刻のずれを見る代わりに、両者の相互相関係数を求めてあるいは位相限定相関法を利用して、得られる関数の周期から位相ずれ量を求めてもよい。   As described above, by monitoring the temporal change in the movement amount of the predetermined area on the image and the predetermined object image in the predetermined section (time), the phase shift amount of both can be obtained. This amount of phase shift corresponds to the amount of synchronization shift between the output signals of the laser radar 10 and the infrared camera 12. Instead of looking at the difference between the rising times of the two movement amount changes, the phase deviation amount may be obtained from the period of the obtained function by obtaining the cross-correlation coefficient between them or using the phase-only correlation method. .

ステップS73において、レーザレーダ10の出力信号の処理と赤外線カメラ12の出力信号の画像処理において、図11(b)、(c)の位相ずれ量ΔT1、ΔT2が無くなる(ゼロになる)ように補正(調整)する。具体的には、例えば赤外線カメラ12の出力信号の立ち上がり時刻を位相ずれ量ΔT1、ΔT2に相当する分だけ遅らせる、あるいは所定のクロック(タイミング)信号に同期して、レーザレーダ10および赤外線カメラ12の出力信号が立ち上がるようにする等の処理をおこなう。   In step S73, in the processing of the output signal of the laser radar 10 and the image processing of the output signal of the infrared camera 12, correction is made so that the phase shift amounts ΔT1 and ΔT2 in FIGS. 11B and 11C are eliminated (become zero). (adjust. Specifically, for example, the rising time of the output signal of the infrared camera 12 is delayed by an amount corresponding to the phase shift amounts ΔT1 and ΔT2, or the laser radar 10 and the infrared camera 12 are synchronized with a predetermined clock (timing) signal. Processing such as rising of the output signal is performed.

以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。   The embodiment of the present invention has been described above, but the present invention is not limited to such an embodiment, and can be modified and used without departing from the spirit of the present invention.

10 レーザレーダ、
12 赤外線カメラ、
14 画像処理ユニット
16 スピーカ、
18 表示装置、
20 カメラ画像
21、23 レーダで検出された所定領域
22、24、25 歩行者像
30 車両
10 Laser radar,
12 Infrared camera,
14 Image processing unit 16 Speaker,
18 display device,
20 Camera image 21, 23 Predetermined area 22, 24, 25 detected by radar Pedestrian image 30 Vehicle

Claims (3)

車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、前記レーダが検出した物体の位置に対応する、前記カメラが撮像した対応画像上の所定領域を特定して当該所定領域内の前記物体を特定する手段とを備える、車両の周辺監視装置であって、
特定された前記対応画像上の所定領域の移動量の時間変化と、前記カメラが撮像した画像上での前記所定物体の移動量の時間変化との位相ずれ量を算出する手段と、
前記位相ずれ量がゼロになるように、前記レーダまたは前記カメラの出力信号の位相補正をおこなう位相補正手段と、
前記対応画像上の前記所定物体に対する前記所定領域の位置ずれ方向が常に同一方向である場合に前記レーダまたは前記カメラの光軸ずれがあると判断し、前記所定領域の位置ずれ方向が前記所定物体の移動方向と逆方向である場合に前記レーダと前記カメラの同期ずれがあると判断する判断手段と、
を有する車両の周辺監視装置。
A radar that detects an object around the vehicle, a camera that captures an image around the vehicle, and a predetermined area on the corresponding image captured by the camera corresponding to the position of the object detected by the radar A vehicle surroundings monitoring device comprising means for identifying the object in a predetermined area,
Means for calculating a phase shift amount between a time change of the movement amount of the predetermined area on the identified corresponding image and a time change of the movement amount of the predetermined object on the image captured by the camera;
Phase correction means for performing phase correction of the output signal of the radar or the camera so that the phase shift amount becomes zero;
When the positional deviation direction of the predetermined area with respect to the predetermined object on the corresponding image is always the same direction, it is determined that there is an optical axis deviation of the radar or the camera, and the positional deviation direction of the predetermined area is the predetermined object. Determining means for determining that there is a synchronization error between the radar and the camera when the moving direction is opposite to the moving direction;
A vehicle periphery monitoring device having
前記位相ずれ量を算出する手段は、前記判断手段が前記同期ずれがあると判断する場合に前記位相ずれ量を算出する、請求項1に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the unit that calculates the phase shift amount calculates the phase shift amount when the determination unit determines that there is the synchronization shift. さらに、前記対応画像上の前記所定物体に対する前記所定領域の位置ずれ量と、前記カメラの焦点距離とから、前記レーダと前記カメラとにおける光軸ずれ量を算出する手段を有し、
当該光軸ずれ量を算出する手段は、前記判断手段が前記光軸ずれがあると判断する場合に前記光軸ずれ量を算出する、請求項1または2に記載の周辺監視装置。
And a means for calculating an optical axis deviation amount between the radar and the camera from a positional deviation amount of the predetermined area with respect to the predetermined object on the corresponding image and a focal length of the camera.
The periphery monitoring device according to claim 1, wherein the means for calculating the optical axis deviation amount calculates the optical axis deviation amount when the determination unit determines that there is the optical axis deviation.
JP2010101898A 2010-04-27 2010-04-27 Vehicle periphery monitoring device Expired - Fee Related JP5455772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010101898A JP5455772B2 (en) 2010-04-27 2010-04-27 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010101898A JP5455772B2 (en) 2010-04-27 2010-04-27 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2011232139A true JP2011232139A (en) 2011-11-17
JP5455772B2 JP5455772B2 (en) 2014-03-26

Family

ID=45321601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010101898A Expired - Fee Related JP5455772B2 (en) 2010-04-27 2010-04-27 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5455772B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158238A1 (en) * 2015-03-31 2016-10-06 株式会社デンソー Vehicle control device in vehicle control method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (en) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2006011570A (en) * 2004-06-23 2006-01-12 Daihatsu Motor Co Ltd Camera calibration method and camera calibration device
JP2007163258A (en) * 2005-12-13 2007-06-28 Alpine Electronics Inc Apparatus and method for compensating onboard sensor
JP2007274037A (en) * 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2008003779A (en) * 2006-06-21 2008-01-10 Hitachi Ltd Measurement data processing apparatus of preventive safety car
JP2008143447A (en) * 2006-12-13 2008-06-26 Honda Motor Co Ltd Vehicle safety control device
JP2008215912A (en) * 2007-03-01 2008-09-18 Mazda Motor Corp Obstacle detector for vehicle
JP2010061567A (en) * 2008-09-05 2010-03-18 Toyota Motor Corp Object detecting apparatus
JP2011220732A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle surroundings monitoring device
JP2011227029A (en) * 2010-04-23 2011-11-10 Honda Motor Co Ltd Vehicle periphery monitoring device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (en) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2006011570A (en) * 2004-06-23 2006-01-12 Daihatsu Motor Co Ltd Camera calibration method and camera calibration device
JP2007163258A (en) * 2005-12-13 2007-06-28 Alpine Electronics Inc Apparatus and method for compensating onboard sensor
JP2007274037A (en) * 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2008003779A (en) * 2006-06-21 2008-01-10 Hitachi Ltd Measurement data processing apparatus of preventive safety car
JP2008143447A (en) * 2006-12-13 2008-06-26 Honda Motor Co Ltd Vehicle safety control device
JP2008215912A (en) * 2007-03-01 2008-09-18 Mazda Motor Corp Obstacle detector for vehicle
JP2010061567A (en) * 2008-09-05 2010-03-18 Toyota Motor Corp Object detecting apparatus
JP2011220732A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle surroundings monitoring device
JP2011227029A (en) * 2010-04-23 2011-11-10 Honda Motor Co Ltd Vehicle periphery monitoring device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158238A1 (en) * 2015-03-31 2016-10-06 株式会社デンソー Vehicle control device in vehicle control method
JP2016191685A (en) * 2015-03-31 2016-11-10 株式会社デンソー Vehicle control apparatus and vehicle control method
US10578714B2 (en) * 2015-03-31 2020-03-03 Denso Corporation Vehicle control apparatus and vehicle control method

Also Published As

Publication number Publication date
JP5455772B2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5416026B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP4815488B2 (en) Vehicle periphery monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4410292B1 (en) Vehicle periphery monitoring device
JP4631096B2 (en) Vehicle periphery monitoring device
JP4733756B2 (en) Vehicle periphery monitoring device
JP4203512B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP2011220732A (en) Vehicle surroundings monitoring device
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP4528283B2 (en) Vehicle periphery monitoring device
JP2010134878A (en) Three-dimensional object appearance sensing device
JPWO2016002007A1 (en) Display device for vehicle and display method for vehicle
JP2016136321A (en) Object detection device and object detection method
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP3807583B2 (en) Road area determination device
JP2012014553A (en) Apparatus for monitoring surrounding of vehicle
JP2009075124A (en) Distance detector
JP5172887B2 (en) Vehicle periphery monitoring device
JP5455772B2 (en) Vehicle periphery monitoring device
JP5276032B2 (en) Device for calculating the position of an object
JP2007278869A (en) Range finder, periphery monitor for vehicle, range finding method, and program for range finding
JP2011134119A (en) Vehicle periphery monitoring device
JP2007233487A (en) Pedestrian detection method, device, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R150 Certificate of patent or registration of utility model

Ref document number: 5455772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees