JP2012014553A - Apparatus for monitoring surrounding of vehicle - Google Patents

Apparatus for monitoring surrounding of vehicle Download PDF

Info

Publication number
JP2012014553A
JP2012014553A JP2010151863A JP2010151863A JP2012014553A JP 2012014553 A JP2012014553 A JP 2012014553A JP 2010151863 A JP2010151863 A JP 2010151863A JP 2010151863 A JP2010151863 A JP 2010151863A JP 2012014553 A JP2012014553 A JP 2012014553A
Authority
JP
Japan
Prior art keywords
timing
radar
vehicle
detection
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010151863A
Other languages
Japanese (ja)
Inventor
Toru Ozawa
徹 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010151863A priority Critical patent/JP2012014553A/en
Publication of JP2012014553A publication Critical patent/JP2012014553A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus for monitoring surrounding of vehicle in which no synchronous circuit is needed and the detection timing of a plurality of detection means can be adjusted.SOLUTION: An apparatus for monitoring surrounding of a vehicle comprises: first detection means for continually detecting object information of surrounding of a vehicle at a prescribed period, second detection means for detecting the object information of surrounding of a vehicle in a different manner from that of the first detection means at a prescribed timing; and time correction means for correcting the detection timing at which the first detection means have detected the object information within one cycle as one timing of the one cycle. The one timing within the one cycle is made to match one of predetermined timings of the second detection means.

Description

本発明は、車両の周辺監視装置に関し、より具体的には、車両の周辺監視装置におけるレーダとカメラの同期補正に関する。   The present invention relates to a vehicle periphery monitoring apparatus, and more specifically to synchronization correction of a radar and a camera in a vehicle periphery monitoring apparatus.

特許文献1は、車両の前方にある対象物を認識する対象物認識装置を開示する。この対象物認識装置は、スキャン式のレーダと撮像装置(カメラ)を併用して、レーダから得られる対象物候補の検出情報を基に赤外線画像中の対象物を特定する。   Patent document 1 discloses the target object recognition apparatus which recognizes the target object ahead of a vehicle. This object recognition device uses a scanning radar and an imaging device (camera) in combination to identify an object in an infrared image based on detection information of an object candidate obtained from the radar.

特許4205825号公報Japanese Patent No. 4205825

レーダとカメラのデータ取得タイミングにはずれ(以下、「同期ずれ」とも呼ぶ)があり、この同期ずれを補正しないと、両者の検出範囲(位置)が大きくずれてしまい、レーダの検出情報に対応したカメラ画像中の物体を検出することができない場合が生ずる。この同期ずれは、所定の走査時間と検出タイミングの時間補正を必要とするレーダと、所定のタイミング毎に撮像するカメラとにおけるデータ取得タイミングのずれが原因で生ずる。   There is a difference in the data acquisition timing between the radar and the camera (hereinafter also referred to as “synchronization error”). If this synchronization error is not corrected, the detection range (position) of both will greatly deviate, corresponding to the detection information of the radar. There are cases where an object in a camera image cannot be detected. This synchronization shift is caused by a shift in data acquisition timing between a radar that requires time correction of a predetermined scanning time and detection timing and a camera that captures images at each predetermined timing.

また、この同期ずれを補正する際に、そのタイミングのずれ時間における車両の移動によるデータの変動分(画像上の物体の位置ずれ等)も同時に補正する必要がある。   In addition, when correcting this synchronization shift, it is necessary to simultaneously correct data fluctuations due to vehicle movement during the timing shift time (positional shift of an object on the image, etc.).

同期ずれ補正の方法として、外部同期回路により両者の検出開始タイミングを同期させる方法や検出周期が遅い(長い)レーダから同期信号を出力し、検出周期が速い(短い)カメラのタイミングをレーダのタイミングに合わせる形で検出開始タイミングを同期させる方法が知られている.
しかし、従来の方法では、新たな同期回路が必要となったり、また処理時間が長いレーダが処理時間の短いカメラに合わせて駆動させるための専用設計が必要となる場合がある。さらに、処理時間が長いレーダが本来の処理周期で動作していないために、そのデータを別システムで併用する等の展開が困難であり、レーダまたはカメラの本来の性能(検出スピード等)を生かすことができない恐れがある。
As a method for correcting the synchronization error, a synchronization signal is output from a radar with a slow (long) detection cycle by synchronizing the detection start timing of both with an external synchronization circuit, and the timing of the camera with a fast (short) detection cycle is set to the radar timing. There is a known method to synchronize the detection start timing in accordance with.
However, the conventional method may require a new synchronization circuit, or may require a dedicated design for a radar having a long processing time to drive in accordance with a camera having a short processing time. Furthermore, since radar with a long processing time does not operate at the original processing cycle, it is difficult to deploy the data in another system, and the original performance (detection speed, etc.) of the radar or camera is utilized. There is a fear that you can not.

したがって、本発明は、新たな同期回路を必要とせず、レーダおよびカメラの検出タイミングを調整(補正)し、同時にその検出タイミングのずれ時間における車両移動によるデータの変動分も同時に補正することが可能な車両の周辺監視装置を提供することを目的とする。   Therefore, the present invention does not require a new synchronization circuit, and can adjust (correct) the detection timing of the radar and the camera, and simultaneously correct the data fluctuation due to the vehicle movement during the detection timing shift time. An object of the present invention is to provide a vehicle periphery monitoring device.

本発明は、車両の周辺の物体情報を所定周期で連続して検出する第1検出手段と、第1検出手段とは異なる方法で、車両の周辺の物体情報を所定のタイミング毎に検出する第2検出手段と、第1検出手段が1周期内に検出した物体情報の検出タイミングを当該1周期内の1つのタイミングとして補正する時間補正手段とを備え、その1周期内の1つのタイミングは、第2検出手段の所定のタイミングの1つと一致することを特徴とする、車両の周辺監視装置である。   The present invention provides a first detection means for continuously detecting object information around the vehicle at a predetermined cycle, and a method different from the first detection means for detecting object information around the vehicle at every predetermined timing. 2 detection means and time correction means for correcting the detection timing of the object information detected by the first detection means within one cycle as one timing within the one cycle, and one timing within the one cycle is: The vehicle periphery monitoring device is characterized in that it coincides with one of the predetermined timings of the second detection means.

本発明によれば、同期信号を必要とすることなく、第1検出手段(例えばレーダ)と第2検出手段(例えばカメラ)各々の固有のタイミング制御をそのまま生かしながら、すなわち両者の非同期な制御を利用しながら、両者のデータの取得タイミングの補正(データ間の対応付け)をおこなうことが可能となる。   According to the present invention, without using a synchronization signal, the inherent timing control of each of the first detection means (for example, radar) and the second detection means (for example, camera) is utilized as it is, that is, asynchronous control of both is performed. It is possible to correct the acquisition timing of both data (correlation between data) while using them.

本発明の一形態によると、車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、レーダが検出した物体の位置または大きさに対応する、カメラが撮像した対応画像上に所定領域を設定して当該所定領域内の物体を特定する手段とを備える、車両の周辺監視装置が提供される。この周辺監視装置は、レーダによって検出された物体の位置または大きさの検出タイミングと、カメラによって取得された対応画像の取得タイミングとの差分を検出する検出手段と、その差分に相当する車両の移動量を算出する算出手段と、車両の移動量に応じてレーダによって検出された物体の位置または大きさを補正する補正手段と、を有する。   According to one aspect of the present invention, a radar that detects an object around the vehicle, a camera that captures an image around the vehicle, and a corresponding image captured by the camera that corresponds to the position or size of the object detected by the radar There is provided a vehicle periphery monitoring device comprising: means for setting a predetermined area on the top and identifying an object in the predetermined area. The periphery monitoring device includes a detection unit that detects a difference between the detection timing of the position or size of the object detected by the radar and the acquisition timing of the corresponding image acquired by the camera, and movement of the vehicle corresponding to the difference. Calculation means for calculating the amount, and correction means for correcting the position or size of the object detected by the radar according to the amount of movement of the vehicle.

本発明の一形態によれば、カメラ画像が取得されたタイミングからレーダ情報が取得されるまでの間での車両の移動量に応じてレーダによって検出された物体の位置または大きさを補正することで、カメラ画像とレーダ情報とのマッチング精度を向上させることが可能となる。   According to an aspect of the present invention, the position or size of an object detected by a radar is corrected according to the amount of movement of a vehicle from the timing at which a camera image is acquired until the radar information is acquired. Thus, the matching accuracy between the camera image and the radar information can be improved.

本発明の一形態によると、レーダは所定の走査時間毎に物体を検出し、レーダによる検出タイミングは、所定の走査時間の開始時または終了時のタイミングであり、カメラによる画像取得タイミングは、所定の走査時間内での取得タイミングである。   According to one aspect of the present invention, the radar detects an object every predetermined scanning time, the detection timing by the radar is a timing at the start or end of the predetermined scanning time, and the image acquisition timing by the camera is predetermined. Is the acquisition timing within the scanning time.

本発明の一形態によれば、新たな同期回路を必要とすることなく、レーダの走査時間内でのカメラによる画像取得タイミングにレーダによる検出タイミングを合わせこむことにより、両者の検出タイミングの補正をすることができる。   According to one aspect of the present invention, the detection timing of the radar is matched with the image acquisition timing of the camera within the radar scanning time without requiring a new synchronization circuit, thereby correcting the detection timing of both. can do.

本発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus according to one Example of this invention. 本発明の一実施例に従う、画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in an image processing unit according to one Example of this invention. 本発明の一実施例に従う、物体情報の取得時間の補正処理フローを示す図である。It is a figure which shows the correction processing flow of the acquisition time of object information according to one Example of this invention. 本発明の一実施例に従う、レーダ走査時間中の自車両の移動量の補正処理フローを示す図である。It is a figure which shows the correction processing flow of the moving amount | distance of the own vehicle during the radar scanning time according to one Example of this invention. 本発明の一実施例に従う、レーダ走査と画像取得のタイミングフローを示す図である。FIG. 5 is a diagram illustrating a timing flow of radar scanning and image acquisition according to an embodiment of the present invention. 本発明の一実施例に従う、車両前方の物体検知の様子を示す図である。It is a figure which shows the mode of the object detection ahead of a vehicle according to one Example of this invention.

図面を参照しながら本発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、レーダ10と、カメラ12と、カメラ12によって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット14と、その検出結果に基づいて音または音声で警報を発生するスピーカ16と、カメラ12の撮像を介して得られた画像を表示すると共に、運転者に車両周辺の物体を認識させるための表示を行う表示装置18とを備える。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The periphery monitoring device is mounted on a vehicle and is based on a radar 10, a camera 12, an image processing unit 14 for detecting an object around the vehicle based on image data captured by the camera 12, and a detection result thereof. A speaker 16 that generates an alarm by sound or voice, and a display device 18 that displays an image obtained through imaging of the camera 12 and makes the driver recognize an object around the vehicle are provided.

なお、レーダ10は、例えばスキャン式レーザレーダが該当し、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体(候補)の位置、大きさ(領域)およびそれまでの距離を検出する。なお、レーダ10は、他の種類のレーダ(例えばミリ波レーダ等)であってもよい。   The radar 10 corresponds to, for example, a scanning laser radar, and receives the reflected light from the object of the beam scanned in each direction, thereby detecting the position and size (area) of the object (candidate) in each direction as a detection point. ) And the distance to it. The radar 10 may be another type of radar (for example, a millimeter wave radar).

カメラ12には、赤外線カメラ、赤外線以外の他の波長帯の光(例えば可視光)を利用するカメラ等が含まれる。なお、以下の説明では、カメラ12として赤外線カメラが撮影したグレースケール画像を対象としているが、これに限定されるものではない。さらに、ナビゲーション装置を備える車両においては、スピーカ16および表示装置18として、ナビゲーション装置が備える該当機能を利用してもよい。   The camera 12 includes an infrared camera, a camera that uses light in a wavelength band other than infrared (for example, visible light), and the like. In the following description, the camera 12 is a grayscale image taken by an infrared camera, but is not limited to this. Furthermore, in a vehicle provided with a navigation device, the corresponding function provided in the navigation device may be used as the speaker 16 and the display device 18.

図1の画像処理ユニット14は、ブロック141〜148で示される手段(機能)を含む(実行する)。すなわち、画像処理ユニット14は、レーダ10からの信号を受けて車両の周辺の物体の位置等の情報(検出点データ)を取得する手段141と、赤外線カメラ12が撮影した車両の周辺の画像をグレースケール画像として取得する画像取得手段142と、取得した画像の取得タイミング(時間)を検出する手段143と、レーダ10が検出した物体の位置等の情報(検出点データ)の検出時間(タイミング)を補正する時間補正手段144と、として機能する。   The image processing unit 14 in FIG. 1 includes (executes) means (functions) indicated by blocks 141 to 148. That is, the image processing unit 14 receives a signal from the radar 10 and obtains information (detection point data) such as positions of objects around the vehicle and an image around the vehicle captured by the infrared camera 12. Image acquisition means 142 to acquire as a gray scale image, means 143 to detect the acquisition timing (time) of the acquired image, and detection time (timing) of information (detection point data) such as the position of the object detected by the radar 10 Function as time correction means 144 for correcting the above.

画像処理ユニット14は、さらに、レーダ10によって検出された物体の位置または大きさの検出タイミングと、赤外線カメラ12によって取得された対応画像の取得タイミングとの差分を検出する検出手段145と、その差分に相当する車両の移動量を算出する算出手段146と、車両の移動量に応じてレーダ10によって取得された物体の位置または大きさを補正する補正手段147と、検出された物体の位置に対応する、取得された対応するグレースケール画像上の所定領域を特定して当該所定領域内の物体を特定する手段148として機能する。   The image processing unit 14 further includes detection means 145 for detecting a difference between the detection timing of the position or size of the object detected by the radar 10 and the acquisition timing of the corresponding image acquired by the infrared camera 12, and the difference Corresponding to the detected object position, the calculating means 146 for calculating the movement amount of the vehicle corresponding to the above, the correcting means 147 for correcting the position or size of the object acquired by the radar 10 according to the movement amount of the vehicle, and The unit 148 functions as a unit 148 that identifies a predetermined area on the acquired corresponding grayscale image and identifies an object in the predetermined area.

各ブロックの機能は、画像処理ユニット14が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット14の構成は、ナビゲーション装置の中に組み込んでもよい。   The function of each block is realized by a computer (CPU) included in the image processing unit 14. The configuration of the image processing unit 14 may be incorporated in the navigation device.

画像処理ユニット14は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM、スピーカ16に対する駆動信号および表示装置18に対する表示信号などを出力する出力回路を備えている。レーダ10と赤外線カメラ12の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。   The image processing unit 14 includes, for example, an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, and a central processing unit (CPU) that performs various arithmetic processes. ), RAM used by the CPU to store data for computation, ROM to store programs executed by the CPU and data to be used (including tables and maps), drive signals for the speakers 16, display signals to the display device 18, etc. An output circuit for outputting is provided. The output signals of the radar 10 and the infrared camera 12 are converted into digital signals and input to the CPU.

次に、本発明の一実施形態におけるレーダとカメラの出力信号の同期補正方法について説明する。   Next, a method for correcting the synchronization between the output signals of the radar and the camera in one embodiment of the present invention will be described.

図2は、画像処理ユニット14によって実行される処理フローを示す図である。図2の処理フローは、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。   FIG. 2 is a diagram illustrating a processing flow executed by the image processing unit 14. The processing flow in FIG. 2 is executed at predetermined time intervals by calling the processing program stored in the memory by the CPU of the image processing unit 14.

ステップS1において、赤外線カメラ12の出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール(白黒の濃淡)画像である。対象の温度が高い部分ほど高輝度となる赤外線カメラでは、高輝度部分の明暗値が高い画像データとなり、その温度が低く(低輝度に)なるにつれて明暗値が低い画像データとなる。   In step S1, an output signal (that is, captured image data) of the infrared camera 12 is received as an input, A / D converted, and stored in an image memory. The stored image data is a grayscale (monochrome shade) image including luminance information. In an infrared camera in which the higher the temperature of the target, the higher the brightness is, the image data has a higher brightness value in the higher brightness portion, and the image data has a lower brightness value as the temperature becomes lower (lower brightness).

ステップS2において、レーダ10の走査を開始する。この走査はステップS1の画像データ取得と並行して行われる。   In step S2, scanning of the radar 10 is started. This scanning is performed in parallel with the image data acquisition in step S1.

ステップS3において、レーダ10からの信号を受けて車両の周辺の所定の物体の位置を示す検出点データ(点列データ)を取得する。このデータ取得には任意の方法を用いることができるが、例えば以下のようにおこなう。   In step S3, detection point data (point sequence data) indicating the position of a predetermined object around the vehicle is acquired in response to a signal from the radar 10. An arbitrary method can be used for this data acquisition, for example, as follows.

レーダ10としてスキャン式レーザレーダを使用して、その検出点群の幅から物体、例えば歩行者候補の位置を特定する。具体的には、スキャン式レーザレーダでは、所定範囲でスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体までの距離を測定する。レーザレーダの位置を原点としてY軸をレーダの正面方向とする2次元座標系にこれらの検出点の位置をプロットして検出点の集合を得る。これらの検出点の集合から、各検出点の相互の間隔が所定値以下のものを検出点群としてグループ化し、グループ化した検出点群のうち、広がり幅が所定値以下のものを所定の物体候補(例えば歩行者候補)とみなしてその各位置を検出点データ(点列データ)としてメモリに格納する。   A scanning laser radar is used as the radar 10, and the position of an object, for example, a pedestrian candidate is specified from the width of the detection point group. Specifically, a scanning laser radar measures the distance to an object in each direction as a detection point by receiving reflected light from the object of a beam scanned in a predetermined range. A set of detection points is obtained by plotting the positions of these detection points in a two-dimensional coordinate system in which the position of the laser radar is the origin and the Y axis is the front direction of the radar. From these set of detection points, detection point groups are grouped as detection point groups whose mutual distance between detection points is equal to or smaller than a predetermined value, and among the grouped detection point groups, those having a spread width equal to or smaller than a predetermined value are grouped as predetermined objects. Each position is regarded as a candidate (for example, a pedestrian candidate) and stored in the memory as detection point data (point sequence data).

ステップS4において、時間補正をおこなう。ここで言う時間補正は、レーダ10によって取得された物体情報(点列データ)の取得時間(タイミング)の補正と、レーダ走査時間中の自車両の移動量の補正の2つを意味する。図3〜図6を参照しながら、この2つの補正について説明する。   In step S4, time correction is performed. The time correction mentioned here means two corrections: correction of the acquisition time (timing) of the object information (point sequence data) acquired by the radar 10 and correction of the movement amount of the own vehicle during the radar scanning time. These two corrections will be described with reference to FIGS.

図3は、画像処理ユニット14によって実行される、物体情報の取得時間の補正の処理ルーチン(フロー)を示す図である。図3のステップS41において、赤外線カメラ12によって取得された画像の取得タイミングを検出する。ステップS42において、レーダ10によって取得された物体情報(点列データ)の取得時間を補正する。図5を参照しながら、この2つのステップの内容について説明する。   FIG. 3 is a diagram illustrating a processing routine (flow) for correcting the acquisition time of object information, which is executed by the image processing unit 14. In step S41 of FIG. 3, the acquisition timing of the image acquired by the infrared camera 12 is detected. In step S42, the acquisition time of the object information (point sequence data) acquired by the radar 10 is corrected. The contents of these two steps will be described with reference to FIG.

図5は、本発明の一実施例に従う、レーダ走査と画像取得のタイミングフローを示す図である。レーダ10は所定の走査時間TS(例えば約60ms)毎に物体候補の位置等を検出する。この場合、物体候補はその走査時間TS内のどこかのタイミングで検出されるが、そのタイミングは物体候補の位置等において変化するので、従来は走査開始時(図4のP1〜P4)において検出したものとしてその時間補正をおこなっていた。一方、赤外線カメラ12は所定のタイミングT1〜T6(例えば約33ms)毎に車両前方の画像を撮像する。このタイミングT1〜T6が図3のステップS41において取得されるタイミングである。したがって、レーダ10による物体候補の検出タイミングと赤外線カメラ12による画像取得のタイミングは基本的に一致することはなく、つまり両タイミングの同期がとれることは原則としてない。   FIG. 5 is a diagram illustrating a timing flow of radar scanning and image acquisition according to an embodiment of the present invention. The radar 10 detects the position of the object candidate and the like every predetermined scanning time TS (for example, about 60 ms). In this case, the object candidate is detected at some timing within the scanning time TS, but since the timing changes at the position of the object candidate, etc., it is conventionally detected at the start of scanning (P1 to P4 in FIG. 4). As a result, the time was corrected. On the other hand, the infrared camera 12 captures an image in front of the vehicle at predetermined timings T1 to T6 (for example, about 33 ms). These timings T1 to T6 are timings acquired in step S41 in FIG. Therefore, the detection timing of the object candidate by the radar 10 and the timing of image acquisition by the infrared camera 12 do not basically coincide with each other, that is, there is no principle that both timings can be synchronized.

本発明の一実施形態によれば、両タイミングの同期をとるように制御をおこなうのではなく、レーダ10による物体候補の検出タイミングを赤外線カメラ12による画像取得のタイミングに合わせるように時間補正をおこなう。図5の例では、例えばレーダ走査P1〜P2間において検出された物体候補のタイミングを赤外線カメラ12から送られてくる画像取得のタイミングT2に合わせるように時間補正をする。すなわち、レーダ10によって走査P1〜P2間において検出された物体候補のデータ(位置、大きさ等)は、赤外線カメラ12によってタイミングT2において取得された画像データと同じタイミングでのデータとして対応(関連)付けられる。この時間(タイミング)補正が図3のステップS42において実行される時間補正に相当する。   According to an embodiment of the present invention, instead of performing control so as to synchronize both timings, time correction is performed so that the detection timing of an object candidate by the radar 10 matches the timing of image acquisition by the infrared camera 12. . In the example of FIG. 5, for example, time correction is performed so that the timing of the object candidate detected between the radar scans P <b> 1 and P <b> 2 matches the timing T <b> 2 of image acquisition sent from the infrared camera 12. That is, object candidate data (position, size, etc.) detected between the scans P1 and P2 by the radar 10 corresponds (related) as data at the same timing as the image data acquired by the infrared camera 12 at the timing T2. Attached. This time (timing) correction corresponds to the time correction executed in step S42 of FIG.

その際、万が一レーダ10がその走査時間TS内において赤外線カメラ12から画像取得のタイミングを取得できない場合は、走査終了時のタイミングにおいて物体候補のデータが取得されたされたものとする。図5の例では、画像取得のタイミングT3およびT4をレーダ10が取得できなった場合、走査終了時P3(T4´)のタイミングにおいてレーダ10によって物体候補のデータが取得されたされたものとする。この場合、赤外線カメラ12によって取得された画像データとしては、走査終了時P3(T4´)に最も近いタイミングT4での画像データを用いて、そのTタイミング4での画像データを物体候補のデータと対応(関連)付ける。   At this time, if the radar 10 cannot acquire the image acquisition timing from the infrared camera 12 within the scanning time TS, it is assumed that the object candidate data has been acquired at the timing of the end of scanning. In the example of FIG. 5, when the radar 10 cannot acquire the image acquisition timings T3 and T4, it is assumed that the object candidate data has been acquired by the radar 10 at the timing of P3 (T4 ′) at the end of scanning. . In this case, as the image data acquired by the infrared camera 12, the image data at the timing T4 closest to the end of scanning P3 (T4 ') is used, and the image data at the T timing 4 is used as object candidate data. Applicable (related).

このように、本発明の一実施形態によれば、同期信号を必要とすることなく、レーダとカメラそれぞれのタイミング制御をそのまま生かしながら、すなわち両者の非同期な制御を利用しながら、両者のデータの取得タイミングの補正(データ間の対応付け)をおこなうことが可能となる。   As described above, according to an embodiment of the present invention, without using a synchronization signal, the timing control of each of the radar and the camera is utilized as it is, that is, while using the asynchronous control of both, It is possible to correct the acquisition timing (correlation between data).

図4は、画像処理ユニット14によって実行される、レーダ走査時間中の自車両の移動量の補正の処理ルーチン(フロー)を示す図である。図4のステップS401において、上述した図3のステップS41と同様に、赤外線カメラ12によって取得された画像の取得タイミングを検出する。   FIG. 4 is a diagram showing a processing routine (flow) for correcting the movement amount of the host vehicle during the radar scanning time, which is executed by the image processing unit 14. In step S401 of FIG. 4, the acquisition timing of the image acquired by the infrared camera 12 is detected as in step S41 of FIG.

ステップS402において、レーダ10によって検出された物体の位置検出点データ(点列データ)と、赤外線カメラ12によって取得された画像の取得タイミングとの差分を検出する。図5を参照しながら説明したように、レーダ10によって検出された物体候補の検出タイミングと、赤外線カメラ12によって取得された画像の取得タイミングとは原則としてずれている、すなわち差分(時間差)が発生することになる。ステップS402では、この両者の取得タイミングの差分(時間差)を検出する。図5の例では、例えば画像取得のタイミングT2に合わせる場合、そのタイミングT2とレーダ10による物体候補の検出タイミングとの差分(時間差)を求めることになる。この場合、画像取得のタイミングが走査時間TS内に必ず1つは入るので、その差分は最大でも走査時間TSよりも小さい値(0<t<TS)となる。   In step S <b> 402, the difference between the position detection point data (point sequence data) of the object detected by the radar 10 and the image acquisition timing acquired by the infrared camera 12 is detected. As described with reference to FIG. 5, the detection timing of the object candidate detected by the radar 10 and the acquisition timing of the image acquired by the infrared camera 12 are in principle shifted, that is, a difference (time difference) occurs. Will do. In step S402, a difference (time difference) between the two acquisition timings is detected. In the example of FIG. 5, for example, when matching with the image acquisition timing T2, the difference (time difference) between the timing T2 and the detection timing of the object candidate by the radar 10 is obtained. In this case, since one image acquisition timing always falls within the scanning time TS, the difference is a maximum value smaller than the scanning time TS (0 <t <TS).

次に、ステップS403において、ステップS401において求めた取得タイミングの差分(時間)での車両の移動量を算出する。図6を参照しながらこの移動量の算出について説明する。   Next, in step S403, the movement amount of the vehicle at the difference (time) in the acquisition timing obtained in step S401 is calculated. The calculation of the movement amount will be described with reference to FIG.

図6は、本発明の一実施例に従う、車両前方の物体検知の様子を示す図である。図6において、車両20が方向21に沿って進行しているとする。符号23、24、25で指示される線は、レーダ10によって検出可能な範囲であり、矢印22で示される方向に沿って走査を繰り返す範囲である。時間t0、t1、t2はそれぞれ車両の移動時間を示し、時間t0とt2において赤外線カメラ12によって画像が取得されるとする。すなわち、時間t0とt2は図5のタイミングT1〜T5に対応する。   FIG. 6 is a diagram showing a state of object detection in front of the vehicle according to one embodiment of the present invention. In FIG. 6, it is assumed that the vehicle 20 is traveling along the direction 21. Lines indicated by reference numerals 23, 24, and 25 are ranges that can be detected by the radar 10, and are ranges in which scanning is repeated along the direction indicated by the arrow 22. Times t0, t1, and t2 indicate vehicle movement times, respectively, and it is assumed that images are acquired by the infrared camera 12 at times t0 and t2. That is, times t0 and t2 correspond to timings T1 to T5 in FIG.

赤外線カメラ12による画像取得と並行して行われるレーダ10走査により、時間t0〜t2の間で検出データ(点列データ)として図の3つの物体候補A、B、Cが検出されたとする。物体候補Aは時間t0あるいはその近傍のタイミングで、物体候補Bは時間t1あるいはその近傍のタイミングで、そして物体候補Cは時間t2あるいはその近傍のタイミングでそれぞれレーダ10によって検出されたとする。なお、物体候補A、B、Cは、時間t0〜t2間においていずれも静止していたとする。図5を参照して説明したように、本発明の一実施形態では、赤外線カメラ12による画像取得のタイミングにレーダ10による物体候補の検出タイミングを合わせこむので、図6の例では、例えば時間t0において全ての物体候補A〜Cが検出されたものとみなして時間補正をおこなうことになる。   Assume that three object candidates A, B, and C in the figure are detected as detection data (point sequence data) between times t0 and t2 by radar 10 scanning performed in parallel with image acquisition by the infrared camera 12. Assume that the object candidate A is detected by the radar 10 at time t0 or a timing near it, the object candidate B is detected at time t1 or a timing near it, and the object candidate C is detected by time t2 or a timing near it. It is assumed that the object candidates A, B, and C are all stationary between the times t0 and t2. As described with reference to FIG. 5, in the embodiment of the present invention, the detection timing of the object candidate by the radar 10 is matched with the timing of the image acquisition by the infrared camera 12. The time correction is performed assuming that all object candidates A to C have been detected.

この場合、車両20は所定の速度で前方に移動しているので、その時間補正をおこなう際に、同時にその時間差に相当する車両の移動量を算出して物体候補A、B、Cの取得データに対してその移動量分の補正をおこなう必要がある。ステップS403ではそのための車両の移動量を算出する。具体的には、例えば車速Vのデータを取得して、物体候補Bに対しては時間差Δt(=t1−t0)を乗算して、物体候補Cに対しては時間差Δt(=t2−t0)を乗算して、それぞれの移動量(距離)d1、d2を算出する(d=V×Δt)。   In this case, since the vehicle 20 is moving forward at a predetermined speed, when performing the time correction, the movement amount of the vehicle corresponding to the time difference is calculated at the same time, and the acquisition data of the object candidates A, B, and C Therefore, it is necessary to correct the movement amount. In step S403, the movement amount of the vehicle for that purpose is calculated. Specifically, for example, data of the vehicle speed V is acquired, the object candidate B is multiplied by the time difference Δt (= t1−t0), and the object candidate C is multiplied by the time difference Δt (= t2−t0). To calculate respective movement amounts (distances) d1 and d2 (d = V × Δt).

図2のフローに戻って、ステップS5において、画像上の物体位置を設定する。具体的には、取得されたグレースケール画像上に物体候補の位置を示す所定領域を設定する。この所定領域は、ステップS3においてレーザレーダ10によって取得された検出点(物体候補の位置)を含む領域である。その際、図4のステップS403において得られた移動量(距離)を用いて検出点(物体候補の位置)等を補正する。   Returning to the flow of FIG. 2, in step S5, the object position on the image is set. Specifically, a predetermined area indicating the position of the object candidate is set on the acquired grayscale image. This predetermined area is an area including the detection point (the position of the object candidate) acquired by the laser radar 10 in step S3. At that time, the detection point (object candidate position) and the like are corrected using the movement amount (distance) obtained in step S403 of FIG.

具体的には、図6の例では、物体候補Bのデータに対して、移動量(距離)d1を加算して、その位置(車両20からの距離)を補正、物体候補Bの画像上での大きさ(領域)、あるいは物体候補Bについての所定領域を補正(縮小または拡大)する。物体候補Cに対しても物体候補Bの場合と同様である。   Specifically, in the example of FIG. 6, the movement amount (distance) d1 is added to the data of the object candidate B to correct its position (distance from the vehicle 20), and on the image of the object candidate B Is corrected (reduced or enlarged) for a predetermined area for the object candidate B. The same applies to the object candidate C as in the case of the object candidate B.

この所定領域の設定は、任意の方法を用いることができるが、例えば物体の位置として歩行者の位置を特定する場合を例にとると、歩行者候補の位置を含む所定サイズの領域(検出点群)を赤外線カメラ12のカメラ座標系に変換し、グレースケール画像中にマッピング(重畳)して、対応するグレースケール画像上の所定領域として設定する。   An arbitrary method can be used for setting the predetermined area. For example, when the position of the pedestrian is specified as the position of the object, an area of a predetermined size including the position of the pedestrian candidate (detection point) is used. Group) is converted into the camera coordinate system of the infrared camera 12, mapped (superimposed) in the gray scale image, and set as a predetermined area on the corresponding gray scale image.

このように、本発明の一実施形態によれば、カメラ画像が取得されたタイミングからレーダ情報が取得されるまでの間での車両の移動量に応じて対応画像上の物体の位置または大きさ(所定領域)を補正することで、カメラ画像とレーダ情報とのマッチング精度を向上させることが可能となる。   Thus, according to an embodiment of the present invention, the position or size of the object on the corresponding image according to the amount of movement of the vehicle from the timing when the camera image is acquired until the radar information is acquired. By correcting (predetermined region), it is possible to improve the matching accuracy between the camera image and the radar information.

ステップS6において、画像上の物体候補が所定の物体であるかを特定する。この特定は、ステップS5において得られた画像上の所定領域を基準としてその領域内あるいはその近傍の領域内における物体候補についておこなう。この特定は、任意の方法によりおこなうことができるが、例えば、グレースケール画像を2値化処理して得られる白黒画像から物体候補(対象物)を照合する。   In step S6, it is specified whether the object candidate on the image is a predetermined object. This specification is performed for object candidates in the area or in the vicinity of the predetermined area on the image obtained in step S5. This specification can be performed by an arbitrary method. For example, an object candidate (object) is collated from a black and white image obtained by binarizing a grayscale image.

具体的には、最初に予めメモリに保管している除外対象物の特徴を有するか否かを調べる。除外対象物とは、例えば発熱体ではあるが明らかに形状等が異なる物体(4足動物、車両等)を意味する。除外対象物に該当しない場合、所定の物体の特徴に該当するか否かを調べる。例えば、所定の物体が歩行者である場合、歩行者の頭部の特徴として丸みを帯びた白部が存在し、その下に胴体、脚部の部分に相当する細長い白部が繋がっていること等が含まれる。また、周知のパターンマッチングを利用し、予め保管してある歩行者を表す所定のパターンとの類似度を算出し、その類似度を歩行者であるか否かの判断材料としてもよい。さらに、歩行者の歩行速度はほぼ一定であることから、レーダ10から得られる物体の移動速度の情報を判断材料の1つとして用いてもよい。   Specifically, first, it is checked whether or not it has the characteristics of the excluded object stored in the memory in advance. The excluded object means, for example, an object (such as a quadruped animal or a vehicle) that is a heating element but has a clearly different shape. If it does not correspond to the excluded object, it is checked whether it corresponds to the characteristic of the predetermined object. For example, when the predetermined object is a pedestrian, a rounded white portion exists as a feature of the pedestrian's head, and an elongated white portion corresponding to the body and leg portions is connected below the white portion. Etc. are included. Further, the similarity with a predetermined pattern representing a pedestrian stored in advance may be calculated using known pattern matching, and the similarity may be used as a material for determining whether or not the user is a pedestrian. Furthermore, since the walking speed of the pedestrian is substantially constant, information on the moving speed of the object obtained from the radar 10 may be used as one of judgment materials.

以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。   The embodiment of the present invention has been described above, but the present invention is not limited to such an embodiment, and can be modified and used without departing from the spirit of the present invention.

10 レーダ、
12 カメラ(赤外線カメラ)、
14 画像処理ユニット
16 スピーカ、
18 表示装置、
20 車両
23、24、25 レーダの検出可能(走査)範囲
10 Radar,
12 cameras (infrared cameras),
14 Image processing unit 16 Speaker,
18 display device,
20 Vehicles 23, 24, 25 Detectable (scanning) range of radar

同期ずれ補正の方法として、外部同期回路により両者の検出開始タイミングを同期させる方法や検出周期が遅い(長い)レーダから同期信号を出力し、検出周期が速い(短い)カメラのタイミングをレーダのタイミングに合わせる形で検出開始タイミングを同期させる方法が知られている。
しかし、従来の方法では、新たな同期回路が必要となったり、また処理時間が短いカメラが処理時間の長いレーダに合わせて駆動させるための専用設計が必要となる場合がある。さらに、処理時間が短いカメラが本来の処理周期で動作していないために、そのデータを別システムで併用する等の展開が困難であり、レーダまたはカメラの本来の性能(検出スピード等)を生かすことができない恐れがある。
As a method for correcting the synchronization error, a synchronization signal is output from a radar with a slow (long) detection cycle by synchronizing the detection start timing of both with an external synchronization circuit, and the timing of the camera with a fast (short) detection cycle is set to the radar timing. There is known a method of synchronizing the detection start timing so as to match.
However, the conventional method may require a new synchronization circuit, or may require a dedicated design for driving a camera with a short processing time according to a radar with a long processing time. Furthermore, since a camera with a short processing time does not operate at the original processing cycle, it is difficult to deploy the data in another system, and the original performance (detection speed, etc.) of the radar or camera is utilized. There is a fear that you can not.

Claims (3)

車両の周辺の物体情報を所定周期で連続して検出する第1検出手段と、
前記第1検出手段とは異なる方法で、車両の周辺の物体情報を所定のタイミング毎に検出する第2検出手段と、
前記第1検出手段が1周期内に検出した物体情報の検出タイミングを当該1周期内の1つのタイミングとして補正する時間補正手段とを備え、
前記1周期内の1つのタイミングは、前記第2検出手段の前記所定のタイミングの1つと一致することを特徴とする、車両の周辺監視装置。
First detection means for continuously detecting object information around the vehicle at a predetermined period;
Second detection means for detecting object information around the vehicle at a predetermined timing in a method different from the first detection means;
A time correction unit that corrects the detection timing of the object information detected by the first detection unit within one cycle as one timing within the one cycle;
The vehicle periphery monitoring device according to claim 1, wherein one timing in the one cycle coincides with one of the predetermined timings of the second detection means.
車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、前記レーダが検出した物体の位置または大きさに対応する、前記カメラが撮像した対応画像上に所定領域を設定して当該所定領域内の前記物体を特定する手段とを備える、車両の周辺監視装置であって、
前記レーダによって検出された物体の位置または大きさの検出タイミングと、前記カメラによって取得された対応画像の取得タイミングとの差分を検出する検出手段と、
前記差分に相当する前記車両の移動量を算出する算出手段と、
前記車両の移動量に応じて前記レーダによって検出された物体の位置または大きさを補正する補正手段と、を有する車両の周辺監視装置。
A predetermined area is set on a corresponding image captured by the camera corresponding to the position or size of an object detected by the radar, a radar that detects an object around the vehicle, a camera that captures an image around the vehicle And a vehicle periphery monitoring device comprising means for identifying the object in the predetermined area,
Detection means for detecting a difference between the detection timing of the position or size of the object detected by the radar and the acquisition timing of the corresponding image acquired by the camera;
Calculating means for calculating a movement amount of the vehicle corresponding to the difference;
A vehicle periphery monitoring device comprising: correction means for correcting the position or size of an object detected by the radar according to the amount of movement of the vehicle.
前記レーダは所定の走査時間毎に物体を検出し、当該レーダによる前記検出タイミングは、当該所定の走査時間の開始時または終了時のタイミングであり、前記カメラによる前記取得タイミングは、前記所定の走査時間内での取得タイミングである、請求項2に記載の周辺監視装置。   The radar detects an object every predetermined scanning time, the detection timing by the radar is a timing at the start or end of the predetermined scanning time, and the acquisition timing by the camera is the predetermined scanning time. The periphery monitoring device according to claim 2, which is an acquisition timing within a time.
JP2010151863A 2010-07-02 2010-07-02 Apparatus for monitoring surrounding of vehicle Pending JP2012014553A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010151863A JP2012014553A (en) 2010-07-02 2010-07-02 Apparatus for monitoring surrounding of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010151863A JP2012014553A (en) 2010-07-02 2010-07-02 Apparatus for monitoring surrounding of vehicle

Publications (1)

Publication Number Publication Date
JP2012014553A true JP2012014553A (en) 2012-01-19

Family

ID=45600878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010151863A Pending JP2012014553A (en) 2010-07-02 2010-07-02 Apparatus for monitoring surrounding of vehicle

Country Status (1)

Country Link
JP (1) JP2012014553A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084034A (en) * 2015-10-27 2017-05-18 株式会社日立製作所 Traffic information providing device and system and method
JP2018097688A (en) * 2016-12-14 2018-06-21 株式会社デンソー Object detection device, object detection method
JP2019112158A (en) * 2017-12-21 2019-07-11 新明和工業株式会社 Refuse collecting vehicle
WO2019172103A1 (en) * 2018-03-08 2019-09-12 日立オートモティブシステムズ株式会社 Signal processing system and evaluation system for same, and signal processing device used in said signal processing system
US10442428B2 (en) 2017-07-18 2019-10-15 Denso Corporation Vehicle control system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233440A (en) * 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
JP2008021069A (en) * 2006-07-12 2008-01-31 Alpine Electronics Inc Circumference monitoring system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233440A (en) * 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
JP2008021069A (en) * 2006-07-12 2008-01-31 Alpine Electronics Inc Circumference monitoring system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084034A (en) * 2015-10-27 2017-05-18 株式会社日立製作所 Traffic information providing device and system and method
JP2018097688A (en) * 2016-12-14 2018-06-21 株式会社デンソー Object detection device, object detection method
US10442428B2 (en) 2017-07-18 2019-10-15 Denso Corporation Vehicle control system
JP2019112158A (en) * 2017-12-21 2019-07-11 新明和工業株式会社 Refuse collecting vehicle
JP7029955B2 (en) 2017-12-21 2022-03-04 新明和工業株式会社 Garbage truck
WO2019172103A1 (en) * 2018-03-08 2019-09-12 日立オートモティブシステムズ株式会社 Signal processing system and evaluation system for same, and signal processing device used in said signal processing system
JP2019158390A (en) * 2018-03-08 2019-09-19 日立オートモティブシステムズ株式会社 Signal processing system, evaluation system therefor, and signal processing device used in signal processing system

Similar Documents

Publication Publication Date Title
US9046364B2 (en) Distance measurement device and environment map generation apparatus
JP2011227029A (en) Vehicle periphery monitoring device
CN106470877B (en) Vehicle display device and vehicle display method
US9983302B2 (en) System and method for correcting vehicle tracing-position of radar sensor using laser scanner
JP2011220732A (en) Vehicle surroundings monitoring device
JP5316572B2 (en) Object recognition device
JP6457278B2 (en) Object detection apparatus and object detection method
JP2004037239A (en) Identical object judging method and system, and misregistration correcting method and system
JP2012014553A (en) Apparatus for monitoring surrounding of vehicle
JP6727539B2 (en) Distance sensor, running body, robot and three-dimensional measuring device
JP2014137288A (en) Device and method for monitoring surroundings of vehicle
US10705195B2 (en) Distance measuring apparatus and distance measuring method
JP2009026223A (en) Object detector and program
JP2010091426A (en) Distance measuring device and program
KR101300350B1 (en) Apparatus and method for processing image
JP2006322795A (en) Image processing device, image processing method and image processing program
JP5698618B2 (en) Absolute speed estimation device
US10713807B2 (en) Vicinity supervising device and vicinity supervising method of vehicle
US20220373683A1 (en) Image processing device, monitoring system, and image processing method
US20220201164A1 (en) Image registration apparatus, image generation system, image registration method, and image registration program product
JP2011221630A (en) Vehicle periphery monitoring device
JP2020052897A (en) Target detection device and target detection method
JP5455772B2 (en) Vehicle periphery monitoring device
JP6379646B2 (en) Information processing apparatus, measurement method, and program
JPWO2020175085A1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141028