JP2011221630A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2011221630A
JP2011221630A JP2010087672A JP2010087672A JP2011221630A JP 2011221630 A JP2011221630 A JP 2011221630A JP 2010087672 A JP2010087672 A JP 2010087672A JP 2010087672 A JP2010087672 A JP 2010087672A JP 2011221630 A JP2011221630 A JP 2011221630A
Authority
JP
Japan
Prior art keywords
image
value
vehicle
velocity vector
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010087672A
Other languages
Japanese (ja)
Other versions
JP5172887B2 (en
Inventor
Masaki Negoro
昌樹 根來
Toshifumi Suzuki
敏文 鈴木
Yuji Yokochi
裕次 横地
Atsuo Eguchi
敦央 江口
Morimichi Nishigaki
守道 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010087672A priority Critical patent/JP5172887B2/en
Publication of JP2011221630A publication Critical patent/JP2011221630A/en
Application granted granted Critical
Publication of JP5172887B2 publication Critical patent/JP5172887B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring device that improves detection accuracy of a moving object at the periphery of a vehicle.SOLUTION: The vehicle periphery monitoring device comprises object detection means that detects a position and a velocity vector of an object at the periphery of a vehicle; imaging means that images an image at the periphery of the vehicle; multivalue processing means that applies multivalue processing to a grayscale image acquired by the imaging means; area setting means that set, on the acquired grayscale image corresponding to each of the positions of the object detected by the object detection means, an area of a predetermined size corresponding to each of the positions of the object; multivalue processing threshold value setting means that sets a threshold value for applying the multivalue processing to the corresponding grayscale image, in accordance with the size of the velocity vector of the corresponding object for each of the areas; and determination means that determines whether a predetermined target object is present or not based on the image subjected to the multivalue processing by the multivalue processing means using the corresponding multivalue processing threshold.

Description

本発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺を監視するための装置において、車両周辺の移動物体の検出感度を向上させることに関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle, and more specifically to improving detection sensitivity of a moving object around the vehicle in an apparatus for monitoring the periphery of the vehicle.

特許文献1は、歩行者検出装置を開示する。この歩行者検出装置は、レーザレーダと赤外線カメラを併用し、レーザレーダから得られる歩行者候補の検出情報を基に赤外線画像中の歩行者を検出する。   Patent document 1 discloses a pedestrian detection device. This pedestrian detection apparatus uses a laser radar and an infrared camera together, and detects a pedestrian in an infrared image based on detection information of a pedestrian candidate obtained from the laser radar.

特許文献2は、車載用レーダ装置を開示する。この装置では、センサの中心軸の向きを補正するために、撮影画像を複数の領域に分割し、領域毎に検出した線分から消失点および方向ベクトルを求めている。   Patent Document 2 discloses an in-vehicle radar device. In this apparatus, in order to correct the direction of the central axis of the sensor, the captured image is divided into a plurality of regions, and vanishing points and direction vectors are obtained from the line segments detected for each region.

特開2003−302470号公報JP 2003-302470 A 特許第3862015号公報Japanese Patent No. 3862015

赤外線カメラで撮像した場合、得られるグレースケール画像において、移動物体は静止物体よりも輝度が低く、すなわち暗くなる傾向がある。これは、赤外線カメラの撮像素子が熱時定数を持つため、物体の赤外線カメラに対する移動速度が大きいほど、赤外線カメラの検知信号(輝度信号)のレスポンス(立ち上がり)が静止物体よりも移動物体の方が遅くなるためである。   When an image is captured by an infrared camera, the moving object has a lower luminance than the stationary object, that is, tends to be darker in the obtained grayscale image. This is because the imaging device of the infrared camera has a thermal time constant, so the greater the moving speed of the object relative to the infrared camera, the more the response (rise) of the detection signal (luminance signal) of the infrared camera is to the moving object than the stationary object. This is because it becomes slow.

したがって、赤外線カメラ等で車両周辺の移動物体を検出する場合、この輝度の低下を考慮した上で検出処理をおこなうことが望まれる。   Therefore, when a moving object around the vehicle is detected by an infrared camera or the like, it is desired to perform the detection process in consideration of the decrease in luminance.

しかし、特許文献1、2に記載の発明においては、この輝度低下による影響を考慮して、歩行者等を検知することをおこなってはいない。   However, in the inventions described in Patent Documents 1 and 2, a pedestrian or the like is not detected in consideration of the influence of the brightness reduction.

そこで、本発明は、赤外線カメラ等の撮像手段により取得された画像、例えばグレースケール画像における移動物体の輝度低下による影響を画像処理に反映させて、車両周辺の移動物体の検出精度を向上させることを目的とする。   Accordingly, the present invention improves the detection accuracy of moving objects around the vehicle by reflecting the influence of the luminance reduction of moving objects in an image acquired by an imaging means such as an infrared camera, for example, a gray scale image, in image processing. With the goal.

本発明は、車両の周辺監視装置を提供する。その周辺監視装置は、車両の周辺の物体の位置および速度ベクトルを検出する物体検出手段と、車両の周辺の画像を取得する撮像手段と、撮像手段により取得されたグレースケール画像を多値化する多値化手段と、物体位置検出手段が特定した物体の位置に対応する取得されたグレースケール画像に、当該物体の位置の各々に対応する所定サイズの領域を設定する領域設定手段と、領域毎に、対応する物体の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、多値化手段により対応する多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、を備える。   The present invention provides a vehicle periphery monitoring device. The periphery monitoring device multi-values an object detection unit that detects the position and velocity vector of an object around the vehicle, an imaging unit that acquires an image around the vehicle, and a grayscale image acquired by the imaging unit. Multi-value conversion means, area setting means for setting an area of a predetermined size corresponding to each position of the object on the acquired gray scale image corresponding to the position of the object specified by the object position detection means, and for each area In addition, multi-value threshold setting means for setting a threshold value when multi-value the corresponding gray scale image according to the magnitude of the velocity vector of the corresponding object, Determining means for determining the presence or absence of a predetermined object based on the multi-valued image using the threshold value.

本発明によれば、グレースケール画像に設定した領域毎に、物体検出手段により検出された対応する物体の速度ベクトルの大きさに応じて、多値化しきい値を設定するので、当該画像からの対象物、特に移動物体の抽出精度を向上させることができる。その結果、車両の周辺の対象物を確実に抽出して速やかに運転者に知らせることが可能となる。   According to the present invention, for each region set in the grayscale image, the multi-value threshold is set according to the magnitude of the velocity vector of the corresponding object detected by the object detection unit. The extraction accuracy of an object, particularly a moving object, can be improved. As a result, it is possible to reliably extract objects around the vehicle and promptly inform the driver.

本発明の一形態によると、車両の周辺監視装置が提供される。その周辺監視装置は、車両の周辺の画像を取得する撮像手段と、撮像手段により取得されたグレースケール画像を多値化する多値化手段と、取得されたグレースケール画像を複数の領域に区分して、車両の速度に応じて、領域毎の速度ベクトルを算出する手段と、領域毎の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、多値化手段により対応する多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、を備える。   According to an aspect of the present invention, a vehicle periphery monitoring device is provided. The periphery monitoring device includes an imaging unit that acquires an image around the vehicle, a multi-level unit that multi-values the gray scale image acquired by the imaging unit, and the acquired gray scale image is divided into a plurality of regions. Then, a means for calculating a speed vector for each area according to the speed of the vehicle, and a threshold value for multi-leveling the corresponding gray scale image according to the size of the speed vector for each area are set. Multi-value threshold value setting means, and determination means for determining the presence or absence of a predetermined object based on the multi-value image using the corresponding multi-value threshold value by the multi-value value means. .

本発明の一形態によれば、グレースケール画像の領域毎に算出した速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定するので、当該画像からの対象物、特に移動物体の抽出精度を向上させることができる。   According to one aspect of the present invention, the threshold value for multi-valued grayscale image is set according to the magnitude of the velocity vector calculated for each region of the grayscale image. The extraction accuracy of the target object, particularly the moving object, can be improved.

本発明の一形態によると、多値化しきい値設定手段は、速度ベクトルの大きさが大きくなるほど多値化しきい値を小さくする。   According to one aspect of the present invention, the multi-value threshold setting unit decreases the multi-value threshold as the speed vector increases.

本発明の一形態によれば、車両周辺の移動物体の移動速度が速くなっても確実に取得画像から移動物体を抽出することが可能となる。   According to an aspect of the present invention, it is possible to reliably extract a moving object from an acquired image even if the moving speed of the moving object around the vehicle increases.

本発明の一形態によると、所定時間内での車両の挙動によって生ずる取得画像の変化量を推定する手段をさらに備え、多値化しきい値設定手段は、その変化量に基づき速度ベクトルを調整する。   According to one aspect of the present invention, it further comprises means for estimating the amount of change in the acquired image caused by the behavior of the vehicle within a predetermined time, and the multi-value threshold setting means adjusts the speed vector based on the amount of change. .

本発明の一形態によれば、車両の挙動をも反映させて速度ベクトルの算出および多値化しきい値の設定をおこなうので、取得該画像からの対象物、特に移動物体の抽出精度をさらに向上させることが可能となる。   According to one aspect of the present invention, the speed vector is calculated and the multi-value threshold is set while reflecting the behavior of the vehicle, so that the accuracy of extracting an object, particularly a moving object, from the acquired image is further improved. It becomes possible to make it.

本発明の一形態によると、物体検出手段はレーダを含み、領域設定手段はレーダが検出した物体の速度ベクトルに応じて対応する領域の設定位置を移動させる。   According to one aspect of the present invention, the object detection means includes a radar, and the area setting means moves the set position of the corresponding area according to the velocity vector of the object detected by the radar.

本発明の一形態によると、物体検出手段はレーダを含み、領域設定手段は、当該レーダに対する撮像手段の検出信号の遅延量に応じて領域を設定する。   According to an aspect of the present invention, the object detection unit includes a radar, and the region setting unit sets the region according to the delay amount of the detection signal of the imaging unit with respect to the radar.

本発明の一形態によれば、レーダに対して赤外線カメラの移動物体検出時の検出信号(輝度信号)のレスポンス(立ち上がり)が遅れることを反映させてグレースケール画像上の領域の位置を設定することができるので、取得該画像から対象物、特に移動物体の抽出をより確実におこなうことが可能となる。   According to one aspect of the present invention, the position of a region on a grayscale image is set by reflecting that a response (rise) of a detection signal (luminance signal) when detecting a moving object of an infrared camera is delayed with respect to a radar. Therefore, it is possible to more reliably extract a target object, particularly a moving object, from the acquired image.

車両の周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the periphery monitoring apparatus of a vehicle. 画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in an image processing unit. 2値化しきい値設定の処理フローを示す図である。It is a figure which shows the processing flow of a binarization threshold value setting. 2値化しきい値設定の処理フローの他の例を示す図である。It is a figure which shows the other example of the processing flow of a binarization threshold value setting. 画像上での速度ベクトルの算出を説明するための図である。It is a figure for demonstrating calculation of the velocity vector on an image. 画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in an image processing unit. 画像の領域毎の速度ベクトルの様子を示す図である。It is a figure which shows the mode of the velocity vector for every area | region of an image. 2値化画像での位置ずれ補正を説明するための図である。It is a figure for demonstrating the position shift correction in a binarized image.

図面を参照しながら本発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、レーザレーダ10と、赤外線カメラ12と、赤外線カメラ12によって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット14と、その検出結果に基づいて音または音声で警報を発生するスピーカ16と、赤外線カメラ12の撮像を介して得られた画像を表示すると共に、運転者に車両周辺の対象物を認識させるための表示を行う表示装置18とを備える。なお、ナビゲーション装置を備える車両においては、スピーカ16および表示装置18として、ナビゲーション装置が備える該当機能を利用してもよい。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The periphery monitoring device is mounted on a vehicle, and includes a laser radar 10, an infrared camera 12, an image processing unit 14 for detecting an object around the vehicle based on image data captured by the infrared camera 12, and a detection result thereof. And a display device for displaying an image obtained through imaging of the infrared camera 12 and for causing the driver to recognize an object around the vehicle. 18. In a vehicle provided with a navigation device, corresponding functions provided in the navigation device may be used as the speaker 16 and the display device 18.

図1の画像処理ユニット14は、その構成(機能)としてブロック141〜148で示される機能を有する。すなわち、画像処理ユニット14は、レーザレーダ10からの信号を受けて車両の周辺の物体の位置および速度ベクトルを検出する物体検出手段141と、赤外線カメラ12が撮影した車両の周辺の画像をグレースケール画像として取得する画像取得手段142と、取得されたグレースケール画像を多値化する多値化手段143と、物体検出手段141が検出した物体の位置に対応するグレースケール画像に、該物体の位置の各々に対応する所定サイズの領域を設定する領域設定手段144と、領域毎に、対応する物体の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段145と、取得されたグレースケール画像を複数の領域に区分して、車両の速度に応じて、領域毎の速度ベクトルを算出する手段146と、所定時間内での車両の挙動(車速、ヨーレート等)によって生ずる取得画像の変化量を推定する手段147と、多値化手段により対応する多値化しきい値を用いて多値化された画像に基づき所定の対象物の有無を判定する判定手段148として機能する。   The image processing unit 14 in FIG. 1 has functions indicated by blocks 141 to 148 as its configuration (function). In other words, the image processing unit 14 receives a signal from the laser radar 10 and detects the position and velocity vector of an object around the vehicle, and the image around the vehicle taken by the infrared camera 12 is grayscale. An image acquisition unit 142 that acquires an image, a multi-value conversion unit 143 that multi-values the acquired gray scale image, and a gray scale image corresponding to the position of the object detected by the object detection unit 141, the position of the object A region setting means 144 for setting a region of a predetermined size corresponding to each of the threshold values, and a threshold value for multi-leveling the corresponding grayscale image for each region according to the magnitude of the velocity vector of the corresponding object The multi-value threshold setting means 145 for setting the area and the obtained gray scale image are divided into a plurality of areas, and the areas are determined according to the speed of the vehicle. Means 146 for calculating the speed vector of the vehicle, means 147 for estimating the amount of change in the acquired image caused by the behavior of the vehicle (vehicle speed, yaw rate, etc.) within a predetermined time, and a multi-value threshold corresponding to the multi-value means Functions as a determination unit 148 that determines the presence / absence of a predetermined object based on the multi-valued image.

なお、本明細書において使用する「物体の速度ベクトル」は、特記しない限り物体の速度ベクトルを画像平面に射影して得られる画像上の物体の速度ベクトルを意味し、全編にわたってこの意味において使用している。   The “object velocity vector” used in this specification means an object velocity vector on an image obtained by projecting an object velocity vector onto an image plane unless otherwise specified, and is used in this sense throughout the entire story. ing.

各ブロックの機能は、画像処理ユニット14が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット14の構成は、ナビゲーション装置の中に組み込んでもよい。   The function of each block is realized by a computer (CPU) included in the image processing unit 14. The configuration of the image processing unit 14 may be incorporated in the navigation device.

画像処理ユニット14は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ16に対する駆動信号および表示装置18に対する表示信号などを出力する出力回路を備えている。レーザレーダ10と赤外線カメラ12の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。   The image processing unit 14 includes, for example, an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, and a central processing unit (CPU) that performs various arithmetic processes. ), A RAM (random access memory) used by the CPU to store data for calculation, a ROM (read only memory) that stores programs executed by the CPU and data to be used (including tables and maps), and driving to the speaker 16 An output circuit for outputting a signal and a display signal for the display device 18 is provided. The output signals of the laser radar 10 and the infrared camera 12 are converted into digital signals and input to the CPU.

図2は、画像処理ユニット14によって実行される処理フローである。この処理フローは、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。なお、以下の説明では、取得したグレースケール画像を多値化の例として、2値化して白黒画像を得る場合を例にとり説明している。3値以上の多値化をする場合は、設定するしきい値の数は増えるが、基本的に2値化の場合と同様な処理をすることにより多値化画像を得ることができる。また、図2のフローでは、検知対象として歩行者を検知する場合について説明しているが、歩行者に限られず、他の動物、車両等の移動物体を検知する場合にも適用できることは言うまでもない。   FIG. 2 is a processing flow executed by the image processing unit 14. This processing flow is executed at predetermined time intervals by the CPU of the image processing unit 14 calling a processing program stored in the memory. In the following description, the acquired gray scale image is used as an example of multi-value processing, and a case where a black and white image is obtained by binarization is described as an example. In the case of multi-value conversion of three or more values, the number of threshold values to be set increases, but a multi-value image can be obtained basically by performing the same processing as in the case of binarization. Moreover, although the case where a pedestrian is detected as a detection target has been described in the flow of FIG. 2, it is needless to say that the present invention is not limited to a pedestrian and can also be applied to detection of moving objects such as other animals and vehicles. .

ステップS10において、レーザレーダ10からの信号を受けて車両の周辺の物体の位置、大きさ(領域)、および速度ベクトルを検出(特定)する。その検出には従来からの任意の方法を用いることができるが、例えば、以下のようにおこなう。   In step S10, a signal from the laser radar 10 is received to detect (specify) the position, size (region), and velocity vector of an object around the vehicle. Any conventional method can be used for the detection. For example, the detection is performed as follows.

レーザレーダ10としてスキャン式レーザレーダを使用して、その検出点群の幅から物体、例えば歩行者候補の位置および大きさ(領域)を特定する。具体的には、スキャン式レーザレーダでは、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体までの距離を測定する。レーザレーダの位置を原点としてY軸をレーダの正面方向とする2次元座標系にこれらの検出点の位置をプロットして検出点の集合を得る。これらの検出点の集合から、各検出点の相互の間隔が所定値以下のものを検出点群としてグループ化し、グループ化した検出点群のうち、広がり幅が所定値以下のものを歩行者候補とみなしてその位置と大きさ(領域)を特定する。   Using a scanning laser radar as the laser radar 10, the position and size (region) of an object, for example, a pedestrian candidate, is specified from the width of the detection point group. Specifically, the scanning laser radar measures the distance to the object in each direction as a detection point by receiving reflected light from the object of the beam scanned in each direction. A set of detection points is obtained by plotting the positions of these detection points in a two-dimensional coordinate system in which the position of the laser radar is the origin and the Y axis is the front direction of the radar. From these sets of detection points, detection point groups are grouped as detection point groups whose mutual distance between detection points is equal to or less than a predetermined value, and among the grouped detection point groups, pedestrian candidates whose spread width is equal to or less than a predetermined value The position and size (area) are specified.

特定された大きさ(領域)において、基準点を定めその基準点を始点とするベクトルとして、特定された歩行者候補の動き(単位時間当たりの移動量)を表すことにより、その領域における、すなわち対応する歩行者候補についての速度ベクトル得ることができる。なお、基準点は領域の重心、消失点など任意の規則により決めることができる。   In the specified size (area), by defining a reference point and expressing the movement (movement amount per unit time) of the specified pedestrian candidate as a vector starting from the reference point, in that area, that is, The velocity vector for the corresponding pedestrian candidate can be obtained. The reference point can be determined by an arbitrary rule such as the center of gravity of the region, the vanishing point.

ステップS11において、赤外線カメラ12の出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール(白黒の濃淡)画像である。対象の温度が高い部分ほど高輝度となる赤外線カメラでは、高輝度部分の明暗値が高い画像データとなり、その温度が低く(低輝度に)なるにつれて明暗値が低い画像データとなる。   In step S11, an output signal (that is, captured image data) of the infrared camera 12 is received as an input, A / D converted, and stored in an image memory. The stored image data is a grayscale (monochrome shade) image including luminance information. In an infrared camera in which the higher the temperature of the target, the higher the brightness is, the image data has a higher brightness value in the higher brightness portion, and the image data has a lower brightness value as the temperature becomes lower (lower brightness).

ステップS12において、取得されたグレースケール画像に領域設定をする。具体的には、ステップS10で得られた各領域(位置、大きさ)に対応する領域をグレースケール画像上に設定する。   In step S12, an area is set for the acquired grayscale image. Specifically, the area corresponding to each area (position, size) obtained in step S10 is set on the grayscale image.

ステップS13において、グレースケール画像の設定した領域毎に2値化するためのしきい値を設定する処理フロー(ルーチン)を実行する。   In step S13, a processing flow (routine) for setting a threshold value for binarization for each set region of the grayscale image is executed.

図3は、2値化しきい値設定の処理フロー(ルーチン)を示す図である。最初にステップS131またはステップS132を選択する。この2つのステップは任意に選択できる。ステップS131(A)では、移動体毎に対応するグレースケール画像の領域上にレーザレーダ10で検出した速度ベクトルを投影する。   FIG. 3 is a diagram showing a processing flow (routine) for binarization threshold value setting. First, step S131 or step S132 is selected. These two steps can be selected arbitrarily. In step S131 (A), the velocity vector detected by the laser radar 10 is projected onto the gray scale image area corresponding to each moving object.

図5は、この投影を説明するための図である。符号20で示されるレーザレーダ10のスキャン領域において、図のように4つの移動体が検出されたとする。各移動体は大きさ(領域)と速度ベクトルを有している。この4つの移動体について、速度ベクトルをグレースケール画像23上に投影すると、各領域について画像上の速度ベクトルが得られる。例えば、矢印Aで示されるように、移動体(領域)21の速度ベクトル22は、画像上の領域24の速度ベクトル25として投影される。他の移動体についても同様である。このように、レーザレーダで検出された速度ベクトルをそのまま利用せずに画像上に投影させた速度ベクトルを利用するのは、画像上での移動量が残像に影響するので、画像上に投影した後のベクトル(移動量)を利用する方がよりその残像の影響を反映させることができて効果的であるからである。   FIG. 5 is a diagram for explaining this projection. Assume that four moving bodies are detected in the scan region of the laser radar 10 indicated by reference numeral 20 as shown in the figure. Each moving body has a size (area) and a velocity vector. When the velocity vector is projected onto the gray scale image 23 for the four moving bodies, the velocity vector on the image is obtained for each region. For example, as indicated by the arrow A, the velocity vector 22 of the moving body (region) 21 is projected as the velocity vector 25 of the region 24 on the image. The same applies to other moving bodies. As described above, the speed vector projected on the image without using the speed vector detected by the laser radar as it is is projected on the image because the amount of movement on the image affects the afterimage. This is because it is more effective to use the later vector (movement amount) because the influence of the afterimage can be reflected.

図3に戻って、ステップS132(B)が選択された場合は、ステップS131(A)の投影に代わって、画像上の領域毎に速度ベクトル(図5の画像23内の速度ベクトル25に相当するもの)を、オプティカルフロー、テンプレートマッチング、あるいは位相限定相関法などの従来からの方法により求める。その際、領域毎に一つの速度ベクトル(移動量)をテンプレートマッチング等により求めても良く、あるいは画素毎のオプティカルフローを算出して移動体(領域)毎に代表値(平均値等)を算出してもよい。なお、このステップS132(B)は、既に画像上の領域毎に物体(移動体)候補が対応付けられている場合に実行されるステップであり、何らその対応が付いていない場合は、ステップS131(A)が実行される。   Returning to FIG. 3, when step S132 (B) is selected, a velocity vector (corresponding to the velocity vector 25 in the image 23 of FIG. 5) is used for each region on the image instead of the projection of step S131 (A). Is obtained by a conventional method such as optical flow, template matching, or phase-only correlation method. At that time, one velocity vector (movement amount) for each area may be obtained by template matching or the like, or an optical flow for each pixel is calculated and a representative value (average value, etc.) is calculated for each moving body (area). May be. Note that this step S132 (B) is a step that is executed when an object (moving body) candidate is already associated with each region on the image, and when there is no correspondence, step S131 is performed. (A) is executed.

次に、ステップS133において、図2のステップS10において検出した物体が移動体であるか否かを判定する。この判定は、ステップS131またはS132において得られた画像の領域毎の速度(移動)ベクトル(大きさ、変化等)に基づきおこなう。この判定がNoの場合、ステップS136に進み、静止物に対応して予め決められた所定のしきい値Thsを選択する。所定のしきい値Thsは、予め画像処理ユニット14のメモリに格納されている。なお、各領域の背景画像の輝度に応じてしきい値を変えられるように、輝度の大きさに対応した複数のしきい値を設けておき、その中から選択できるようにしてもよい。   Next, in step S133, it is determined whether or not the object detected in step S10 in FIG. 2 is a moving body. This determination is made based on the velocity (movement) vector (size, change, etc.) for each area of the image obtained in step S131 or S132. When this determination is No, the process proceeds to step S136, and a predetermined threshold value Ths determined in advance corresponding to the stationary object is selected. The predetermined threshold Ths is stored in advance in the memory of the image processing unit 14. It should be noted that a plurality of threshold values corresponding to the magnitude of the luminance may be provided so that the threshold value can be changed according to the luminance of the background image of each region, and the threshold value can be selected from the threshold values.

ステップS133で移動体である(Yes)と判定された場合、次のステップS134において、領域毎の速度ベクトルの大きさL、すなわち各移動体の移動量Lを算出する。ステップS135において、速度ベクトルの大きさ(移動量)Lに対応した2値化しきい値を算出する。2値化しきい値Thの算出は例えば以下のようにおこなう。   If it is determined in step S133 that the object is a moving body (Yes), in the next step S134, the size L of the velocity vector for each region, that is, the moving amount L of each moving object is calculated. In step S135, a binarization threshold value corresponding to the velocity vector magnitude (movement amount) L is calculated. For example, the binarization threshold Th is calculated as follows.

速度ベクトルの大きさ(移動量)Lに応じて2値化しきい値の変化量ΔThを予め決めておき、下記の式(1)で示すように、静止物に対する2値化しきい値Thsからその変化量ΔThを減算して、2値化しきい値Thmを求める。式(1)で減算するのは、移動体の速度が大きくなるほど輝度が低下するので、2値化しきい値を小さくして、その移動体の2値化後の画像上での検出(特定)精度を上げるためである。

Thm = Ths−ΔTh (1)
A change amount ΔTh of the binarization threshold value is determined in advance according to the magnitude (movement amount) L of the velocity vector, and the binarization threshold value Ths for the stationary object is determined as shown in the following equation (1). The binarization threshold Thm is obtained by subtracting the change amount ΔTh. The subtraction in the equation (1) is that the luminance decreases as the speed of the moving body increases. Therefore, the binarization threshold value is reduced, and detection (specification) of the moving body on the image after binarization is performed. This is to increase the accuracy.

Thm = Ths−ΔTh (1)

あるいは、下記の式(2)で示すように、速度ベクトルの大きさ(移動量)Lに応じて小さくなる係数α(<1)を予め決めておき、静止物に対する2値化しきい値Thsにその係数α(<1)を乗算して、2値化しきい値Thmを求めてもよい。

Thm = α×Ths (2)
Alternatively, as shown in the following equation (2), a coefficient α (<1) that decreases according to the magnitude (movement amount) L of the velocity vector is determined in advance, and the binarization threshold Ths for a stationary object is set. The binarization threshold Thm may be obtained by multiplying the coefficient α (<1).

Thm = α × Ths (2)

領域毎に対応する2値化しきい値(Ths、Thm)を取得した後、図2のステップS14において、そのしきい値を用いてそれぞれ対応するグレースケール画像を2値化する。具体的には、しきい値より明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。この2値化処理により、たとえば歩行者のような、所定の温度より高い対象物が、白領域として抽出される。   After obtaining the binarized threshold values (Ths, Thm) corresponding to each region, in step S14 in FIG. 2, the corresponding grayscale images are binarized using the threshold values. Specifically, a process is performed in which an area brighter than the threshold is set to “1” (white) and a dark area is set to “0” (black). By this binarization processing, an object higher than a predetermined temperature, such as a pedestrian, is extracted as a white region.

ステップS15において、2値化後の白黒画像から対象物を照合する。最初に、予めメモリに保管している除外対象物の特徴を有するか否かを調べる。除外対象物とは、例えば発熱体ではあるが明らかに形状等が異なる物体(4足動物、ボイラー、車両等)を意味する。除外対象物に該当しない場合、歩行者の特徴に該当するか否かを調べる。歩行者の特徴には、例えば歩行者の頭部の特徴として丸みを帯びた白部が存在し、その下に胴体、脚部の部分に相当する細長い白部が繋がっていること等が含まれる。また、周知のパターンマッチングを利用し、予め保管してある歩行者を表す所定のパターンとの類似度を算出し、その類似度を歩行者であるか否かの判断材料としてもよい。さらに、歩行者の歩行速度はほぼ一定であることから、レーザレーダ10から得られる物体の移動速度(速度ベクトル)の情報を判断材料の1つとして用いてもよい。   In step S15, the object is collated from the binarized black and white image. First, it is checked whether or not it has the characteristics of the object to be excluded that is stored in the memory in advance. The excluded object means, for example, an object (a quadruped animal, a boiler, a vehicle, or the like) that is a heating element but has a clearly different shape or the like. When it does not correspond to an exclusion object, it investigates whether it corresponds to the feature of a pedestrian. The features of the pedestrian include, for example, a rounded white portion as a feature of the pedestrian's head, and an elongated white portion corresponding to the body and leg portions connected below the white portion. . Further, the similarity with a predetermined pattern representing a pedestrian stored in advance may be calculated using known pattern matching, and the similarity may be used as a material for determining whether or not the user is a pedestrian. Furthermore, since the walking speed of the pedestrian is substantially constant, information on the moving speed (speed vector) of the object obtained from the laser radar 10 may be used as one of judgment materials.

ステップS16において、判定された対象物が歩行者か否かを判定する。その判定は、例えば、上述した歩行者の特徴に該当するか否か、パターンマッチングの類似度が高いか、移動速度が所定範囲内か等によりおこなう。歩行者に該当しない場合は処理を終了する。   In step S16, it is determined whether or not the determined object is a pedestrian. The determination is made based on, for example, whether or not the above-described pedestrian feature is satisfied, whether the similarity of pattern matching is high, or whether the moving speed is within a predetermined range. If it does not correspond to a pedestrian, the process ends.

歩行者であると判定された場合、ステップS17において、運転者の注意を喚起するために警報を発する。その際、歩行者が存在する方向に応じて警報の種類を変えると効果的である。例えば、スピーカ16から音声で「左前方歩行者注意」等の警報を発生することにより、運転者の注意を適切な方向に喚起することができる。画像として警告する場合は、グレースケール画像を表示装置18上に表示し、画像中の認識された歩行者に対して個別の強調表示(高輝度化、点滅、色表示等)を行うことにより、運転者の注意を促す。   If it is determined that the person is a pedestrian, an alarm is issued in order to call the driver's attention in step S17. At that time, it is effective to change the type of alarm according to the direction in which the pedestrian is present. For example, by issuing an alarm such as “Left pedestrian attention” from the speaker 16 by voice, the driver's attention can be alerted in an appropriate direction. In the case of warning as an image, a grayscale image is displayed on the display device 18, and individual emphasis display (high brightness, blinking, color display, etc.) is performed on a recognized pedestrian in the image, Call the driver's attention.

図4は、2値化しきい値設定の処理フロー(ルーチン)の他の例を示す図である。図4では、図3のフローと違って、最初のステップS130において、図2のステップS10において検出した物体が移動体であるか否かを判定する。すなわち、図3のステップS133では、図2のステップS11で取得されたカメラ画像(グレースケール画像)上の速度(移動)ベクトルに基づき移動体の有無を判定しているが、図4のステップS130では、図2のステップS10で取得されたレーザレーダ情報(移動体候補の動き、速度ベクトル)に基づき移動体の有無を判定する。このステップS130では、例えば物体候補毎に得られた速度ベクトルの大きさが所定値以上であるときに移動体であると判定し、所定値よりも小さいときは移動体でないと判定する。   FIG. 4 is a diagram illustrating another example of the processing flow (routine) for setting the binarized threshold value. In FIG. 4, unlike the flow of FIG. 3, in the first step S130, it is determined whether or not the object detected in step S10 of FIG. 2 is a moving object. That is, in step S133 in FIG. 3, the presence / absence of a moving object is determined based on the speed (movement) vector on the camera image (grayscale image) acquired in step S11 in FIG. 2, but step S130 in FIG. Then, the presence / absence of a moving body is determined based on the laser radar information (movement and velocity vector of the moving body candidate) acquired in step S10 of FIG. In step S130, for example, when the magnitude of the velocity vector obtained for each object candidate is greater than or equal to a predetermined value, it is determined that the object is a moving object, and when it is smaller than the predetermined value, it is determined that the object is not a moving object.

この判定がNoの場合、ステップS136に進み、静止物に対応して予め決められた所定のしきい値Thsを選択する。判定がYes(移動体である)と判定された場合、次のステップS131(A)またはステップS132(B)のいずれかのステップに進む。これらのステップを含めて以降のフローは上述した図3の対応するステップと同様であるので、ここではその説明を省略する。   When this determination is No, the process proceeds to step S136, and a predetermined threshold value Ths determined in advance corresponding to the stationary object is selected. If it is determined Yes (is a moving body), the process proceeds to either step S131 (A) or step S132 (B). Since the subsequent flow including these steps is the same as the corresponding steps in FIG. 3 described above, description thereof is omitted here.

図6は、画像処理ユニット14によって実行される他の処理フローの例である。この処理フローは、図2の処理フロー同様、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。また、3値以上の多値化に適用できることも、図2の処理フローと同様である。   FIG. 6 is an example of another processing flow executed by the image processing unit 14. This processing flow is executed at predetermined time intervals by calling a processing program stored in the memory by the CPU of the image processing unit 14 as in the processing flow of FIG. Moreover, it is the same as the processing flow of FIG.

図6の処理フローでは、図2の処理フローと異なり、レーザレーダ10による物体検出を前提とせずに歩行者の検知をおこなう例である。ステップS20において、赤外線カメラ12の出力信号からグレースケール画像を取得する。ステップS21において、取得したグレースケール画像に領域を設定する。この領域設定は、検出物体の位置とは無関係におこなわれ、例えば図7に例示するように均等に分割された9個の領域が設定される。領域の数と大きさは、車両の速度、走行場所(周辺状態)等に応じて任意に設定される。   The processing flow of FIG. 6 is an example of detecting a pedestrian without assuming object detection by the laser radar 10, unlike the processing flow of FIG. In step S20, a gray scale image is acquired from the output signal of the infrared camera 12. In step S21, an area is set in the acquired gray scale image. This area setting is performed regardless of the position of the detected object. For example, nine areas divided equally as illustrated in FIG. 7 are set. The number and size of the areas are arbitrarily set according to the speed of the vehicle, the travel location (peripheral state), and the like.

ステップS22において、自車両の車速を検出する。次に設定した画像上の領域毎の速度(移動)ベクトルを求めるために、次のステップS23(A)またはステップS24(B)のいずれかのステップに進む。この2つのステップは任意に選択できる。ステップS23(A)においては、画像上の領域毎に速度ベクトルを、車速に応じて変わる画像の経時変化からオプティカルフローを算出することにより得る。図7は領域毎に得られた速度ベクトルの模式図である。領域24毎に速度ベクトル25を得る。   In step S22, the vehicle speed of the host vehicle is detected. Next, in order to obtain a velocity (movement) vector for each set area on the image, the process proceeds to either step S23 (A) or step S24 (B). These two steps can be selected arbitrarily. In step S23 (A), the velocity vector is obtained for each region on the image by calculating the optical flow from the temporal change of the image that changes according to the vehicle speed. FIG. 7 is a schematic diagram of velocity vectors obtained for each region. A velocity vector 25 is obtained for each region 24.

ステップS24(B)が選択された場合は、最初にステップS24において、画像上の消失点を算出する。消失点の算出方法には従来の任意の方法を用いることができる。次に、ステップS25において、車速およびさらに取得したヨーレートから、画像上の消失点を基準(起点)とする移動ベクトルを作成する。この移動ベクトルは、自車両の挙動に応じて予測される移動量に相当する。この場合も、図7でイメージされるような領域毎の移動ベクトルを得ることができる。   When step S24 (B) is selected, first, in step S24, a vanishing point on the image is calculated. Any conventional method can be used as the vanishing point calculation method. Next, in step S25, a movement vector with the vanishing point on the image as a reference (starting point) is created from the vehicle speed and the acquired yaw rate. This movement vector corresponds to the amount of movement predicted according to the behavior of the host vehicle. Also in this case, a movement vector for each region as imaged in FIG. 7 can be obtained.

次に、ステップS26において、2値化しきい値を新たに設定(算出)するか否かを判定する。この判定がNoの場合、ステップS27において、画像の領域毎に対応する速度(移動)ベクトルの大きさ(移動量)に応じて、領域内の背景部分の輝度を大きくする。具体的には背景の輝度のゲインを上げる。これは、自車両が移動している場合には、自車両との相対速度差が大きいほど輝度が落ち、また高輝度の物体ほどその輝度の低下が大きいので、全体特に背景の輝度(ゲイン)を移動量に応じて引き上げて、すなわちグレースケール画像上での明暗比(コントラスト)を確保して、2値化しきい値を変更(小さく)することなく2値化後の検出精度を上げるためにおこなう。   Next, in step S26, it is determined whether or not a new binarization threshold value is set (calculated). When this determination is No, in step S27, the luminance of the background portion in the area is increased according to the size (movement amount) of the velocity (movement) vector corresponding to each area of the image. Specifically, the background luminance gain is increased. This is because when the host vehicle is moving, the brightness decreases as the relative speed difference from the host vehicle increases, and the brightness decreases as the brightness of the object increases. In order to increase the detection accuracy after binarization without changing (decreasing) the binarization threshold by securing the light / dark ratio (contrast) on the grayscale image. Do it.

ステップS26において、2値化しきい値を新たに設定(算出)する場合は、ステップS28において、例えば図3(図4)を参照しながら説明した方法(ステップS132(B)の選択)により、画像の領域毎に2値化しきい値を設定する。なお、ステップS27の輝度調整をおこなった場合は、2値化しきい値は所定値、例えば、図3(図4)のステップS136で選択されるしきい値Thsを設定する。その後、ステップS29〜S32において、既に説明した図2のステップS14〜S17の場合と同様な方法により、2値化画像に基づき歩行者の有無を判定する。   When a new binarization threshold value is set (calculated) in step S26, the image is obtained in step S28 by the method described with reference to FIG. 3 (FIG. 4) (selection of step S132 (B)), for example. A binarization threshold is set for each area. When the luminance adjustment in step S27 is performed, the binarization threshold value is set to a predetermined value, for example, the threshold value Ths selected in step S136 in FIG. 3 (FIG. 4). Thereafter, in steps S29 to S32, the presence or absence of a pedestrian is determined based on the binarized image by the same method as in steps S14 to S17 of FIG.

最後に、図8を参照しながら赤外線カメラで取得された画像での位置ずれ補正について説明する。図8は、2値化後の画像において位置ずれ補正を説明するための図である。赤外線カメラでは、既に述べたように、移動体ではその輝度信号の立ち上がりが遅いので、実像よりも遅れて画像が取得される。具体的には、レーザでは実像の位置を捉えるので、図8の(a)に示すように、物体(歩行者)の静止時は、レーザで特定される領域(物標)35と対象カメラ画像36とは一致する。   Finally, with reference to FIG. 8, correction of misalignment in an image acquired by an infrared camera will be described. FIG. 8 is a diagram for explaining misalignment correction in a binarized image. As described above, in the infrared camera, since the rise of the luminance signal is slow in the moving body, the image is acquired later than the real image. Specifically, since the position of the real image is captured by the laser, as shown in FIG. 8A, when the object (pedestrian) is stationary, the region (target) 35 specified by the laser and the target camera image are displayed. 36 matches.

しかし、物体(歩行者)の移動時には、図8(b)に示すように、レーザで特定される領域(物標)37に対して対象カメラ画像39が遅れてしまう。このため、レーザで特定される領域(物標)に対応するカメラ画像上の領域を検出領域とするシステムにおいて、領域のズレにより対象物を検出できない恐れがある。そこで、レーザで特定される領域(物標)から対象物のカメラ画像上での移動速度(ベクトル)を求めて、検出領域の設定位置を実像位置から遅れた分補正した位置に設定する(ずらす)。図8の例では、検出領域をPの位置(37)からP´の位置(38)までずらした設定(補正)をおこなう。   However, when the object (pedestrian) moves, the target camera image 39 is delayed with respect to the region (target) 37 specified by the laser as shown in FIG. For this reason, in a system in which an area on a camera image corresponding to an area (target) specified by a laser is used as a detection area, there is a possibility that the object cannot be detected due to the deviation of the area. Therefore, the moving speed (vector) of the object on the camera image is obtained from the area (target) specified by the laser, and the setting position of the detection area is set to a position corrected by a delay from the real image position (shifted). ). In the example of FIG. 8, the detection area is set (corrected) by shifting from the position P (37) to the position P '(38).

この補正を含む領域設定のやり方を、例えば図2、図6のフローにおける領域の設定において適用すること、すなわち設定した領域を後から速度(移動)ベクトルの大きさに応じて補正する(位置をずらす)、あるいは前回得た速度ベクトル(移動ベクトル)の大きさに基づき最初から所定の補正量だけ位置をずらして領域を設定することにより、対象物の検出(特定)精度をより向上させることが可能となる。   For example, the region setting method including the correction is applied to the region setting in the flow of FIGS. 2 and 6, that is, the set region is corrected later according to the magnitude of the velocity (movement) vector (the position is changed). Shift), or by setting the region by shifting the position by a predetermined correction amount from the beginning based on the magnitude of the velocity vector (movement vector) obtained last time, the detection (specification) accuracy of the object can be further improved. It becomes possible.

以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。例えば、レーザレーダ10は、他の種類のレーダ(例えばミリ波レーダ等)であってもよく、また、赤外線カメラ12も赤外線以外の他の波長帯の光(例えば可視光)を利用するカメラ(CCDカメラ等)であってもよい。したがって、上述した説明では、赤外線カメラ12が撮影したグレースケール画像を対象としているが、これに限定されるものではない。   The embodiment of the present invention has been described above, but the present invention is not limited to such an embodiment, and can be modified and used without departing from the spirit of the present invention. For example, the laser radar 10 may be another type of radar (for example, a millimeter wave radar), and the infrared camera 12 is also a camera that uses light (for example, visible light) in a wavelength band other than infrared (for example, visible light). A CCD camera or the like). Therefore, in the above description, the gray scale image taken by the infrared camera 12 is targeted, but the present invention is not limited to this.

10 レーザレーダ、
12 赤外線カメラ、
14 画像処理ユニット、
16 スピーカ、
18 表示装置、
20 レーザスキャン範囲
21 移動体、
23 グレースケール画像
10 Laser radar,
12 Infrared camera,
14 image processing unit,
16 speakers,
18 display device,
20 Laser scan range 21 Moving object,
23 Grayscale image

Claims (6)

車両に搭載され、該車両の周辺の物体の位置および速度ベクトルを検出する物体検出手段と、
車両に搭載され、該車両の周辺の画像を取得する撮像手段と、
前記撮像手段により取得されたグレースケール画像を多値化する多値化手段と、
物体位置検出手段が特定した物体の位置に対応する前記取得されたグレースケール画像に、当該物体の位置の各々に対応する所定サイズの領域を設定する領域設定手段と、
前記領域毎に、対応する物体の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、
前記多値化手段により対応する前記多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、
を備える、車両の周辺監視装置。
Object detection means mounted on a vehicle for detecting the position and velocity vector of an object around the vehicle;
An imaging means mounted on a vehicle for acquiring an image around the vehicle;
Multi-value quantization means for multi-value gray scale image acquired by the imaging means;
Area setting means for setting an area of a predetermined size corresponding to each position of the object in the acquired grayscale image corresponding to the position of the object specified by the object position detection means;
Multi-value threshold setting means for setting a threshold when multi-value the corresponding grayscale image according to the size of the velocity vector of the corresponding object for each region;
Determination means for determining the presence or absence of a predetermined object based on an image multi-valued using the multi-value quantization threshold corresponding to the multi-value conversion means;
A vehicle periphery monitoring device comprising:
車両に搭載され、該車両の周辺の画像を取得する撮像手段と、
前記撮像手段により取得されたグレースケール画像を多値化する多値化手段と、
前記取得されたグレースケール画像を複数の領域に区分して、前記車両の速度に応じて、当該領域毎の速度ベクトルを算出する手段と、
前記領域毎の速度ベクトルの大きさに応じて、対応するグレースケール画像を多値化する際のしきい値を設定する多値化しきい値設定手段と、
前記多値化手段により対応する前記多値化しきい値を用いて多値化された画像に基づいて、所定の対象物の有無を判定する判定手段と、
を備える、車両の周辺監視装置。
An imaging means mounted on a vehicle for acquiring an image around the vehicle;
Multi-value quantization means for multi-value gray scale image acquired by the imaging means;
Means for dividing the acquired grayscale image into a plurality of areas and calculating a speed vector for each of the areas according to the speed of the vehicle;
Multi-value threshold setting means for setting a threshold value when multi-value the corresponding grayscale image according to the size of the velocity vector for each region;
Determination means for determining the presence or absence of a predetermined object based on an image multi-valued using the multi-value quantization threshold corresponding to the multi-value conversion means;
A vehicle periphery monitoring device comprising:
前記多値化しきい値設定手段は、前記速度ベクトルの大きさが大きくなるほど前記多値化しきい値を小さくする、請求項1または2に記載の周辺監視装置。   The perimeter monitoring apparatus according to claim 1, wherein the multi-value threshold value setting unit decreases the multi-value threshold value as the velocity vector increases. 所定時間内での前記車両の挙動によって生ずる前記取得画像の変化量を推定する手段をさらに備え、
前記多値化しきい値設定手段は、前記変化量に基づき前記速度ベクトルを調整する、請求項1〜3にいずれかに記載の周辺監視装置。
Means for estimating the amount of change in the acquired image caused by the behavior of the vehicle within a predetermined time;
The periphery monitoring device according to claim 1, wherein the multi-value threshold setting unit adjusts the velocity vector based on the change amount.
前記物体検出手段はレーダを含み、前記領域設定手段は、当該レーダが検出した前記物体の速度ベクトルに応じて対応する前記領域の設定位置を移動させる、請求項1に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the object detection unit includes a radar, and the region setting unit moves a set position of the region corresponding to the velocity vector of the object detected by the radar. 前記物体検出手段はレーダを含み、前記領域設定手段は、当該レーダに対する前記撮像手段の検出信号の遅延量に応じて前記領域を設定する、請求項1に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the object detection unit includes a radar, and the region setting unit sets the region according to a delay amount of a detection signal of the imaging unit with respect to the radar.
JP2010087672A 2010-04-06 2010-04-06 Vehicle periphery monitoring device Expired - Fee Related JP5172887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010087672A JP5172887B2 (en) 2010-04-06 2010-04-06 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010087672A JP5172887B2 (en) 2010-04-06 2010-04-06 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2011221630A true JP2011221630A (en) 2011-11-04
JP5172887B2 JP5172887B2 (en) 2013-03-27

Family

ID=45038576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010087672A Expired - Fee Related JP5172887B2 (en) 2010-04-06 2010-04-06 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5172887B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014033957A1 (en) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 Collision determination device and collision determination method
WO2015151457A1 (en) * 2014-03-31 2015-10-08 株式会社デンソー Information display system
JP2020201674A (en) * 2019-06-07 2020-12-17 キヤノン株式会社 Video analyzer and control method therefor and program
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0575987A (en) * 1991-09-17 1993-03-26 Matsushita Electric Ind Co Ltd Method for detecting action area of dynamic image signal and high efficiency coder
JPH0686264A (en) * 1992-08-31 1994-03-25 Hitachi Ltd Variable speed picture encoding system
JPH06223188A (en) * 1993-01-22 1994-08-12 Matsushita Electric Ind Co Ltd Method for determining binarization threshold value of moving body detection
JPH09233478A (en) * 1996-02-21 1997-09-05 Matsushita Electric Ind Co Ltd Image encoder
JP2000341675A (en) * 1999-05-28 2000-12-08 Secom Co Ltd Composite monitoring device
JP2002098509A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Vehicle detecting device
JP2005189109A (en) * 2003-12-25 2005-07-14 Victor Co Of Japan Ltd Three-dimensional image processing system
JP2007241898A (en) * 2006-03-10 2007-09-20 Honda Motor Co Ltd Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP2008135856A (en) * 2006-11-27 2008-06-12 Toyota Motor Corp Body recognizing device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0575987A (en) * 1991-09-17 1993-03-26 Matsushita Electric Ind Co Ltd Method for detecting action area of dynamic image signal and high efficiency coder
JPH0686264A (en) * 1992-08-31 1994-03-25 Hitachi Ltd Variable speed picture encoding system
JPH06223188A (en) * 1993-01-22 1994-08-12 Matsushita Electric Ind Co Ltd Method for determining binarization threshold value of moving body detection
JPH09233478A (en) * 1996-02-21 1997-09-05 Matsushita Electric Ind Co Ltd Image encoder
JP2000341675A (en) * 1999-05-28 2000-12-08 Secom Co Ltd Composite monitoring device
JP2002098509A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Vehicle detecting device
JP2005189109A (en) * 2003-12-25 2005-07-14 Victor Co Of Japan Ltd Three-dimensional image processing system
JP2007241898A (en) * 2006-03-10 2007-09-20 Honda Motor Co Ltd Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP2008135856A (en) * 2006-11-27 2008-06-12 Toyota Motor Corp Body recognizing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014033957A1 (en) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 Collision determination device and collision determination method
JP5862785B2 (en) * 2012-09-03 2016-02-16 トヨタ自動車株式会社 Collision determination device and collision determination method
WO2015151457A1 (en) * 2014-03-31 2015-10-08 株式会社デンソー Information display system
US10040353B2 (en) 2014-03-31 2018-08-07 Denso Corporation Information display system
JP2020201674A (en) * 2019-06-07 2020-12-17 キヤノン株式会社 Video analyzer and control method therefor and program
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon

Also Published As

Publication number Publication date
JP5172887B2 (en) 2013-03-27

Similar Documents

Publication Publication Date Title
JP4203512B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP5577398B2 (en) Vehicle periphery monitoring device
JP4359710B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4482599B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP5809751B2 (en) Object recognition device
JP4528283B2 (en) Vehicle periphery monitoring device
JP5416026B2 (en) Vehicle periphery monitoring device
JP5760090B2 (en) Biological recognition device
JP2010198166A (en) Periphery monitoring device for vehicle
JP5172887B2 (en) Vehicle periphery monitoring device
JP5259647B2 (en) Vehicle periphery monitoring device
JP2010026601A (en) Vehicle periphery monitoring device
JP2008077154A (en) Vehicle periphery supervision unit
JP5484118B2 (en) Vehicle periphery monitoring device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5642785B2 (en) Vehicle periphery monitoring device
JP6405765B2 (en) Imaging apparatus and determination method
JP2008040724A (en) Image processing device and image processing method
JP2008236029A (en) Vehicle-surroundings monitoring system, method and program
JP6405141B2 (en) Imaging apparatus and determination method
JP5455772B2 (en) Vehicle periphery monitoring device
JP5149918B2 (en) Vehicle periphery monitoring device
KR101440293B1 (en) Apparatus and method for detecting crosswalk

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121226

LAPS Cancellation because of no payment of annual fees