JP2010092437A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2010092437A
JP2010092437A JP2008264650A JP2008264650A JP2010092437A JP 2010092437 A JP2010092437 A JP 2010092437A JP 2008264650 A JP2008264650 A JP 2008264650A JP 2008264650 A JP2008264650 A JP 2008264650A JP 2010092437 A JP2010092437 A JP 2010092437A
Authority
JP
Japan
Prior art keywords
time
image
circumscribed rectangle
vehicle
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008264650A
Other languages
Japanese (ja)
Other versions
JP4943403B2 (en
Inventor
Yukihiro Matsuda
幸大 松田
Hiroshi Hattori
弘 服部
Shinji Nagaoka
伸治 長岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008264650A priority Critical patent/JP4943403B2/en
Publication of JP2010092437A publication Critical patent/JP2010092437A/en
Application granted granted Critical
Publication of JP4943403B2 publication Critical patent/JP4943403B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To determine a quadruped which moves laterally in front of a vehicle. <P>SOLUTION: Based on a picked up image, a moving object which is moving in the vehicle width direction in front of the vehicle is extracted. When the temporal change of an aspect ratio of a circumscribed quadrangle circumscribed to the moving object is small and the temporal change of the object form picked up in the lower region of the circumscribed quadrangle is large, the moving object is determined to be a quadruped. In the other example, when the temporal change of the object form picked up in the upper region of the circumscribed quadrangle circumscribed to the moving object is small and the temporal change of the object form picked up in the lower region of the circumscribed quadrangle is large, the moving object is determined to be a quadruped. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の前方を移動している鹿および熊などの四足動物を判定する装置に関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle, and more specifically to an apparatus for determining a quadruped animal such as a deer and a bear moving in front of the vehicle.

従来、赤外線カメラを車両に搭載し、該カメラにより撮像された車両周辺の撮像画像から歩行者を検出し、その情報を車両の運転者に提供する装置が提案されている。しかしながら、車両と接触する可能性のある対象物は歩行者に限られず、たとえば、鹿などの大型動物が自車両の前方に存在すると、車両の走行に影響を与えるおそれがある。   Conventionally, an apparatus has been proposed in which an infrared camera is mounted on a vehicle, a pedestrian is detected from captured images around the vehicle imaged by the camera, and the information is provided to the driver of the vehicle. However, an object that may come into contact with the vehicle is not limited to a pedestrian. For example, if a large animal such as a deer is present in front of the host vehicle, the vehicle may be affected.

下記の特許文献1には、歩行者と区別して動物を検出する手法が開示されている。この手法によると、単一の撮像画像から、動物を表す所定形状の対象物を形状マッチングの手法で抽出することにより、動物を検出している。
特開2007−310705号公報
Patent Document 1 below discloses a technique for detecting an animal by distinguishing it from a pedestrian. According to this method, an animal is detected by extracting an object having a predetermined shape representing an animal from a single captured image by a shape matching method.
JP 2007-310705 A

車両の前方を横断している四足動物は、四本の足を動かしながら移動しているので、撮像するタイミングによって、その形状が異なって撮像される。したがって、所定形状の形状マッチングの手法を単一の撮像画像に適用しても、このような移動中の四足動物の検出については、検出精度が低下するおそれがある。したがって、横断している四足動物を、より良好な精度で検出することができる手法が望まれている。   Since the quadruped that crosses the front of the vehicle is moving while moving its four legs, the shape of the quadruped animal differs depending on the timing of imaging. Therefore, even if the shape matching technique of a predetermined shape is applied to a single captured image, the detection accuracy may be lowered for detection of such a moving quadruped animal. Therefore, there is a demand for a technique that can detect a crossing quadruped animal with better accuracy.

この発明の一つの側面によると、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置は、前記撮像画像から対象物を抽出し、該対象物に外接する外接四角形を設定する手段と、前記外接四角形が設定された対象物の画像データを時系列に格納する格納手段と、前記抽出された対象物の位置を追跡し、前記車両の前方において車幅方向に移動している移動対象物を特定する移動対象物特定手段と、前記特定された移動対象物について、前記時系列の画像データから、一の時刻における前記外接四角形が設定された画像データと他の時刻における前記外接四角形が設定された画像データを抽出する時系列データ抽出手段と、前記一の時刻における前記外接四角形の縦横比と、前記他の時刻における前記外接四角形の縦横比との間における変化の大きさが小さく、かつ、前記一の時刻における前記外接四角形の下部領域に撮像されている前記移動対象物の形状と、前記他の時刻における前記外接四角形の下部領域に撮像されている該移動対象物の形状との間における変化の大きさが大きいとき、前記移動対象物を四足動物であると判定する判定手段と、を備える。   According to one aspect of the present invention, a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle extracts an object from the captured image and applies the object to the object. Means for setting a circumscribed rectangle that circumscribes the object, storage means for storing image data of the object to which the circumscribed rectangle is set, time-series, tracking the position of the extracted object, and in front of the vehicle Moving object specifying means for specifying a moving object moving in the width direction, and image data in which the circumscribed rectangle at one time is set from the time-series image data for the specified moving object Time series data extraction means for extracting image data in which the circumscribed rectangle at the other time is set, an aspect ratio of the circumscribed rectangle at the one time, and at the other time The magnitude of the change between the aspect ratio of the circumscribed square is small, and the shape of the moving object imaged in the lower area of the circumscribed square at the one time and the circumscribed at the other time Determination means for determining that the moving object is a quadruped when the magnitude of the change between the moving object and the shape of the moving object imaged in the lower rectangular area is large.

この発明の他の側面によると、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置は、前記撮像画像から対象物を抽出し、該対象物に外接する外接四角形を設定する手段と、前記外接四角形が設定された対象物の画像データを時系列に格納する格納手段と、前記抽出された対象物の位置を追跡し、前記車両の前方において車幅方向に移動している移動対象物を特定する移動対象物特定手段と、前記特定された移動対象物について、前記時系列の画像データから、一の時刻における前記外接四角形が設定された画像データと他の時刻における前記外接四角形が設定された画像データを抽出する時系列データ抽出手段と、前記一の時刻における前記外接四角形の上部領域に撮像されている前記移動対象物の形状と、前記他の時刻における前記外接四角形の上部領域に撮像されている該移動対象物の形状との間における変化の大きさが小さく、かつ、前記一の時刻における前記外接四角形の下部領域に撮像されている該移動対象物の形状と、前記他の時刻における前記外接四角形の下部領域に撮像されている該移動対象物の形状との間における変化の大きさが大きいとき、前記移動対象物を四足動物であると判定する判定手段と、を備える。   According to another aspect of the present invention, a vehicle periphery monitoring device that monitors a periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle extracts an object from the captured image and applies the object to the object. Means for setting a circumscribed rectangle that circumscribes the object, storage means for storing image data of the object to which the circumscribed rectangle is set, time-series, tracking the position of the extracted object, and in front of the vehicle Moving object specifying means for specifying a moving object moving in the width direction, and image data in which the circumscribed rectangle at one time is set from the time-series image data for the specified moving object And time-series data extracting means for extracting image data in which the circumscribed rectangle at another time is set, and the transfer imaged in the upper area of the circumscribed rectangle at the one time. The magnitude of the change between the shape of the object and the shape of the moving object imaged in the upper area of the circumscribed rectangle at the other time is small, and the circumscribed rectangle at the one time is When the magnitude of the change between the shape of the moving object imaged in the lower area and the shape of the moving object imaged in the lower area of the circumscribed rectangle at the other time is large, Determining means for determining that the moving object is a quadruped animal.

この発明によれば、対象物画像の下部領域に撮像されている形状の時間的変化に基づいて四足動物を判定するので、横方向に移動している四足動物を、より良好な精度で判定することができる。また、対象物画像の大きさの時間的変化または上部領域に撮像されている形状の時間的変化を考慮することにより、歩行者および自動車などの他の対象物とより良好な精度で区別して、四足動物を判定することができる。   According to the present invention, since the quadruped animal is determined based on the temporal change in the shape captured in the lower region of the object image, the quadruped moving in the lateral direction can be detected with better accuracy. Can be determined. In addition, by taking into account the temporal change in the size of the object image or the temporal change in the shape captured in the upper region, it is distinguished with better accuracy from other objects such as pedestrians and cars, Quadruped animals can be determined.

本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。   Other features and advantages of the present invention will be apparent from the detailed description that follows.

次に図面を参照してこの発明の実施の形態を説明する。   Next, an embodiment of the present invention will be described with reference to the drawings.

図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。該装置は、車両に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、車両のヨーレートを検出するヨーレートセンサ5と、車両の走行速度(車速)VCARを検出する車速センサ6と、ブレーキの操作量を検出するためのブレーキセンサ7と、カメラ1Rおよび1Lによって得られる画像データに基づいて車両前方の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音声で警報を発生するスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示すると共に、運転者に車両前方の対象物を認識させるための表示を行うヘッドアップディスプレイ(以下、HUDと呼ぶ)4とを備えている。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The apparatus is mounted on a vehicle and includes two infrared cameras 1R and 1L capable of detecting far-infrared rays, a yaw rate sensor 5 that detects the yaw rate of the vehicle, and a vehicle speed sensor 6 that detects a travel speed (vehicle speed) VCAR of the vehicle. A brake sensor 7 for detecting the operation amount of the brake, an image processing unit 2 for detecting an object in front of the vehicle based on image data obtained by the cameras 1R and 1L, and a sound based on the detection result And a head-up display (hereinafter referred to as HUD) 4 for displaying an image obtained by the camera 1R or 1L and for causing the driver to recognize an object in front of the vehicle. It has.

図2に示すように、カメラ1Rおよび1Lは、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。   As shown in FIG. 2, the cameras 1 </ b> R and 1 </ b> L are disposed in a symmetric position with respect to the central axis passing through the center of the vehicle width at the front portion of the vehicle 10. The two cameras 1R and 1L are fixed to the vehicle so that their optical axes are parallel to each other and their height from the road surface is equal. The infrared cameras 1R and 1L have a characteristic that the level of the output signal becomes higher (that is, the luminance in the captured image becomes higher) as the temperature of the object is higher.

画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号およびHUD4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号およびセンサ5〜7の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。HUD4は、図2に示すように、車両10のフロントウィンドウの、運転者の前方位置に画面4aが表示されるように設けられている。こうして、運転者は、HUD4に表示される画面を視認することができる。   The image processing unit 2 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a central processing unit (CPU) that performs various arithmetic processing, and a data RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs executed by the CPU and data used (including tables and maps), driving signals for the speaker 3, display signals for the HUD 4, etc. Is provided. The output signals of the cameras 1R and 1L and the output signals of the sensors 5 to 7 are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided so that a screen 4 a is displayed at a front position of the driver on the front window of the vehicle 10. Thus, the driver can visually recognize the screen displayed on the HUD 4.

図3は、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。   FIG. 3 is a flowchart showing a process executed by the image processing unit 2. The process is performed at predetermined time intervals.

ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像である。   In steps S11 to S13, the output signals of the cameras 1R and 1L (that is, captured image data) are received as input, A / D converted, and stored in the image memory. The stored image data is a gray scale image including luminance information.

ここで図4を参照すると、(a)および(b)には、カメラ1Rおよび1Lによってそれぞれ得られるグレースケール画像の右画像と左画像が概略的に示されている。ハッチングを付した領域は、中間階調(グレー)の領域であり、ハッチングの種類によって階調の違いを表している。ハッチングが付されていない領域は、輝度レベルが高く(すなわち高温である)、画面上に白色または白色に近い階調色として表示される対象物の領域(以下、高輝度領域と呼ぶ)である。右画像と左画像とでは、同一対象物の画像上の水平位置がずれており、このずれ(視差)により、該対象物までの距離を算出することができる。   Referring now to FIG. 4, (a) and (b) schematically show a right image and a left image of a grayscale image obtained by the cameras 1R and 1L, respectively. The hatched area is an intermediate gradation (gray) area, and represents a difference in gradation depending on the type of hatching. A region not hatched has a high luminance level (that is, a high temperature) and is a region of an object (hereinafter referred to as a high luminance region) displayed on the screen as white or a gradation color close to white. . In the right image and the left image, the horizontal position on the image of the same object is shifted, and the distance to the object can be calculated by this shift (parallax).

図3に戻り、ステップS14において、右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を行う。具体的には、予めシミュレーション等によって決定される輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。図5には、図4(a)の画像を2値化した画像を示す。この図では、黒領域を、ハッチングした領域で表し、白領域(高輝度領域)を、ハッチングが付されていない領域で表している。   Returning to FIG. 3, in step S14, the right image is used as a reference image (alternatively, the left image may be used as a reference image), and the image signal is binarized. Specifically, a process is performed in which a region brighter than the luminance threshold ITH determined in advance by simulation or the like is set to “1” (white) and a dark region is set to “0” (black). FIG. 5 shows an image obtained by binarizing the image of FIG. In this figure, the black region is represented by a hatched region, and the white region (high luminance region) is represented by a region that is not hatched.

ステップS15において、2値化した画像データを、ランレングスデータに変換する。図6は、この処理を説明するための図である。図6(a)では、2値化により白となった領域が、L1〜L8で表されている。ラインL1〜L8は、いずれも、y方向には1画素の幅を有している。ラインL1〜L8は、実際には、y方向に隙間無く並んでいるが、便宜上、図では離間して示されている。また、ラインL1〜L8は、x方向には、それぞれ、2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を、各ラインの開始点(各ラインの左端の画素)の座標と、開始点から終了点(各ラインの右端の画素)までの長さ(画素数で表される)とで表したものである。たとえば、ラインL3は、(x3,y5)、(x4,y5)、および(x5,y5)の3画素からなるので、(x3,y5,3)というランレングスデータで表される。   In step S15, the binarized image data is converted into run-length data. FIG. 6 is a diagram for explaining this process. In FIG. 6 (a), regions that are whitened by binarization are represented by L1 to L8. Each of the lines L1 to L8 has a width of one pixel in the y direction. The lines L1 to L8 are actually arranged without gaps in the y direction, but are shown separated in the figure for convenience. The lines L1 to L8 have lengths of 2 pixels, 2 pixels, 3 pixels, 8 pixels, 7 pixels, 8 pixels, 8 pixels, and 8 pixels, respectively, in the x direction. The run-length data indicates the lines L1 to L8 by the coordinates of the start point (leftmost pixel of each line) of each line and the length (number of pixels) from the start point to the end point (rightmost pixel of each line). )). For example, since the line L3 includes three pixels (x3, y5), (x4, y5), and (x5, y5), the line L3 is represented by run-length data (x3, y5, 3).

ステップS16およびS17において、図6(b)に示すように、対象物のラベリングを行い、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインL1〜L8のうち、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1および2を付与する。この処理により、たとえば図5に示す4個の高輝度領域が、それぞれ、対象物1〜4として抽出される。   In steps S16 and S17, as shown in FIG. 6B, the object is labeled and a process of extracting the object is performed. That is, of the lines L1 to L8 converted to run length data, the lines L1 to L3 having portions overlapping in the y direction are regarded as one object 1, the lines L4 to L8 are regarded as one object 2, and the run length data The object labels 1 and 2 are given. By this process, for example, four high-luminance regions shown in FIG. 5 are extracted as the objects 1 to 4, respectively.

ステップS18において、図6(c)に示すように、該抽出された対象物の重心G、面積S、および、破線で示すように抽出された対象物に外接する四角形すなわち外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出される。重心Gの座標は、面積Sをx方向に二等分する線のx座標およびy方向に二等分する線のy座標として算出される。縦横比ASPECTは、外接四角形のy方向の長さDyとx方向の長さDxとの比Dy/Dxとして算出される。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。   In step S18, as shown in FIG. 6C, the center G of the extracted object, the area S, and the aspect ratio ASPECT of the circumscribed rectangle circumscribing the extracted object as shown by the broken line. Is calculated. The area S is calculated by integrating the lengths of run length data for the same object. The coordinates of the center of gravity G are calculated as the x coordinate of a line that bisects the area S in the x direction and the y coordinate of a line that bisects the area S in the y direction. The aspect ratio ASPECT is calculated as a ratio Dy / Dx between the length Dy in the y direction and the length Dx in the x direction of the circumscribed square. Note that the position of the center of gravity G may be substituted by the position of the center of gravity of the circumscribed rectangle.

ステップS19において、対象物の時刻間追跡(トラッキング)、すなわち、所定のサンプリング周期毎に同一対象物の認識を行う。サンプリング周期は、図3のプロセスが実行される周期と同じでもよい。具体的には、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、図7(a)に示すように時刻kで対象物1および2を抽出した場合を考えると、該対象物1および2と、次のサンプリング周期である時刻(k+1)で抽出した対象物3および4との間の同一性判定を行う。この実施例では、以下の条件1)〜3)を満たしたならば、対象物1および2と、対象物3および4とがそれぞれ同一であると判定し、今回抽出された対象物3および4を、それぞれ1および2というラベルに変更することにより、時刻間追跡を行う。   In step S19, tracking of the target object for the time (tracking), that is, recognition of the same target object is performed every predetermined sampling period. The sampling period may be the same as the period in which the process of FIG. 3 is performed. Specifically, when the time obtained by discretizing the time t as an analog quantity with the sampling period is k and the objects 1 and 2 are extracted at the time k as shown in FIG. The identity determination between the objects 1 and 2 and the objects 3 and 4 extracted at time (k + 1) which is the next sampling period is performed. In this example, if the following conditions 1) to 3) are satisfied, it is determined that the objects 1 and 2 and the objects 3 and 4 are the same, and the objects 3 and 4 extracted this time are the same. Is changed to labels 1 and 2, respectively, to perform inter-time tracking.

1)時刻kにおける対象物i(=1,2)の画像上での重心Gの位置の座標を(xi(k),yi(k))とし、時刻(k+1)における対象物j(=3,4)の画像上での重心Gの位置の座標を(xj(k+1),yj(k+1))としたとき、|xj(k+1)−xi(k)|<Δxであり、かつ|yj(k+1)―yi(k)|<Δyであること。ここで、ΔxおよびΔyは、それぞれ、x方向およびy方向の画像上の移動量の所定の許容値である。   1) The coordinates of the position of the center of gravity G on the image of the object i (= 1, 2) at the time k are (xi (k), yi (k)), and the object j (= 3) at the time (k + 1). , 4) where | xj (k + 1) −xi (k) | <Δx, and | yj (, where (xj (k + 1), yj (k + 1)) are coordinates of the position of the center of gravity G on the image k + 1) −yi (k) | <Δy. Here, Δx and Δy are predetermined allowable values of the movement amount on the image in the x direction and the y direction, respectively.

2)時刻kにおける対象物i=(1,2)の画像上での面積をSi(k)とし、時刻(k+1)における対象物j(=3,4)の画像上での面積をSj(k+1)としたとき、Sj(k+1)/Si(k)<1±ΔSであること。ここで、ΔSは、面積変化の所定の許容値である。   2) The area on the image of the object i = (1,2) at time k is Si (k), and the area on the image of the object j (= 3,4) at time (k + 1) is Sj ( When k + 1), Sj (k + 1) / Si (k) <1 ± ΔS. Here, ΔS is a predetermined allowable value of the area change.

3)時刻kにおける対象物i(=1,2)の外接四角形の縦横比をASPECTi(k)とし、時刻(k+1)における対象物j(=3,4)の外接四角形の縦横比をASPECTj(k+1)としたとき、ASPECTj(k+1)/ASPECTi(k)<1±ΔASPECTであること。ここで、ΔASPECTは縦横比変化の所定の許容値である。   3) The aspect ratio of the circumscribed rectangle of the object i (= 1, 2) at time k is ASPECTTi (k), and the aspect ratio of the circumscribed rectangle of the object j (= 3,4) at time (k + 1) is ASPECTj ( When k + 1), ASPECTj (k + 1) / ASPECTTi (k) <1 ± ΔASPECT. Here, ΔASPECT is a predetermined allowable value of the aspect ratio change.

図7の例では、(a)および(b)との間で、対象物1と3とが上記同一性判定条件を満たし、対象物2と4とが上記同一性判定条件を満たしている。したがって、対象物3および4は、それぞれ、対象物1および2と同一と判断される。   In the example of FIG. 7, between (a) and (b), the objects 1 and 3 satisfy the identity determination condition, and the objects 2 and 4 satisfy the identity determination condition. Therefore, the objects 3 and 4 are determined to be the same as the objects 1 and 2, respectively.

上記条件は、対象物が、時刻kと(k+1)の間で同一であるならば、重心G、面積Sおよび縦横比ASPECTにおける変化が所定の許容値以下であるはず、との知見に基づいている。より良好な同一性判定を行うために、上記3つの条件がすべて満たされたときに同一性と判定するのが好ましいが、該3つの条件のうちのいずれかまたは2つが満たされたときに同一性と判定するようにしてもよい。   The above condition is based on the knowledge that if the object is the same between time k and (k + 1), the changes in the center of gravity G, area S, and aspect ratio ASPECT should be less than or equal to a predetermined tolerance. Yes. In order to perform better identity determination, it is preferable to determine identity when all the above three conditions are satisfied, but it is the same when any one or two of the three conditions are satisfied. You may make it determine with sex.

こうして、各サンプリング周期において、抽出された対象物に関し、少なくとも、付与されたラベル、外接四角形で囲まれた該対象物の画像データ(2値化されている)、対象物の位置(この実施例では、重心Gの位置座標)、および、該外接四角形の縦横比ASPECTは、時系列データとしてメモリに格納される。該時系列データは、少なくとも所定のモニタ期間ΔT内に得られたN個の撮像画像についてのデータを含む。   In this way, at each sampling period, at least for the extracted target object, at least a given label, image data of the target object surrounded by a circumscribed rectangle (binarized), position of the target object (this embodiment) Then, the position coordinates of the center of gravity G) and the aspect ratio ASPECT of the circumscribed rectangle are stored in the memory as time series data. The time series data includes data on N captured images obtained at least within a predetermined monitoring period ΔT.

なお、以上説明したステップS14〜S19の処理は、2値化した基準画像(この実施例では、右画像)について実行される。   Note that the processes in steps S14 to S19 described above are executed for a binarized reference image (in this example, the right image).

図3に戻り、ステップS20において、車速センサ6により検出される車速VCARおよびヨーレートセンサ5により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θr(図13を参照して後述される)を算出する。   Returning to FIG. 3, in step S20, the vehicle speed VCAR detected by the vehicle speed sensor 6 and the yaw rate YR detected by the yaw rate sensor 5 are read and the yaw rate YR is integrated over time, whereby the turning angle θr of the vehicle 10 (see FIG. 13). (To be described later with reference).

一方、ステップS31〜S33では、ステップS19およびS20の処理と平行して、車両10から対象物までの距離zを算出する処理を行う。この演算は、ステップS19およびS20よりも長い時間を要するため、ステップS19およびS20より長い周期(たとえば、ステップS11〜S20の実行周期の3倍程度の周期)で実行されるようにしてもよい。   On the other hand, in steps S31 to S33, a process of calculating a distance z from the vehicle 10 to the object is performed in parallel with the processes of steps S19 and S20. Since this calculation requires a longer time than steps S19 and S20, it may be executed at a cycle longer than that of steps S19 and S20 (for example, a cycle about three times the execution cycle of steps S11 to S20).

ステップS31では、基準画像(この実施例では、右画像)の2値化画像によって追跡される対象物のうちの1つを選択することにより、図8(a)に示すように、該右画像から探索画像R1(ここでは、外接四角形で囲まれる画像領域を探索画像とする)を抽出する。ステップS32では、左画像において、該探索画像と同じ対象物が撮像されている画像領域(以下、対応画像と呼ぶ)を探索すべき探索領域を設定し、基準画像と該探索領域の間で相関演算を実行して、対応画像を抽出する。   In step S31, by selecting one of the objects tracked by the binarized image of the reference image (in this example, the right image), as shown in FIG. The search image R1 (here, the image region surrounded by the circumscribed rectangle is set as the search image) is extracted. In step S32, a search area in which an image area (hereinafter referred to as a corresponding image) in which the same object as the search image is captured is set in the left image, and a correlation is established between the reference image and the search area. An operation is executed to extract a corresponding image.

相関演算の処理負荷を軽減するため、探索画像R1の各頂点座標に応じて、左画像中に、図8(b)に示すように探索領域R2を設定するのが好ましい(たとえば、該各頂点座標を含む所定範囲の領域を探索領域R2として設定することができる)。探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を、下記式(1)により算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。この相関演算は、2値画像ではなく、グレースケール画像を用いて行う。代替的に、同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2a(図8(b)に破線で示す)を探索領域として設定してもよい。これにより、相関演算処理の負荷をさらに軽減することができる。
In order to reduce the processing load of the correlation calculation, it is preferable to set a search region R2 in the left image as shown in FIG. 8B according to each vertex coordinate of the search image R1 (for example, each vertex) A region within a predetermined range including the coordinates can be set as the search region R2). A luminance difference total value C (a, b) indicating the level of correlation with the search image R1 in the search region R2 is calculated by the following equation (1), and the total value C (a, b) is minimized. A region is extracted as a corresponding image. This correlation calculation is performed using a grayscale image, not a binary image. Alternatively, when there is past position data for the same object, an area R2a (indicated by a broken line in FIG. 8B) narrower than the search area R2 may be set as the search area based on the position data. Good. Thereby, the load of the correlation calculation process can be further reduced.

ここで、探索画像R1は、M×N個の画素数を持ち、IR(m,n)は、図9に示す探索画像R1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、探索領域R2内の座標(a,b)を基点とした、探索画像R1と同一形状の局所領域R3内の座標(m,n)の位置の輝度値である。基点の座標(a,b)を変化させて輝度差分総和値C(a,b)が最小となる位置を求めることにより、対応画像の位置が特定される。こうして、図10に示すように、探索画像R1と、これに対応する対応画像R4とが抽出される。   Here, the search image R1 has M × N number of pixels, and IR (m, n) is a luminance value at the position of the coordinate (m, n) in the search image R1 shown in FIG. (A + m−M, b + n−N) is a luminance value at the position of the coordinate (m, n) in the local region R3 having the same shape as the search image R1, with the coordinate (a, b) in the search region R2 as a base point. It is. The position of the corresponding image is specified by determining the position where the luminance difference sum C (a, b) is minimized by changing the coordinates (a, b) of the base point. Thus, as shown in FIG. 10, the search image R1 and the corresponding image R4 corresponding thereto are extracted.

ステップS33において、探索画像R1の重心位置と、撮像画像の画像中心線(撮像画像をx方向に二分する線)LCTRとの距離dR(画素数)および対応画像R4の重心位置と画像中心線LCTRとの距離dL(画素数)を求め、式(2)に適用して、車両10の対象物までの距離zを算出する。
In step S33, the distance dR (number of pixels) between the centroid position of the search image R1 and the image center line (a line that bisects the captured image in the x direction) LCTR of the captured image and the centroid position and the image center line LCTR of the corresponding image R4. Distance dL (number of pixels) is calculated and applied to equation (2) to calculate the distance z to the object of the vehicle 10.

ここで、図11に示すように、Bは基線長、すなわちカメラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮像素子11Lの中心位置とのx方向(水平方向)の距離(すなわち、両カメラの光軸の間隔)を示し、Fは、カメラ1Rおよび1Lに設けられたレンズ12Rおよび12Lの焦点距離を示し、pは、撮像素子11Rおよび11L内の画素間隔を示す。Δd(=dR+dL)は、視差の大きさを示す。   Here, as shown in FIG. 11, B is the base length, that is, the distance in the x direction (horizontal direction) between the center position of the image sensor 11R of the camera 1R and the center position of the image sensor 11L of the camera 1L (that is, both F represents the focal length of the lenses 12R and 12L provided in the cameras 1R and 1L, and p represents the pixel spacing in the image sensors 11R and 11L. Δd (= dR + dL) indicates the magnitude of parallax.

ステップS21において、対象物の位置(前述したように、この実施例では重心Gの位置)の画像内の座標(x、y)および式(2)により算出した距離zを、式(3)に適用し、実空間座標(X,Y,Z)に変換する。ここで、実空間座標(X,Y,Z)は、図12(a)に示すように、カメラ1Rおよび1Lの取り付け位置の中点の位置(車両に固定された位置)を原点Oとして、図のように、車両10の車幅方向にX軸、車両10の車高方向にY軸、車両10の進行方向にZ軸を定めた座標系で表される。画像上の座標は、図12(b)に示すように、画像の中心を原点として水平方向をx軸および垂直方向をy軸とした座標系で表される。
In step S21, the coordinates (x, y) in the image of the position of the object (as described above, the position of the center of gravity G in this embodiment) and the distance z calculated by Expression (2) are expressed in Expression (3). Apply and convert to real space coordinates (X, Y, Z). Here, as shown in FIG. 12A, the real space coordinates (X, Y, Z) are set to the origin O as the midpoint position (position fixed to the vehicle) of the camera 1R and 1L attachment positions. As shown in the figure, it is expressed in a coordinate system in which the X axis is defined in the vehicle width direction of the vehicle 10, the Y axis is defined in the vehicle height direction, and the Z axis is defined in the traveling direction of the vehicle 10. As shown in FIG. 12B, the coordinates on the image are represented by a coordinate system in which the center of the image is the origin, the horizontal direction is the x axis, and the vertical direction is the y axis.

ここで、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と実空間座標系の原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。また、fは、焦点距離Fと画素間隔pとの比である。   Here, (xc, yc) is the coordinate (x, y) on the right image based on the relative position relationship between the mounting position of the camera 1R and the origin O of the real space coordinate system and the image. Are converted into coordinates in a virtual image that coincides with the center of the image. F is a ratio between the focal length F and the pixel interval p.

ステップS22において、車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。図13(a)に示すように、時刻kから(k+1)までの期間中に、車両10がたとえば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、図13(b)に示すようにΔxだけx方向にずれる。したがって、これを補正する。   In step S22, the turning angle correction for correcting the positional deviation on the image due to the turning of the vehicle 10 is performed. As shown in FIG. 13A, when the vehicle 10 turns, for example, to the left by the turning angle θr during the period from time k to (k + 1), the image obtained by the camera is shown in FIG. 13B. As shown, it is shifted in the x direction by Δx. Therefore, this is corrected.

具体的には、式(4)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。前述した少なくとも所定のモニタ期間ΔT内に得られたN個の撮像画像について、算出した実空間位置データ(Xr,Yr,Zr)は、対象物ごとに対応づけて時系列にメモリに格納される。なお、以下の説明では、該補正後の座標を、(X,Y,Z)と示す。
Specifically, the real space coordinates (X, Y, Z) are applied to Equation (4) to calculate the corrected coordinates (Xr, Yr, Zr). The calculated real space position data (Xr, Yr, Zr) for the N captured images obtained within at least the predetermined monitoring period ΔT is stored in the memory in time series in association with each object. . In the following description, the corrected coordinates are indicated as (X, Y, Z).

ステップS23において、同一対象物について、所定のモニタΔTの期間内に得られたN個の撮像画像について算出された回頭角補正後のN個の実空間位置データ(たとえば、N=10程度)から、対象物の車両10に対する相対移動ベクトルに対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルL=(lx,ly,lz)(|L|=1)とすると、式(5)で表される直線を求める。
In step S23, for the same object, from N pieces of real space position data (for example, about N = 10) after turning angle correction calculated for N pieces of captured images obtained within a predetermined monitor ΔT. Then, an approximate straight line LMV corresponding to the relative movement vector of the object with respect to the vehicle 10 is obtained. Specifically, when the direction vector L = (lx, ly, lz) (| L | = 1) indicating the direction of the approximate straight line LMV, the straight line represented by the equation (5) is obtained.

ここで、uは、任意の値を取る媒介変数である。Xav、YavおよびZavは、それぞれ、実空間位置データ列のX座標の平均値、Y座標の平均値、およびZ座標の平均値である。媒介変数uを消去することにより、式(5)は、以下の式(5a)のように表される。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
(5a)
Here, u is a parameter that takes an arbitrary value. Xav, Yav, and Zav are the average value of the X coordinate, the average value of the Y coordinate, and the average value of the Z coordinate of the real space position data string, respectively. By deleting the parameter u, the equation (5) is expressed as the following equation (5a).
(X-Xav) / lx = (Y-Yav) / ly = (Z-Zav) / lz
(5a)

図14は、近似直線LMVを説明するための図である。P(0)、P(1)、P(2)、・・・、P(N−2)、P(N−1)が、回頭角補正後の時系列データを示し、近似直線LMVは、この時系列データの平均位置座標Pav(=(Xav,Yav,Zav))を通り、各データ点からの距離の二乗の平均値が最小となるような直線として求められる。ここで各データ点の座標を示すPに付した()内の数値は、その値が増加するほど過去のデータであることを示す。たとえば、P(0)は最新すなわち今回のサンプル周期の位置座標、P(1)は、1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。以下の説明におけるD(j)、X(j)、Y(j)、Z(j)等も同様である。   FIG. 14 is a diagram for explaining the approximate straight line LMV. P (0), P (1), P (2),..., P (N-2), P (N-1) indicate time-series data after the turning angle correction, and the approximate straight line LMV is It is obtained as a straight line that passes through the average position coordinates Pav (= (Xav, Yav, Zav)) of the time series data and has the minimum mean value of the square of the distance from each data point. Here, the numerical value in () attached to P indicating the coordinates of each data point indicates that the data is past data as the value increases. For example, P (0) indicates the latest position coordinates of the sample period, that is, P (1) indicates position coordinates one sample period before, and P (2) indicates position coordinates two sample periods before. The same applies to D (j), X (j), Y (j), Z (j) and the like in the following description.

より具体的には、平均位置座標Pavから、各データ点の座標P(0)〜P(N−1)に向かうベクトルD(j)=(DX(j),DY(j),DZ(j))=(X(j)−Xav,Y(j)−Yav,Z(j)−Zav)と、方向ベクトルLとの内積sを、式(6)により算出し、内積sの分散が最大となる方向ベクトル(lx,ly,lz)を求める。
More specifically, a vector D (j) = (DX (j), DY (j), DZ (j) from the average position coordinate Pav toward the coordinates P (0) to P (N−1) of each data point. )) = (X (j) −Xav, Y (j) −Yav, Z (j) −Zav)) and the inner product s of the direction vector L are calculated by the equation (6), and the variance of the inner product s is maximum. A direction vector (lx, ly, lz) is obtained.

各データ点の座標の分散共分散行列Vは、式(7)で表され、この行列の固有値σが内積sの分散に相当するので、この行列から算出される3つの固有値のうち最大の固有値に対応する固有ベクトルが、求めるべき方向ベクトルLとなる。なお、式(7)の行列から固有値と固有ベクトルを算出するには、ヤコビ法として知られている手法を用いることができる。
The variance-covariance matrix V of the coordinates of each data point is expressed by Equation (7), and the eigenvalue σ of this matrix corresponds to the variance of the inner product s. Therefore, the largest eigenvalue among the three eigenvalues calculated from this matrix The eigenvector corresponding to is the direction vector L to be obtained. In order to calculate eigenvalues and eigenvectors from the matrix of equation (7), a method known as the Jacobian method can be used.

次に、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)前(すなわち、時間ΔT前)の位置座標P(N−1)=(X(N−1),Y(N−1),Z(N−1))を、近似直線LMV上の位置に補正する。具体的には、式(5a)にZ座標Z(0)およびZ(n−1)を適用することにより得られる式(8)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))およびPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
Next, the latest position coordinate P (0) = (X (0), Y (0), Z (0)) and the position coordinate P (N−) before (N−1) (that is, before time ΔT). 1) = (X (N−1), Y (N−1), Z (N−1)) is corrected to a position on the approximate straight line LMV. Specifically, the corrected position coordinates Pv (0) = (Xv (0) are obtained from Expression (8) obtained by applying Z coordinates Z (0) and Z (n−1) to Expression (5a). ), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1), Zv (N-1)).

式(8)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルが、相対移動ベクトルとして算出される。   A vector from the position coordinates Pv (N−1) calculated by Expression (8) toward Pv (0) is calculated as a relative movement vector.

このように、モニタ期間ΔT内の複数(N個)のデータから、対象物の車両10に対する相対移動軌跡を近似する近似直線LMVを算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して、対象物との衝突の可能性をより正確に予測することができる。   In this way, by calculating the approximate straight line LMV that approximates the relative movement trajectory of the object with respect to the vehicle 10 from a plurality (N) of data within the monitoring period ΔT, and determining the relative movement vector, the influence of the position detection error is obtained. And the possibility of collision with the object can be predicted more accurately.

ステップS24では、対象物の判定処理を行い、対象物が、注意喚起の対象とすべきものであるかどうかを判断する。注意喚起の対象と判断されたならば、ステップS25に進み、警報判定処理を行う。警報判定処理では、運転者に対し、警報を実際に出力するかどうかを判定し、この判定結果が肯定であれば、警報を出力する。   In step S24, an object determination process is performed to determine whether or not the object is to be a target for alerting. If it is determined that it is a target for alerting, the process proceeds to step S25 to perform an alarm determination process. In the alarm determination process, it is determined whether or not an alarm is actually output to the driver. If the determination result is affirmative, an alarm is output.

この発明は、車両の前方を車幅方向(X方向)に移動している四足動物の判定に関するものであるが、該四足動物の判定処理はステップ24で実施され、詳細は後述される。四足動物と判定されれば、上記のような注意喚起の対象と判断される。当然ながら、四足動物の他に、歩行者の判定をステップ24で実施するようにしてもよい。歩行者であると判定されたならば、注意喚起の対象と判断される。また、ステップS24において、対象物が、人工構造物であるかどうかを判定する処理を行ってもよい。人工構造物と判定された場合には、注意喚起の対象から除外するようにしてもよい。歩行者および人工構造物についての判定処理は、任意の適切な手法で実施されることができる(たとえば、特開2006−185434号公報に記載されている)。   The present invention relates to determination of a quadruped moving in the vehicle width direction (X direction) in front of the vehicle. The determination processing of the quadruped is performed in step 24, and details will be described later. . If it is determined that the animal is a quadruped, it is determined that it is a target for alerting as described above. Of course, in addition to a quadruped animal, the determination of a pedestrian may be performed in step 24. If it is determined that the person is a pedestrian, the target is determined to be alerted. In step S24, a process for determining whether the object is an artificial structure may be performed. If it is determined as an artificial structure, it may be excluded from the alerting target. The determination process for a pedestrian and an artificial structure can be performed by any appropriate technique (for example, described in JP-A-2006-185434).

次に、この発明の一実施例に従う、車両の前方を車幅方向(X方向)に移動している四足動物の判定について説明する。具体的な判定手法を説明する前に、図15を参照して対象物の移動について説明し、図16を参照して判定の原理を説明する。   Next, determination of a quadruped moving in the vehicle width direction (X direction) in front of the vehicle according to one embodiment of the present invention will be described. Before describing a specific determination method, the movement of an object will be described with reference to FIG. 15, and the principle of determination will be described with reference to FIG.

図15を参照すると、カメラ1Rおよび1Lによって監視可能な領域(撮像領域)AR0が示されている。領域AR1は、車両10の車幅αの両側に余裕β(たとえば、50〜100cm程度とすることができる)を加えた範囲に対応する領域、換言すれば車両10の車幅方向の中心軸の両側に(α/2+β)の幅を有する領域であり、対象物がそのまま存在し続ければ衝突の可能性が高い接近判定領域である。領域AR2およびAR3は、接近判定領域よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域であり、この領域にある対象物は、接近判定領域へと侵入するおそれがある(よって、侵入判定領域と呼ぶ)。これらの領域AR1〜AR3は、Y方向には所定高さHを有し、Z方向には、所定距離Z1により制限される。   Referring to FIG. 15, an area (imaging area) AR0 that can be monitored by the cameras 1R and 1L is shown. The area AR1 corresponds to an area corresponding to a range obtained by adding a margin β (for example, about 50 to 100 cm) on both sides of the vehicle width α of the vehicle 10, in other words, the central axis of the vehicle 10 in the vehicle width direction. It is an area having a width of (α / 2 + β) on both sides, and is an approach determination area with a high possibility of collision if the object continues to exist as it is. The areas AR2 and AR3 are areas where the absolute value of the X coordinate is larger than that of the approach determination area (outside in the lateral direction of the approach determination area), and an object in this area may enter the approach determination area ( Therefore, it is called an intrusion determination area). These areas AR1 to AR3 have a predetermined height H in the Y direction and are limited by a predetermined distance Z1 in the Z direction.

この実施例では、対象物の最新の位置Pv(0)が、領域AR1〜AR3内に存在し、車両10の前方をX方向に移動している対象物を、判定対象とする。また、X方向の移動は、X軸の正の方向から負の方向への移動だけでなく、負の方向から正の方向への移動をも含む。   In this embodiment, the latest position Pv (0) of the target object exists in the areas AR1 to AR3, and the target object moving in the X direction in front of the vehicle 10 is set as the determination target. Further, the movement in the X direction includes not only movement from the positive direction of the X axis to the negative direction but also movement from the negative direction to the positive direction.

次に、図16を参照すると、車両の前方を、車幅方向(X方向)に移動している対象物が、(a)動物、(b)歩行者、および(c)自動車の場合の、カメラ1Rによって撮像された画像の時系列の変化が示されている。図の右上に示されるように、撮像画像上に付加的に表示されている四角形M(この図では、撮像画像上に白線で示されている)は、図6を参照して前述した、抽出された対象物に外接するよう設定された外接四角形である。各外接四角形Mをy方向に1/2にする線MLが描画されており、これにより、外接四角形Mは、y方向に上部領域Muと下部領域Mlとに二分されている。   Next, referring to FIG. 16, the object moving in the vehicle width direction (X direction) in front of the vehicle is (a) an animal, (b) a pedestrian, and (c) an automobile. A time-series change of an image captured by the camera 1R is shown. As shown in the upper right of the figure, the square M additionally displayed on the captured image (in this figure, indicated by a white line on the captured image) is the extraction described above with reference to FIG. The circumscribed rectangle is set to circumscribe the target object. A line ML is drawn that halves each circumscribed square M in the y direction. Thus, the circumscribed square M is divided into an upper area Mu and a lower area Ml in the y direction.

Mに付与される()内の数値は、その値が増加するほど過去のデータであることを示す。たとえば、M(0)は、対象物の最新の位置座標Pv(0)に対応しており、今回のサンプリング周期において撮像画像から抽出された対象物について特定された外接四角形を示す。M(1)は、位置座標Pv(1)に対応しており、1サンプリング周期前に撮像画像から抽出された対象物について特定された外接四角形を示す。   The numerical value in () given to M indicates that the data is past data as the value increases. For example, M (0) corresponds to the latest position coordinate Pv (0) of the object, and indicates a circumscribed rectangle specified for the object extracted from the captured image in the current sampling cycle. M (1) corresponds to the position coordinate Pv (1), and indicates a circumscribed rectangle specified for the object extracted from the captured image one sampling period before.

(a)の動物は、四足を動かすことによって移動する。したがって、時間と共に、外接四角形Mの上部領域Muに撮像されている上半身部分すなわち胴体部分の形状はほとんど変化しないが、下部領域Mlに撮像されている下半身部分すなわち四足部分の形状は変化する。四足で移動するので、外接四角形Mの大きさの時間的変化は小さい。   The animal in (a) moves by moving the four legs. Therefore, the shape of the upper body part, that is, the body part imaged in the upper area Mu of the circumscribed square M hardly changes with time, but the shape of the lower body part, that is, the quadruped part imaged in the lower area Ml changes. Since it moves with four legs, the temporal change in the size of the circumscribed square M is small.

(b)の歩行者は、二足で移動する。したがって、時間と共に、外接四角形Mの下部領域Mlに撮像されている下半身の形状が変化し、それと共に、外接四角形Mの大きさも変化する(両足を広げて移動するほど、外接四角形Mのx方向の幅は大きくなる)。また、腕が動くことにより、外接四角形Mの上部領域Muに撮像されている上半身の形状も変化しやすい。   The pedestrian in (b) moves with two legs. Accordingly, the shape of the lower body imaged in the lower region Ml of the circumscribed rectangle M changes with time, and the size of the circumscribed rectangle M also changes with it (the more the legs are spread, the more the x direction of the circumscribed rectangle M moves). Will be larger). Further, as the arm moves, the shape of the upper body imaged in the upper region Mu of the circumscribed rectangle M is also likely to change.

(c)の自動車は、人工物であるので、外接四角形Mの上部領域Muに撮像されている該自動車の上部分の形状および外接四角形Mの下部領域Mlに撮像されている該自動車の下部分の形状は、時間と共にほとんど変化しない。   Since the car in (c) is an artifact, the shape of the upper part of the car imaged in the upper area Mu of the circumscribed square M and the lower part of the car imaged in the lower area Ml of the circumscribed square M The shape of seldom changes with time.

この発明は、上記(a)から(c)の知見に基づいてなされたものであり、車両前方をX方向に移動する対象物について、撮像されている下半身の形状の時間的変化を調べ、該時間的変化が大きい対象物を四足動物と判定する。また、撮像されている対象物全体の大きさおよび撮像されている上半身の形状の時間的変化を調べることにより、四足動物を、歩行者および自動車と区別して判定する。   The present invention has been made based on the findings of (a) to (c) above, and for the object moving in the X direction in front of the vehicle, the temporal change in the shape of the lower body being imaged was examined, An object having a large temporal change is determined as a quadruped animal. In addition, by examining temporal changes in the size of the entire object being imaged and the shape of the upper body being imaged, a quadruped animal is distinguished from a pedestrian and a car.

具体的には、車両前方をX方向に移動する対象物の外接四角形について、
1)外接四角形Mの縦横比ASPECTの時系列の変化を調べる、
2)外接四角形Mの上部領域Muに撮像されている対象物形状の時系列の変化を調べる、
3)外接四角形Mの下部領域Mlに撮像されている対象物形状の時系列の変化を調べる。
Specifically, for the circumscribed rectangle of the object moving in the X direction in front of the vehicle,
1) Examine the time-series change of the aspect ratio ASPECT of the circumscribed rectangle M.
2) Examine time-series changes in the shape of the object imaged in the upper region Mu of the circumscribed rectangle M.
3) The time-series change of the object shape imaged in the lower area Ml of the circumscribed rectangle M is examined.

歩行者の場合には、下半身の形状が変化することにより、外接四角形Mの大きさも変化する。したがって、上記1)により、縦横比ASPECTの変化が大きいものは歩行者である可能性が高く、四足動物ではないと判定する。   In the case of a pedestrian, the size of the circumscribed rectangle M changes as the shape of the lower body changes. Therefore, according to the above 1), those having a large change in aspect ratio ASPECT are highly likely to be pedestrians and are determined not to be quadrupeds.

また、歩行者の場合には、上半身の形状が変化しやすいので、外接四角形Mの上部領域Muに撮像されている対象物の形状が変化しやすい。したがって、上記2)により、上部領域Muの対象物の形状の変化が大きいものは歩行者である可能性が高く、四足動物ではないと判定する。   In the case of a pedestrian, since the shape of the upper body is likely to change, the shape of the object imaged in the upper region Mu of the circumscribed rectangle M is likely to change. Therefore, according to the above 2), it is highly likely that an object having a large change in the shape of the object in the upper region Mu is a pedestrian and is not a quadruped.

また、自動車のような可動の人工物は、その形状が変化しないので、外接四角形Mの下部領域Mlの対象物の形状もほとんど変化しない。したがって、上記3)により、下部領域Mlの対象物の形状の変化が小さいものは、自動車等の可動の人工物である可能性が高く、四足動物ではないと判定する。   Moreover, since the shape of a movable artificial object such as an automobile does not change, the shape of the object in the lower region Ml of the circumscribed rectangle M hardly changes. Therefore, according to the above 3), a small change in the shape of the object in the lower region Ml is highly likely to be a movable artifact such as an automobile, and is determined not to be a quadruped.

これら3つの判定の結果、外接四角形Mの大きさおよび該外接四角形Mの上部領域Muに撮像されている形状はほとんど変化しないが、下部領域Mlに撮像されている形状は変化する対象物が抽出され、これが、四足動物を表していると判定される。   As a result of these three determinations, the size of the circumscribed square M and the shape imaged in the upper area Mu of the circumscribed square M hardly change, but the object imaged in the lower area Ml is extracted. It is determined that this represents a quadruped animal.

上記1)および2)は、四足動物を、歩行者と区別するための判定であり、この実施例では、判定精度をより高くするために、1)および2)の両方の判定を行っているが、いずれか一方の判定のみを行ってもよい。   The above 1) and 2) are determinations for distinguishing quadrupeds from pedestrians. In this embodiment, both the determinations 1) and 2) are performed in order to increase the determination accuracy. However, only one of the determinations may be made.

図17は、図3のステップS24において実施される、上記の知見に基づく四足動物の判定処理のフローを示す。   FIG. 17 shows a flow of a quadruped animal determination process based on the above findings, which is performed in step S24 of FIG.

ステップS41において、前述した図3のステップS17で抽出した対象物のうち、車両10の前方をX方向に移動している対象物をさらに抽出する。この実施例では、図3のステップS17で抽出した対象物について式(9)〜(11)が成立するかどうかを調べ、成立する対象物を移動対象物として抽出する。

|Xv(N−1)−Xv(0)|>所定値THx (9)
Vs=(Zv(N−1)−Zv(0))/ΔT (10a)
Zv(0)/Vs<T (10)
|Yv(0)|<H (11)
In step S41, an object moving in the X direction in front of the vehicle 10 is further extracted from the objects extracted in step S17 of FIG. In this embodiment, it is checked whether the equations (9) to (11) are established for the object extracted in step S17 in FIG. 3, and the established object is extracted as a moving object.

| Xv (N−1) −Xv (0) |> predetermined value THx (9)
Vs = (Zv (N−1) −Zv (0)) / ΔT (10a)
Zv (0) / Vs <T (10)
| Yv (0) | <H (11)

上記式(9)〜(11)は、前述したように算出された相対移動ベクトルを用いている。相対移動ベクトルは、対象物の車両10に対する移動を表しているので、相対移動ベクトルから、所定時間内に対象物がX方向に移動しているかどうかを調べることができる。   The above equations (9) to (11) use the relative movement vector calculated as described above. Since the relative movement vector represents the movement of the object with respect to the vehicle 10, it can be checked from the relative movement vector whether or not the object has moved in the X direction within a predetermined time.

前述したように、所定のモニタ期間ΔT内に、対象物の位置座標は、Pv(N−1)からPv(0)へと移動する。ここで、PvのX,Y,Z座標は、式(8)で示される通りである。式(9)に示されるように、ΔTの期間内に、X方向の移動距離|Xv(N−1)−Xv(0)|が所定値THxより大きいかどうかを調べ、所定値THxより大きければ、対象物がX方向に移動していると判断する。所定値THxは、任意に設定されることができる。   As described above, the position coordinates of the object move from Pv (N−1) to Pv (0) within the predetermined monitoring period ΔT. Here, the X, Y, and Z coordinates of Pv are as shown in Expression (8). As shown in the equation (9), it is checked whether or not the movement distance | Xv (N−1) −Xv (0) | in the X direction is larger than the predetermined value THx within the period of ΔT. In this case, it is determined that the object is moving in the X direction. The predetermined value THx can be set arbitrarily.

好ましくは、式(10)についても成立するかどうかを判断することができ、これは、車両10と対象物の衝突の可能性を調べるためである。具体的には、Z方向(距離方向)において、対象物が所定の速度以上で車両10に近づいているかどうかを調べるため、Z方向の相対速度Vsを、式(10a)により算出する。Zv(0)は、対象物の最新の距離検出値であり、Zv(N−1)は、時間ΔT前の距離検出値である。Tは、所定の余裕時間であり、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図しており、たとえば2〜5秒程度に設定されることができる。式(10)が成立するということは、対象物が、車両10に近づいていることを示す。なお、図15を参照して説明したZ方向の所定値Z1は、Vs×Tに相当する。   Preferably, it is possible to determine whether or not the formula (10) is satisfied, in order to investigate the possibility of collision between the vehicle 10 and the object. Specifically, in order to check whether or not the object is approaching the vehicle 10 at a predetermined speed or higher in the Z direction (distance direction), the relative speed Vs in the Z direction is calculated by the equation (10a). Zv (0) is the latest distance detection value of the object, and Zv (N−1) is the distance detection value before time ΔT. T is a predetermined margin time, and is intended to determine the possibility of a collision by a time T before the predicted collision time, and can be set to about 2 to 5 seconds, for example. That Formula (10) is materialized indicates that the object is approaching the vehicle 10. Note that the predetermined value Z1 in the Z direction described with reference to FIG. 15 corresponds to Vs × T.

さらに好ましくは、式(11)が成立するかどうかを判断することにより、対象物が、動物の大きさを示すものであるかどうかを調べる。この実施例では、高さを用いる。対象物のY方向の高さが所定値Hより小さければ、動物の大きさに相当すると判断している。Hは、たとえば車両10の車高の2倍程度に設定されることができ、図15を参照して説明したY方向の所定値Hに相当する。   More preferably, it is determined whether or not the object indicates the size of the animal by determining whether or not Expression (11) is satisfied. In this embodiment, height is used. If the height of the object in the Y direction is smaller than a predetermined value H, it is determined that it corresponds to the size of the animal. H can be set to about twice the vehicle height of the vehicle 10, for example, and corresponds to the predetermined value H in the Y direction described with reference to FIG.

こうして、上記3つの式(9)、(10)および(11)を満たす対象物が、車両10の前方をX方向に移動している対象物として抽出される。   In this way, an object that satisfies the above three expressions (9), (10), and (11) is extracted as an object that moves in front of the vehicle 10 in the X direction.

ステップS42では、ステップS41で抽出された移動対象物に付与されたラベル(これを、Lb1とする)と、同じラベルLb1が付与された対象物を、メモリに記憶された時系列データから探索する。前述したように、図3のステップS19の処理では、対象物の時刻間追跡が行われ、同一と判定された対象物には同じラベルが付与され、該対象物に関する情報が時系列データとしてメモリに記憶されている。したがって、該メモリに記憶された時系列データを探索することにより、ラベルLb1が付与された移動対象物について、外接四角形で囲まれた画像データ、位置(この実施例では、重心Gの位置)、外接四角形の縦横比ASPECTを時系列に求めることができる。   In step S42, the object assigned the same label Lb1 as the label given to the moving object extracted in step S41 (referred to as Lb1) is searched from the time-series data stored in the memory. . As described above, in the process of step S19 in FIG. 3, the object is tracked for the time, the same label is given to the object determined to be the same, and information on the object is stored as time-series data. Is remembered. Therefore, by searching the time series data stored in the memory, the image data, the position (in this embodiment, the position of the center of gravity G) surrounded by the circumscribed rectangle for the moving object to which the label Lb1 is assigned, The aspect ratio ASPECT of the circumscribed rectangle can be obtained in time series.

なお、この実施例では、ステップS42で探索する対象となる期間はΔTであり、よって、N個の撮像画像からそれぞれ得られた対象物のN個の位置Pv(0)〜Pv(N−1)に対応するように、N個の外接四角形M(0)〜M(N−1)と該外接四角形に囲まれる画像データ(2値化されている)が存在する。   In this embodiment, the period to be searched in step S42 is ΔT, and therefore N positions Pv (0) to Pv (N−1) of the objects respectively obtained from the N captured images. ) N circumscribed squares M (0) to M (N−1) and image data (binarized) surrounded by the circumscribed squares exist.

このように、この実施例でのステップS42の探索対象の期間は、前述した相対移動ベクトルのモニタ期間ΔTと同じであるが、両者を異ならせてもよい。たとえば、ステップS42で用いる撮像画像の数を、Nより少なくしてもよい。   As described above, the search target period in step S42 in this embodiment is the same as the above-described relative movement vector monitoring period ΔT, but they may be different. For example, the number of captured images used in step S42 may be less than N.

ステップS43において、モニタ期間ΔTにおける外接四角形の縦横比ASPECTの変化の大きさを調べる。この手法の一例を述べると、最新の外接四角形M(0)の縦横比ASPECT(0)と、メモリから探索された外接四角形M(j)(jは、1〜(N−1))の縦横比ASPECT(j)の差Dap(j)を、式(12)のように算出する。
差Dap(j)
=|M(j)のASPECT(j)−M(0)のASPECT(0)|
j=1〜(N−1) (12)
In step S43, the magnitude of the change in the aspect ratio ASPECT of the circumscribed rectangle in the monitoring period ΔT is examined. As an example of this technique, the aspect ratio ASPECT (0) of the latest circumscribed rectangle M (0) and the aspect ratio of the circumscribed rectangle M (j) (j is 1 to (N-1)) searched from the memory. The difference Dap (j) of the ratio ASPECT (j) is calculated as in Expression (12).
Difference Dap (j)
= | ASPECT (j) of M (j) −ASPECT (0) of M (0) |
j = 1 to (N-1) (12)

式(12)に従って算出された(N−1)個の差Dap(j)を、式(13)のように平均して、差の平均値Dap_avを算出する。
Dap_av
=(Dap(1)+Dap(2)+・・・Dap(N−1))/(N―1)
(13)
An average value Dap_av of the difference is calculated by averaging (N−1) differences Dap (j) calculated according to Expression (12) as shown in Expression (13).
Dap_av
= (Dap (1) + Dap (2) +... Dap (N-1)) / (N-1)
(13)

差の平均値Dap_avは、基準となる縦横比ASPECT(0)に対し、外接四角形の縦横比ASPECTがΔTの期間内にどの程度変動しているかを表しているので、ΔTの期間内における縦横比ASPECTの変化の大きさを表すものと考えることができる。   The average value Dap_av of the difference represents how much the aspect ratio ASPECT of the circumscribed rectangle changes within the period ΔT with respect to the reference aspect ratio ASPECT (0), and therefore the aspect ratio in the period ΔT. It can be considered to represent the magnitude of the change in ASPECT.

なお、他の手法で縦横比ASPECTの変化の大きさを調べてもよい。たとえば、モニタ期間ΔTにおける、M(0)の縦横比ASPECT(0)からM(N−1)の縦横比ASPECT(N−1)のN個の縦横比の推移を調べ、縦横比ASPECTの最大値と最小値の間の差の絶対値を、縦横比ASPECTの変化の大きさを表すものとして用いてもよい。さらなる代替手法として、差Dap(j)の最大値と最小値の間の差の絶対値を、縦横比ASPECTの変化の大きさを表すものとして用いてもよい。   Note that the magnitude of the change in aspect ratio ASPECT may be examined by other methods. For example, in the monitoring period ΔT, the transition of N aspect ratios of the aspect ratio ASPECT (0) of M (0) to the aspect ratio ASPECT (N−1) of M (N−1) is examined, and the maximum aspect ratio ASPECT is obtained. The absolute value of the difference between the value and the minimum value may be used to represent the magnitude of the change in aspect ratio ASPECT. As a further alternative, the absolute value of the difference between the maximum and minimum values of the difference Dap (j) may be used to represent the magnitude of the change in aspect ratio ASPECT.

ステップS44において、モニタ期間ΔTにおける外接四角形の上部領域(図16のMu)における対象物形状の変化の大きさを調べる。この実施例では、最新の外接四角形M(0)の上部領域に撮像されている対象物の形状と、メモリから探索された外接四角形M(j)(j=1〜N−1)の上部領域に撮像されている対象物の形状との差を調べる。   In step S44, the magnitude of the change in the object shape in the upper area (Mu in FIG. 16) of the circumscribed rectangle in the monitoring period ΔT is examined. In this embodiment, the shape of the object imaged in the upper area of the latest circumscribed rectangle M (0) and the upper area of the circumscribed rectangle M (j) (j = 1 to N−1) searched from the memory. The difference from the shape of the object being imaged is examined.

この差は、任意の適切な手法により調べることができ、一例を述べると、周知の形状マッチングの手法を用いて、外接四角形M(0)の上部領域における対象物形状と、外接四角形M(j)の上部領域における対象物形状との間の相関をとり、該相関の高さを表す値Eを算出する。該算出された相関の高さを表す値Eが大きいほど、両者の形状の差が大きいことを示す。   This difference can be examined by any appropriate technique. For example, using a known shape matching technique, the object shape in the upper region of the circumscribed rectangle M (0) and the circumscribed rectangle M (j ) And an object shape in the upper region are taken, and a value E representing the height of the correlation is calculated. It shows that the difference between both shapes is so large that the value E showing the calculated correlation height is large.

具体的には、外接四角形M(0)の上部領域の画像を基準画像とし、これを、外接四角形M(j)の上部領域の画像(これを、対象画像と呼ぶ)に位置合わせする。なお、両方の画像は、2値画像である。位置合わせは、たとえば、外接四角形M(0)の中心(外接四角形の対角線の交点)と外接四角形M(j)の中心とを合わせることができる。代替的に、外接四角形M(0)について前述したように算出された対象物の位置を表す重心G(0)の位置と、外接四角形M(j)について同じく算出された対象物の位置を表す重心G(j)の位置とを合わせてもよい。   Specifically, the image of the upper region of the circumscribed rectangle M (0) is used as a reference image, and this is aligned with the image of the upper region of the circumscribed rectangle M (j) (referred to as a target image). Both images are binary images. For example, the center of the circumscribed square M (0) (the intersection of the diagonal lines of the circumscribed square) and the center of the circumscribed square M (j) can be aligned. Alternatively, the position of the center of gravity G (0) representing the position of the object calculated as described above for the circumscribed rectangle M (0) and the position of the object similarly calculated for the circumscribed rectangle M (j) are represented. The position of the center of gravity G (j) may be matched.

外接四角形M(0)の基準画像の画素数をP×Q個とし、各画素の座標を(p,q)で表す。式(14)に示すように、位置合わせした状態で、基準画像の各画素の輝度値I(p,q)と、外接四角形M(j)の対象画像の対応する画素の輝度値I(p,q)との差の絶対値の和Eu(j)を算出する。なお、基準画像における或る画素について、対応する画素が対象画像に存在しない場合(たとえば、基準画像の画素数が対象画像の画素数より多い場合等)には、Iに黒値(1)を設定することができる。和Eu(j)は、両者の相関の程度を表しており、ここでは総和値と呼ぶ。
The number of pixels of the reference image of the circumscribed rectangle M (0) is P × Q, and the coordinates of each pixel are represented by (p, q). As shown in Expression (14), in the aligned state, the luminance value I 0 (p, q) of each pixel of the reference image and the luminance value I j of the corresponding pixel of the target image of the circumscribed rectangle M (j) The sum Eu (j) of absolute values of differences from (p, q) is calculated. For a certain pixel in the reference image, when the corresponding pixel does not exist in the target image (for example, when the number of pixels in the reference image is larger than the number of pixels in the target image), a black value (1) for I j Can be set. The sum Eu (j) represents the degree of correlation between the two, and is referred to herein as the sum value.

総和値Eu(j)は、最新の外接四角形M(0)の上部領域に撮像されている対象物の形状と、過去の外接四角形M(j)の上部領域に撮像されている対象物の形状との差を表している。総和値Euが高いほど、両者の間の差が大きいことを示す。   The total value Eu (j) is the shape of the object imaged in the upper area of the latest circumscribed rectangle M (0) and the shape of the object imaged in the upper area of the past circumscribed rectangle M (j). Represents the difference. It shows that the difference between both is so large that total value Eu is high.

式(14)により、(N−1)個の総和値Eu(j)を、式(15)のように平均して、総和値の平均値Eu_avを算出する。
Eu_av=(Eu(1)+Eu(2)+・・・Eu(N−1))/(N―1)
(15)
The average value Eu_av of the total value is calculated by averaging the (N−1) total values Eu (j) according to the equation (14) as in the equation (15).
Eu_av = (Eu (1) + Eu (2) +... Eu (N-1)) / (N-1)
(15)

総和値の平均値Eu_avは、基準となる外接四角形M(0)の上部領域における対象物形状に対し、外接四角形の上部領域における対象物形状がΔTの期間内にどの程度変動しているかを表しているので、ΔTの期間内における上部領域の対象物形状の変化の大きさを表すものと考えることができる。平均値Eu_avが大きいほど、変化の大きさが大きいことを表している。   The average value Eu_av of the total sum represents how much the shape of the object in the upper region of the circumscribed rectangle changes within the period ΔT with respect to the shape of the object in the upper region of the reference circumscribed rectangle M (0). Therefore, it can be considered to represent the magnitude of the change in the shape of the object in the upper region within the period of ΔT. The larger the average value Eu_av, the larger the magnitude of the change.

なお、他の手法で、上部領域における対象物形状の変化の大きさを調べてもよい。たとえば、ΔTの期間における総和値Eu(0)からEu(N−1)のN個の総和値の推移を調べ、該総和値の最大値と最小値の間の差の絶対値を、上部領域における対象物形状の変化の大きさを表すものとして用いてもよい。   Note that the size of the change in the shape of the object in the upper region may be examined by another method. For example, the transition of N total values from the total value Eu (0) to Eu (N−1) in the period of ΔT is examined, and the absolute value of the difference between the maximum value and the minimum value of the total value is calculated in the upper region. May be used to represent the magnitude of the change in the shape of the object.

上記相関を取るに際し、代替的に、上記位置合わせした状態から、基準画像を、対象画像に対して所定範囲内で走査し、各走査位置において上記総和値Eu(j)を算出し、最小となる総和値を用いるようにしてもよい。走査により、基準画像と対象画像との間で大きさにずれがある場合でも、両者の相関を、より良好な精度で取ることができる。   In taking the correlation, alternatively, from the aligned state, the reference image is scanned within a predetermined range with respect to the target image, and the total value Eu (j) is calculated at each scanning position. A total value may be used. Even if there is a difference in size between the reference image and the target image, the correlation between the two can be obtained with better accuracy.

ステップS45において、モニタ期間ΔTにおける外接四角形の下部領域(図16のMl)における対象物形状の変化の大きさを調べる。この実施例では、最新の外接四角形M(0)の下部領域に撮像されている対象物の形状と、メモリから探索された外接四角形M(j)の下部領域に撮像されている対象物の形状との差を調べる。これは、ステップS44で外接四角形の上部領域について算出したのと同様の手法で算出され、よって説明を省略する。これにより、下部領域について相関を表す総和値El(j)が算出されると共に、ΔTの期間内の外接四角形の下部領域における対象物形状の変化の大きさを表す該総和値の平均値El_avが算出される。平均値El_avが大きいほど、変化の大きさが大きいことを表している。   In step S45, the magnitude of the change in the object shape in the lower area of the circumscribed rectangle (Ml in FIG. 16) in the monitoring period ΔT is examined. In this embodiment, the shape of the object imaged in the lower area of the latest circumscribed rectangle M (0) and the shape of the object imaged in the lower area of the circumscribed rectangle M (j) searched from the memory. Investigate the difference. This is calculated by the same method as that calculated for the upper area of the circumscribed rectangle in step S44, and thus the description thereof is omitted. As a result, a total value El (j) representing the correlation for the lower region is calculated, and an average value El_av representing the magnitude of the change in the shape of the object in the lower region of the circumscribed rectangle within the period of ΔT is calculated. Calculated. The larger the average value El_av, the larger the magnitude of the change.

ステップS44について述べたのと同様に、他の手法で、下部領域における対象物形状の変化の大きさを調べてもよい。たとえば、総和値El(0)からEl(N−1)のN個の総和値の推移を調べ、該総和値の最大値と最小値の間の差の絶対値を、上記下部領域の対象物形状の変化の大きさを表すものとして用いてもよい。   Similarly to the description about step S44, the magnitude of the change in the shape of the object in the lower region may be examined by another method. For example, the transition of N total values from the total value El (0) to El (N-1) is examined, and the absolute value of the difference between the maximum value and the minimum value of the total value is determined as the object in the lower region. You may use as a thing showing the magnitude | size of a shape change.

なお、ステップS43およびS44の形状マッチングは、代替的に、グレースケール画像を用いて行ってもよい。   Note that the shape matching in steps S43 and S44 may alternatively be performed using a grayscale image.

次に、ステップS46において、ステップS43で算出した縦横比ASPECTの変化の大きさが小さいかどうかを判断する。この実施例では、差の平均値Dap_avが所定値以下かどうかを判断する。このステップは、前述した1)を判定するための処理である。したがって、所定値は、シミュレーション等を介して、歩行者と動物とを区別することが可能なような値に予め設定されている。差の平均値Dap_avが所定値以下ならば、モニタ期間ΔTにおける縦横比ASPECTの変化の大きさが小さいことを示し、ステップS47に進む。差の平均値Dap_avが所定値より大きければ、縦横比ASPECTの変化の大きさが大きいことを示す。この場合、移動対象物は、歩行者を表す可能性が高く、四足動物ではないと判定する(S49)。   Next, in step S46, it is determined whether or not the magnitude of the change in aspect ratio ASPECT calculated in step S43 is small. In this embodiment, it is determined whether the average difference value Dap_av is equal to or less than a predetermined value. This step is a process for determining 1) described above. Therefore, the predetermined value is set in advance to a value that can distinguish a pedestrian and an animal through simulation or the like. If the average difference value Dap_av is equal to or less than the predetermined value, it indicates that the change in the aspect ratio ASPECT during the monitoring period ΔT is small, and the process proceeds to step S47. If the average difference value Dap_av is larger than a predetermined value, it indicates that the change in aspect ratio ASPECT is large. In this case, it is highly likely that the moving object represents a pedestrian and is not a quadruped (S49).

ステップS47において、ステップS44で算出した外接四角形の上部領域における対象物形状の変化の大きさが小さいかどうかを判断する。この実施例では、総和値の平均値Eu_avが所定値以下かどうかを判断する。このステップは、前述した2)を判定するための処理である。したがって、該所定値は、シミュレーション等を介して、歩行者と動物とを区別することが可能なような値に予め設定される。モニタ期間ΔTにおける総和値の平均値Eu_avが所定値以下ならば、上部領域の対象物形状の変化が小さいことを示し、ステップS48に進む。総和値の平均値Eu_avが所定値より大きければ、上部領域の対象物形状の変化が大きいことを示す。この場合、移動対象物は、歩行者を表す可能性が高く、四足動物ではないと判定する(S49)。   In step S47, it is determined whether or not the magnitude of the change in the object shape in the upper area of the circumscribed rectangle calculated in step S44 is small. In this embodiment, it is determined whether the average value Eu_av of the total value is equal to or less than a predetermined value. This step is a process for determining 2) described above. Therefore, the predetermined value is set in advance to a value that can distinguish a pedestrian and an animal through simulation or the like. If the average value Eu_av of the total value in the monitoring period ΔT is equal to or less than the predetermined value, it indicates that the change in the shape of the object in the upper region is small, and the process proceeds to step S48. If the average value Eu_av of the total sum is larger than a predetermined value, it indicates that the change in the shape of the object in the upper region is large. In this case, it is highly likely that the moving object represents a pedestrian and is not a quadruped (S49).

ステップS48において、ステップS45で算出した外接四角形の下部領域における対象物形状の変化の大きさが大きいかどうかを判断する。この実施例では、総和値の平均値El_avが所定値以上かどうかを判断する。このステップは、前述した3)を判定するための処理である。したがって、該所定値は、シミュレーション等を介して、自動車のような人工の可動物と動物とを区別することが可能なような値に予め設定される。モニタ期間ΔTにおける総和値の平均値El_avが所定値以上ならば、下部領域の対象物形状の変化が大きいことを示し、ステップS50に進む。総和値の平均値El_avが所定値より小さければ、下部領域の対象物形状の変化が小さいことを示す。この場合、移動対象物は、自動車などの人工の可動物を表す可能性が高く、四足動物ではないと判定する(S49)。   In step S48, it is determined whether the magnitude of the change in object shape in the lower area of the circumscribed rectangle calculated in step S45 is large. In this embodiment, it is determined whether the average value El_av of the total value is equal to or greater than a predetermined value. This step is a process for determining 3) described above. Therefore, the predetermined value is set in advance to a value that can distinguish an artificial movable object such as an automobile from an animal through simulation or the like. If the average value El_av of the total value in the monitoring period ΔT is equal to or greater than the predetermined value, it indicates that the change in the shape of the object in the lower region is large, and the process proceeds to step S50. If the average value El_av of the total value is smaller than a predetermined value, it indicates that the change in the shape of the object in the lower region is small. In this case, the moving object is highly likely to represent an artificial movable object such as an automobile, and is determined not to be a quadruped animal (S49).

こうして、ステップS46〜S48のすべての判断がYesであるとき、すなわち、モニタ期間ΔTにおいて、外接四角形の縦横比の変化の大きさは小さく、外接四角形の上部領域に撮像されている対象物の形状の変化の大きさは小さく、かつ、外接四角形の下部領域に撮像されている対象物の形状の変化の大きさが大きいとき、対象物は四足動物であると判定する(S50)。四足動物であると判定されたならば、対象物は注意喚起対象であると判定される。   Thus, when all the determinations in steps S46 to S48 are Yes, that is, in the monitoring period ΔT, the change in the aspect ratio of the circumscribed rectangle is small, and the shape of the object imaged in the upper area of the circumscribed rectangle When the magnitude of the change is small and the magnitude of the change in the shape of the object imaged in the lower area of the circumscribed rectangle is large, it is determined that the object is a quadruped (S50). If it is determined that the animal is a quadruped animal, the object is determined to be an alert target.

他方、四足動物ではないと判定された場合には、対象物が歩行者であるかどうかを、さらに他の手法で判定してもよい。   On the other hand, if it is determined that the object is not a quadruped animal, it may be determined by another method whether or not the object is a pedestrian.

前述したように、四足動物であると判定されたならば、図3のステップS25の警報判定処理において、警報を実際に出力するかどうかを判定する。この判定処理について説明する。   As described above, if it is determined that the animal is a quadruped animal, it is determined whether or not an alarm is actually output in the alarm determination process in step S25 of FIG. This determination process will be described.

この実施例では、ブレーキの操作に応じて、警報出力を実際に行うかどうかを判断する。具体的には、ブレーキセンサ7の出力から、車両10の運転者がブレーキ操作を行っているか否かを判別し、ブレーキ操作を行っていなければ、警報出力を行う。ブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、加速度Gsが所定の閾値GTH以下(Gs≦GTH)であるときは、警報出力を行い、Gs>GTHであるときは、ブレーキ操作により衝突が回避されると判定して処理を終了する。これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。しかしながら、代替的に、ブレーキ操作について判定することなく警報を発するようにしてもよい。   In this embodiment, it is determined whether an alarm output is actually performed according to the operation of the brake. Specifically, it is determined from the output of the brake sensor 7 whether or not the driver of the vehicle 10 is performing a brake operation. If the brake operation is not performed, an alarm is output. When the brake operation is performed, the acceleration Gs generated by the braking operation is calculated (the deceleration direction is positive). When the acceleration Gs is equal to or less than a predetermined threshold GTH (Gs ≦ GTH), an alarm is output. When Gs> GTH, it is determined that the collision is avoided by the brake operation, and the process is terminated. As a result, when an appropriate brake operation is performed, an alarm is not issued, so that the driver is not bothered excessively. However, alternatively, an alarm may be issued without determining brake operation.

ここで、閾値GTHは、式(16)のように定めることができる。これは、ブレーキ加速度Gsがそのまま維持された場合に、距離Zv(0)以下の走行距離で車両10が停止する条件に対応する値である。
Here, the threshold value GTH can be determined as in Expression (16). This is a value corresponding to a condition in which the vehicle 10 stops at a travel distance equal to or less than the distance Zv (0) when the brake acceleration Gs is maintained as it is.

警報出力は、スピーカ3を介して音声による警報を発するとともに、図18に示すように、HUD4により、例えばカメラ1Rにより得られる画像を画面4aに表示し、移動している四足動物を強調表示する。強調表示は任意の手法でよく、たとえば、色のついた枠で囲んで強調することができる。こうして、衝突の可能性の高い移動動物を、運転者はより確実に認識することができる。なお、警報および画像表示のいずれか一方を用いて警報出力を行ってもよい。   As for the alarm output, an audio alarm is issued through the speaker 3 and, as shown in FIG. 18, an image obtained by the camera 1R, for example, is displayed on the screen 4a by the HUD 4, and the moving quadruped is highlighted. To do. The highlighting may be performed by any method, for example, it can be highlighted by surrounding it with a colored frame. In this way, the driver can more reliably recognize a moving animal with a high possibility of collision. The alarm output may be performed using either one of the alarm and the image display.

なお、警報判定処理は、移動している四足動物だけでなく、前述したように、歩行者のように注意喚起対象と判断された対象物について行うことができる。   Note that the warning determination process can be performed not only on a moving quadruped animal but also on an object that is determined to be a target for alerting, such as a pedestrian, as described above.

上記の実施例では、ステップS41において移動対象物と判断した時の該移動対象物の位置Pv(0)に対応する撮像画像の外接四角形M(0)を基準とし、これよりも過去の撮像画像の外接四角形M(j)を対象に、四足動物の判定処理を行っている。代替的に、移動対象物と判断した時とは異なる時点の撮像画像の外接四角形を基準としてもよい。たとえば、判断された移動対象物について、位置Pv(5)に対応する撮像画像の外接四角形M(5)を基準とし、これに対して未来の位置Pv(0)〜Pv(4)の撮像画像および過去の位置Pv(6)〜Pv(N−1)の撮像画像を対象に、縦横比ASPECT、上部形状および下部形状の時系列変化を調べるようにしてもよい。   In the above-described embodiment, the circumscribed rectangle M (0) of the captured image corresponding to the position Pv (0) of the moving object at the time when the moving object is determined in step S41 is used as a reference, and the past captured image is more than this. The quadruped animal determination process is performed on the circumscribed rectangle M (j). Alternatively, a circumscribed rectangle of a captured image at a time different from the time when it is determined as a moving object may be used as a reference. For example, with respect to the determined moving object, the circumscribed rectangle M (5) of the captured image corresponding to the position Pv (5) is used as a reference, and the captured images at future positions Pv (0) to Pv (4). In addition, the aspect ratio ASPECT, time-series changes of the upper shape and the lower shape may be examined for the captured images of the past positions Pv (6) to Pv (N-1).

また、上記の実施例では、より良好な精度で四足動物を判定するため、基準画像と比較される画像の個数は複数(N個)であるが、代替的に1個でもよい。その場合、今回の撮像画像の外接四角形と、たとえば、所定時間前の撮像画像の外接四角形との間で、縦横比ASPECT、上部形状および下部形状を比較し、両者の間の変化の大きさを求めることができる。   Further, in the above embodiment, in order to determine a quadruped animal with better accuracy, the number of images to be compared with the reference image is plural (N), but may alternatively be one. In that case, the aspect ratio ASPECT, the upper shape, and the lower shape are compared between the circumscribed square of the current captured image and the circumscribed square of the captured image for a predetermined time, for example, and the magnitude of the change between the two is determined. Can be sought.

さらに、上記の実施例では、相対移動ベクトルを用いて、対象物がX方向に移動しているかどうかを判断した。代替的に、より簡単に、前述したP(0)のX座標とP(N−1)のX座標との間の差の絶対値が所定値THxより大きいかどうかを調べ、大きければ移動対象物と判断するようにしてもよい。   Further, in the above embodiment, it is determined whether or not the object is moving in the X direction using the relative movement vector. Alternatively, more simply, it is checked whether the absolute value of the difference between the X coordinate of P (0) and the X coordinate of P (N-1) is greater than a predetermined value THx. You may make it judge that it is a thing.

さらに、上記の実施例では、対象物が領域AR1〜AR3(図15)のどこに存在していても、同じ手法で、対象物がX方向に移動しているかどうかを判断している。代替的に、領域毎に判断手法を変更してもよく、たとえば、最新の対象物の位置Pv(0)が、接近判定領域AR1にあり、かつ、上記ステップS41の所で述べたようにX方向に移動していると判断されたならば、図17の判定プロセスを行うようにしてもよい。他方、最新の対象物の位置Pv(0)が侵入判定領域AR2にある場合には、移動方向が、X軸の正から負の方向であるかどうかを調べ(すなわち、Xv(N−1)>Xv(0))、そうであれば、図17の判定プロセスを行う。すなわち、対象物が領域AR2に存在する場合、負から正の方向への移動は、対象物が車両10から離れていくことを示しているので、この場合には、四足動物の判定処理を行わないようにするものである。反対に、最新の対象物の位置Pv(0)が侵入判定領域AR3にある場合には、移動方向が、X軸の負から正の方向であるかどうかを調べ(すなわち、Xv(N−1)<Xv(0))、そうであれば、図17の判定プロセスを行う。すなわち、対象物が領域AR3に存在する場合、正から負の方向への移動は、対象物が車両10から離れていくことを示しているので、この場合には、四足動物の判定処理を行わないようにするものである。このように、領域毎に、判定手法を変更してもよい。   Further, in the above-described embodiment, it is determined whether the object is moving in the X direction by the same method regardless of where the object exists in the areas AR1 to AR3 (FIG. 15). Alternatively, the determination method may be changed for each region. For example, the latest position Pv (0) of the object is in the approach determination region AR1 and X as described in step S41 above. If it is determined that it is moving in the direction, the determination process of FIG. 17 may be performed. On the other hand, when the latest position Pv (0) of the object is in the intrusion determination area AR2, it is checked whether or not the moving direction is the positive to negative direction of the X axis (that is, Xv (N-1)). > Xv (0)), if so, the determination process of FIG. 17 is performed. That is, when the object is present in the area AR2, the movement from the negative to the positive direction indicates that the object is moving away from the vehicle 10, and in this case, the quadruped animal determination process is performed. Do not do it. On the other hand, when the latest position Pv (0) of the object is in the intrusion determination area AR3, it is checked whether the moving direction is from the negative to the positive direction of the X axis (that is, Xv (N−1) ) <Xv (0)), if so, the determination process of FIG. 17 is performed. That is, when the object is present in the area AR3, the movement from the positive direction to the negative direction indicates that the object is moving away from the vehicle 10, and in this case, the quadruped animal determination process is performed. Do not do it. In this way, the determination method may be changed for each region.

なお、本発明は、上記の実施形態に限られるものではなく、様々な変形形態が可能である。たとえば、上記実施形態では、撮像手段として赤外線カメラを使用したが、例えば通常の可視光線のみ検出可能なテレビカメラを使用してもよい(たとえば、特開平2−26490号公報)。しかしながら、赤外線カメラを用いることにより、対象物の抽出処理をより簡略化することができ、演算負荷を低減することができる。   In addition, this invention is not restricted to said embodiment, Various deformation | transformation forms are possible. For example, in the above-described embodiment, an infrared camera is used as the imaging unit. However, for example, a television camera that can detect only normal visible light may be used (for example, JP-A-2-26490). However, by using an infrared camera, the object extraction process can be further simplified, and the calculation load can be reduced.

以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。   As described above, specific embodiments of the present invention have been described. However, the present invention is not limited to these embodiments.

この発明の一実施例に従う、周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the periphery monitoring apparatus according to one Example of this invention. この発明の一実施例に従う、カメラの取り付け位置を説明するための図。The figure for demonstrating the attachment position of the camera according to one Example of this invention. この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。3 is a flowchart illustrating a process in an image processing unit according to an embodiment of the present invention. この発明の一実施例に従う、カメラにより得られるグレースケール画像の一例を示す図。The figure which shows an example of the gray scale image obtained by the camera according to one Example of this invention. この発明の一実施例に従う、グレースケール画像を2値化した画像の一例を示す図。The figure which shows an example of the image which binarized the gray scale image according to one Example of this invention. この発明の一実施例に従う、ランレングスデータへの変換処理よびラベリング処理を説明するための図。The figure for demonstrating the conversion process and labeling process to run length data according to one Example of this invention. この発明の一実施例に従う、対象物の時刻間追跡を説明するための図。The figure for demonstrating the time tracking of the target object according to one Example of this invention. この発明の一実施例に従う、右画像中の探索画像と、左画像に設定する探索領域を示す図。The figure which shows the search area | region in the right image according to one Example of this invention, and the search area | region set to a left image. この発明の一実施例に従う、探索領域を対象とした相関演算を説明するための図。The figure for demonstrating the correlation calculation for the search area | region according to one Example of this invention. この発明の一実施例に従う、視差の算出方法を説明するための図。The figure for demonstrating the calculation method of the parallax according to one Example of this invention. この発明の一実施例に従う、視差から距離を算出する手法を説明するための図。The figure for demonstrating the method of calculating distance from parallax according to one Example of this invention. この発明の一実施例に従う、実空間座標系と画像座標系を示す図。The figure which shows the real space coordinate system and image coordinate system according to one Example of this invention. この発明の一実施例に従う、回頭角補正を説明するための図。The figure for demonstrating the turning angle correction | amendment according to one Example of this invention. この発明の一実施例に従う、相対移動ベクトルの算出手法を説明するための図。The figure for demonstrating the calculation method of a relative movement vector according to one Example of this invention. この発明の一実施例に従う、車両前方の領域区分を示す図。The figure which shows the area division ahead of the vehicle according to one Example of this invention. この発明の一実施例に従う、横方向に移動する四足動物判定の原理を説明するための図。The figure for demonstrating the principle of the quadruped animal moving to the horizontal direction according to one Example of this invention. この発明の一実施例に従う、四足動物判定のプロセスのフローチャート。4 is a flowchart of a quadruped animal determination process according to one embodiment of the present invention. この発明の一実施例に従う、警報出力の一例を説明するための図。The figure for demonstrating an example of the alarm output according to one Example of this invention.

符号の説明Explanation of symbols

1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 ヘッドアップディスプレイ
1R, 1L infrared camera (imaging means)
2 Image processing unit 3 Speaker 4 Head-up display

Claims (2)

車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記撮像画像から対象物を抽出し、該対象物に外接する外接四角形を設定する手段と、
前記外接四角形が設定された対象物の画像データを時系列に格納する格納手段と、
前記抽出された対象物の位置を追跡し、前記車両の前方において車幅方向に移動している移動対象物を特定する移動対象物特定手段と、
前記特定された移動対象物について、前記時系列の画像データから、一の時刻における前記外接四角形が設定された画像データと他の時刻における前記外接四角形が設定された画像データを抽出する時系列データ抽出手段と、
前記一の時刻における前記外接四角形の縦横比と、前記他の時刻における前記外接四角形の縦横比との間における変化の大きさが小さく、かつ、前記一の時刻における前記外接四角形の下部領域に撮像されている前記移動対象物の形状と、前記他の時刻における前記外接四角形の下部領域に撮像されている該移動対象物の形状との間における変化の大きさが大きいとき、前記移動対象物を四足動物であると判定する判定手段と、
を備える、車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
Means for extracting an object from the captured image and setting a circumscribed rectangle circumscribing the object;
Storage means for storing, in time series, image data of an object on which the circumscribed rectangle is set;
A moving object specifying means for tracking the position of the extracted object and specifying a moving object moving in the vehicle width direction in front of the vehicle;
Time-series data for extracting the image data in which the circumscribed rectangle at one time is set and the image data in which the circumscribed rectangle at another time is set from the time-series image data for the identified moving object. Extraction means;
The magnitude of the change between the aspect ratio of the circumscribed rectangle at the one time and the aspect ratio of the circumscribed rectangle at the other time is small, and an image is captured in the lower area of the circumscribed rectangle at the one time When the magnitude of the change between the shape of the moving object being made and the shape of the moving object imaged in the lower area of the circumscribed rectangle at the other time is large, the moving object is A determination means for determining that the animal is a quadruped animal;
A vehicle periphery monitoring device comprising:
車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記撮像画像から対象物を抽出し、該対象物に外接する外接四角形を設定する手段と、
前記外接四角形が設定された対象物の画像データを時系列に格納する格納手段と、
前記抽出された対象物の位置を追跡し、前記車両の前方において車幅方向に移動している移動対象物を特定する移動対象物特定手段と、
前記特定された移動対象物について、前記時系列の画像データから、一の時刻における前記外接四角形が設定された画像データと他の時刻における前記外接四角形が設定された画像データを抽出する時系列データ抽出手段と、
前記一の時刻における前記外接四角形の上部領域に撮像されている前記移動対象物の形状と、前記他の時刻における前記外接四角形の上部領域に撮像されている該移動対象物の形状との間における変化の大きさが小さく、かつ、前記一の時刻における前記外接四角形の下部領域に撮像されている該移動対象物の形状と、前記他の時刻における前記外接四角形の下部領域に撮像されている該移動対象物の形状との間における変化の大きさが大きいとき、前記移動対象物を四足動物であると判定する判定手段と、
を備える、車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
Means for extracting an object from the captured image and setting a circumscribed rectangle circumscribing the object;
Storage means for storing, in time series, image data of an object on which the circumscribed rectangle is set;
A moving object specifying means for tracking the position of the extracted object and specifying a moving object moving in the vehicle width direction in front of the vehicle;
Time-series data for extracting the image data in which the circumscribed rectangle at one time is set and the image data in which the circumscribed rectangle at another time is set from the time-series image data for the identified moving object. Extraction means;
Between the shape of the moving object imaged in the upper area of the circumscribed rectangle at the one time and the shape of the moving object imaged in the upper area of the circumscribed rectangle at the other time The magnitude of the change is small, and the shape of the moving object imaged in the lower area of the circumscribed square at the one time and the image of the lower area of the circumscribed square at the other time A determining means for determining that the moving object is a quadruped when the magnitude of the change between the moving object and the shape of the moving object is large;
A vehicle periphery monitoring device comprising:
JP2008264650A 2008-10-10 2008-10-10 Vehicle periphery monitoring device Expired - Fee Related JP4943403B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008264650A JP4943403B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008264650A JP4943403B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010092437A true JP2010092437A (en) 2010-04-22
JP4943403B2 JP4943403B2 (en) 2012-05-30

Family

ID=42255055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008264650A Expired - Fee Related JP4943403B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4943403B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012029382A1 (en) * 2010-08-31 2012-03-08 本田技研工業株式会社 Vehicle surroundings monitoring device
JP2013089000A (en) * 2011-10-18 2013-05-13 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2018005390A (en) * 2016-06-29 2018-01-11 日産自動車株式会社 Object tracking method and object tracking apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204011A (en) * 2000-01-20 2001-07-27 Honda Motor Co Ltd Animal detector
JP2008021035A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204011A (en) * 2000-01-20 2001-07-27 Honda Motor Co Ltd Animal detector
JP2008021035A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012029382A1 (en) * 2010-08-31 2012-03-08 本田技研工業株式会社 Vehicle surroundings monitoring device
CN102985958A (en) * 2010-08-31 2013-03-20 本田技研工业株式会社 Vehicle surroundings monitoring device
US8965056B2 (en) 2010-08-31 2015-02-24 Honda Motor Co., Ltd. Vehicle surroundings monitoring device
CN102985958B (en) * 2010-08-31 2015-04-01 本田技研工业株式会社 Vehicle surroundings monitoring device
JP2013089000A (en) * 2011-10-18 2013-05-13 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2018005390A (en) * 2016-06-29 2018-01-11 日産自動車株式会社 Object tracking method and object tracking apparatus

Also Published As

Publication number Publication date
JP4943403B2 (en) 2012-05-30

Similar Documents

Publication Publication Date Title
JP4410292B1 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP4456086B2 (en) Vehicle periphery monitoring device
JP4615139B2 (en) Vehicle periphery monitoring device
JP4426535B2 (en) Vehicle periphery monitoring device
JP3764086B2 (en) Vehicle information providing device
JP4173902B2 (en) Vehicle periphery monitoring device
JP5706874B2 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP5503728B2 (en) Vehicle periphery monitoring device
US20030007074A1 (en) Vehicle zone monitoring apparatus
US9165197B2 (en) Vehicle surroundings monitoring apparatus
JP4528283B2 (en) Vehicle periphery monitoring device
JP2001006096A (en) Peripheral part monitoring device for vehicle
JP2006155388A (en) Vehicle circumference monitoring device
JP4128562B2 (en) Vehicle periphery monitoring device
JP4425852B2 (en) Vehicle periphery monitoring device
JP2009075124A (en) Distance detector
JP4943403B2 (en) Vehicle periphery monitoring device
JP2008077154A (en) Vehicle periphery supervision unit
JP3916930B2 (en) Approach warning device
JP3949628B2 (en) Vehicle periphery monitoring device
JP4567072B2 (en) Vehicle periphery monitoring device
JP2004362265A (en) Infrared image recognition device
JP3961269B2 (en) Obstacle alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120229

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees