JP2004251886A - Device for detecting surrounding object - Google Patents

Device for detecting surrounding object Download PDF

Info

Publication number
JP2004251886A
JP2004251886A JP2003311411A JP2003311411A JP2004251886A JP 2004251886 A JP2004251886 A JP 2004251886A JP 2003311411 A JP2003311411 A JP 2003311411A JP 2003311411 A JP2003311411 A JP 2003311411A JP 2004251886 A JP2004251886 A JP 2004251886A
Authority
JP
Japan
Prior art keywords
vehicle
virtual
area
image
virtual area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003311411A
Other languages
Japanese (ja)
Inventor
Naoko Okubo
直子 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003311411A priority Critical patent/JP2004251886A/en
Publication of JP2004251886A publication Critical patent/JP2004251886A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for detecting surrounding objects which can detect a surrounding object, even if information on images of a surrounding object in photographed images changes. <P>SOLUTION: Virtual regions 31-38 fixed in a real space around a vehicle 100 are set, and the relative positional relation between the vehicle 100 and each set virtual region 31-38 is computed, and regions which correspond to the virtual regions 31-38 are set on a photographed image of the neighborhood of the vehicle 100, on the basis of the computed positional relation. Characteristic quantities of the virtual regions 31-38 are computed by the quantities of changes in a predetermined time interval of the average luminance values of these set regions, and the object around the vehicle 100 is detected on the basis of these feature quantities. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、車両の周囲の物体を検出する周囲物体検出装置に関する。   The present invention relates to a surrounding object detection device that detects an object around a vehicle.

車両の側方の障害物を検出して運転者に報知する装置が知られている。この装置では、車両の側方に視軸を向けたビデオカメラで自車両側方の画像を撮影し、撮影した画像の各フレームから特徴点を抽出して、その特徴点がフレーム間に画像中を移動する移動量から、自車両側方の画像におけるオプティカルフローを算出する。さらに、自車両の速度から、自車両が移動することによる画像の移動量に相当する移動フロー長を求める。このようにして求めたオプティカルフローと移動フロー長とを比較し、両者が異なる場合に自車両の側方に車両が存在すると判断して、警報を発する(特許文献1)。   2. Description of the Related Art A device that detects an obstacle on the side of a vehicle and notifies the driver of the obstacle is known. In this device, an image of the side of the own vehicle is photographed by a video camera whose visual axis is directed to the side of the vehicle, and feature points are extracted from each frame of the photographed image. The optical flow in the image on the side of the own vehicle is calculated from the amount of movement of the vehicle. Further, a movement flow length corresponding to the moving amount of the image due to the movement of the own vehicle is obtained from the speed of the own vehicle. The optical flow thus obtained is compared with the moving flow length, and if the two are different, it is determined that a vehicle is present on the side of the own vehicle, and an alarm is issued (Patent Document 1).

特開平7−296297号公報JP-A-7-296297

この装置では、輝度分布などの画像情報に基づいて、画像のフレームごとに抽出する特徴点から同一の特徴点を判別する必要がある。しかし、撮影される画像において、自車両の側方に存在する車両の輝度分布などの画像情報は、その車両と自車両との相対位置の変化による投影面の違いや、周囲の構造物による影の変化などにより、一定ではない。そのため、同一の特徴点であることを画像のフレーム間で判別できず、オプティカルフローが算出できなくなり、その結果、側方の車両を検出できないことがある。   In this apparatus, it is necessary to determine the same feature point from feature points extracted for each frame of an image based on image information such as luminance distribution. However, in the captured image, image information such as the luminance distribution of a vehicle present on the side of the vehicle is based on a difference in a projection plane due to a change in the relative position between the vehicle and the vehicle, and shadows due to surrounding structures. Is not constant due to changes in Therefore, it is not possible to determine the same feature point between the frames of the image, and the optical flow cannot be calculated. As a result, the vehicle on the side may not be detected.

本発明による周囲物体検出装置は、車両の周囲を撮影する撮影手段と、車両の周囲の実空間上に実空間に固定された複数の仮想領域を設定し、その仮想領域を撮影手段により撮影した画像の情報に基づいて、車両の周囲の物体を検出する検出手段とを備えるものである。
また本発明による周囲物体検出装置は、車両に搭載されてその車両の周囲の物体を検出する周囲物体検出装置において適用され、車両の周囲を撮影する撮影手段と、車両の運動を検出する車両運動検出手段と、車両運動検出手段により検出された車両の運動に基づいて車両の移動量を計算する移動量算出手段と、車両の周囲の実空間上に実空間に固定された複数の仮想領域を設定し、移動量に応じて新たな仮想領域を設定する仮想領域設定手段と、移動量算出手段により計算された車両の移動量に基づいて車両と仮想領域との相対的な位置関係を計算する相対位置算出手段と、相対位置算出手段により計算された位置関係に基づいて、仮想領域を撮影手段により撮影された画像に投影したときの画像における位置と形状を演算する投影処理手段と、投影処理手段により演算された位置と形状に基づいて、画像上に仮想領域に対応する領域を設定する画像領域設定手段と、画像領域設定手段により設定された領域内の画像情報に基づいて、仮想領域の特徴を表す特徴量を算出する特徴量算出手段と、特徴量算出手段により算出された特徴量に基づいて、仮想領域に存在する車両の周囲物体を検出する周囲物体検出手段とを備えるものである。
A surrounding object detection device according to the present invention sets a photographing means for photographing the periphery of a vehicle, and a plurality of virtual areas fixed to the real space on a real space around the vehicle, and photographs the virtual area by the photographing means. Detecting means for detecting an object around the vehicle based on image information.
Further, the surrounding object detection device according to the present invention is applied to a surrounding object detection device mounted on a vehicle and detecting an object around the vehicle, and a photographing means for photographing the periphery of the vehicle and a vehicle movement detecting the movement of the vehicle. Detecting means, moving amount calculating means for calculating the moving amount of the vehicle based on the motion of the vehicle detected by the vehicle motion detecting means, and a plurality of virtual areas fixed to the real space on the real space around the vehicle. A virtual area setting means for setting and setting a new virtual area in accordance with the movement amount; and calculating a relative positional relationship between the vehicle and the virtual area based on the movement amount of the vehicle calculated by the movement amount calculation means. A relative position calculating means, and a projection processing means for calculating a position and a shape in the image when the virtual area is projected on the image photographed by the photographing means, based on the positional relationship calculated by the relative position calculating means. Based on the position and shape calculated by the projection processing means, an image area setting means for setting an area corresponding to the virtual area on the image, and based on image information in the area set by the image area setting means. A feature amount calculating unit that calculates a feature amount representing a feature of the virtual region; and a surrounding object detecting unit that detects a surrounding object of the vehicle existing in the virtual region based on the feature amount calculated by the feature amount calculating unit. It is provided.

本発明によれば、車両の周囲を撮影し、その周囲の実空間上に実空間に固定された複数の仮想領域を設定し、その仮想領域を撮影した画像の情報に基づいて、車両の周囲の物体を検出するようにした。これにより、実空間に固定された仮想領域による画像情報に基づいて車両の周囲物体を検出するようにしたので、自車両の周囲の物体において、投影面の違いや周囲の影などによってその画像情報が変化しても、その物体を検出することができる。
また本発明によれば、自車両の周囲の実空間に固定された仮想領域を設定し、自車両と仮想領域との相対的な位置関係を計算し、計算された位置関係に基づいて自車両の周囲を撮影した画像上に仮想領域に対応した領域を設定し、画像上の領域の画像情報に基づいて仮想領域の特徴量を算出し、この特徴量に基づいて自車両の周囲の物体を検出するようにした。これにより、実空間に固定された仮想領域による画像情報に基づいて自車両の周囲物体を検出するようにしたので、自車両の周囲の物体において、投影面の違いや周囲の影などによってその画像情報が変化しても、その物体を検出することができる。
According to the present invention, the surroundings of a vehicle are photographed, a plurality of virtual areas fixed to the real space are set on the real space around the vehicle, and the surroundings of the vehicle are set based on information of an image obtained by photographing the virtual area. Objects were detected. As a result, the surrounding objects of the vehicle are detected based on the image information based on the virtual area fixed in the real space. Is changed, the object can be detected.
Further, according to the present invention, a virtual area fixed in a real space around the host vehicle is set, a relative positional relationship between the host vehicle and the virtual area is calculated, and the host vehicle is calculated based on the calculated positional relationship. A region corresponding to the virtual region is set on the image obtained by photographing the periphery of the vehicle, a feature amount of the virtual region is calculated based on image information of the region on the image, and an object around the own vehicle is calculated based on the feature amount. Detected. As a result, the surrounding objects of the own vehicle are detected based on the image information based on the virtual area fixed in the real space. Even if the information changes, the object can be detected.

――第1の実施の形態――
図1に、本発明による周囲物体検出装置の第1の実施の形態を示す。この周囲物体検出装置1は、車両に搭載されて車両周囲の画像を撮影し、撮影された画像情報の時間的な変化により、周囲の車両などの物体を検出する。周囲物体検出装置1は、カメラ7、車両センサ8、メモリ9、CPU10、および警報装置11を有する。
--First Embodiment--
FIG. 1 shows a first embodiment of a surrounding object detection device according to the present invention. The surrounding object detection device 1 is mounted on a vehicle to photograph an image around the vehicle, and detects an object such as a surrounding vehicle based on a temporal change in the photographed image information. The surrounding object detection device 1 includes a camera 7, a vehicle sensor 8, a memory 9, a CPU 10, and an alarm device 11.

カメラ7は、車両周囲の画像を連続的に撮影するカメラである。図2に示すように、周囲物体検出装置1を搭載した車両100の後側方に、カメラ7の視軸は向けられている。これにより、隣接する車線の後側方を走行中の他車両など、運転者から確認しにくい位置にある移動物体についても、カメラ7によって撮影することができる。カメラ7には、たとえば可視光や赤外光に撮影感度を持つCCDカメラが用いられるが、その他の方式のものでもよい。カメラ7によって連続的に撮影された画像は、所定時間ごとに区切られた画像フレームに変換された後、メモリ9に記憶される。   The camera 7 is a camera that continuously captures images around the vehicle. As shown in FIG. 2, the visual axis of the camera 7 is directed to the rear side of the vehicle 100 on which the surrounding object detection device 1 is mounted. This allows the camera 7 to capture an image of a moving object at a position that is difficult for the driver to check, such as another vehicle traveling behind the adjacent lane. As the camera 7, for example, a CCD camera having a photographing sensitivity to visible light or infrared light is used, but another type may be used. Images continuously captured by the camera 7 are stored in the memory 9 after being converted into image frames divided at predetermined time intervals.

車両センサ8は、車両の左右それぞれの車輪の回転数を検出し、その回転数に応じた車輪速パルスをCPU10に対して出力する。この車輪速パルスは、車輪が1回転の所定数分の1だけ回転したときに出力される。たとえば、1/88回転するごとに車輪速パルスが1つ出力される。出力された車輪速パルスの数はCPU10においてカウントされ、メモリ9に記憶される。この左右の車輪速パルス数に基づいて、CPU10はデッドレコニングにより所定時間ごとの車両の移動量を計算する。このとき、左右の車輪速パルス数の差によって車軸の傾き量が計算され、それによって車両の進行方向の変化量が計算される。   The vehicle sensor 8 detects the rotation speed of each of the right and left wheels of the vehicle, and outputs a wheel speed pulse corresponding to the rotation speed to the CPU 10. This wheel speed pulse is output when the wheel rotates by a predetermined fraction of one rotation. For example, one wheel speed pulse is output every 1/88 rotation. The number of output wheel speed pulses is counted by the CPU 10 and stored in the memory 9. Based on the left and right wheel speed pulse numbers, the CPU 10 calculates the moving amount of the vehicle every predetermined time by dead reckoning. At this time, the amount of inclination of the axle is calculated based on the difference between the left and right wheel speed pulse numbers, and thereby the amount of change in the traveling direction of the vehicle is calculated.

メモリ9は、上述したとおり、カメラ7による画像情報、および車両センサ8により出力された車輪速パルスのカウント数の情報を記憶するとともに、CPU10により実行される処理結果として、車両の移動量や、後述する仮想領域マップを記憶する。これら各種の情報はアドレスごとに管理されており、対応するアドレスを指定することで、任意の種類の情報をメモリ9より読み出したり、メモリ9に書き込んだりできる。   As described above, the memory 9 stores the image information from the camera 7 and the information on the count value of the wheel speed pulse output from the vehicle sensor 8, and as a processing result executed by the CPU 10, the movement amount of the vehicle, A virtual area map described later is stored. These various types of information are managed for each address, and any type of information can be read from or written to the memory 9 by specifying the corresponding address.

CPU10は、メモリ9に記憶された情報に基づいて、各種の演算や処理を実行する。たとえば、車両センサ8より出力される車輪速パルスのカウント数に基づいて算出されたデッドレコニング情報による車両移動量と、カメラ7により撮影された画像情報とにより、車両の周囲に存在する移動物体を検出する。このとき、移動物体が衝突する危険性がある場合には警報装置11を作動させ、たとえば音声や警報音などによって運転者へ報知する。   The CPU 10 executes various calculations and processes based on the information stored in the memory 9. For example, a moving object existing around the vehicle is determined based on the amount of vehicle movement based on the dead reckoning information calculated based on the number of wheel speed pulses output from the vehicle sensor 8 and image information captured by the camera 7. To detect. At this time, if there is a danger of the moving object colliding, the alarm device 11 is operated, and the driver is notified by, for example, voice or alarm sound.

車両周囲の移動物体を検出する方法について、図3および4を参照して説明する。時刻t1において道路を通行中の図3(a)に示す車両100には、周囲物体検出装置1が搭載されている。周囲物体検出装置1のカメラ7において、図4(a)の符号41に示す画像が撮影されたとする。このとき、画像41中の車両100が走行している車線の隣の車線上に、符号21〜26に示す領域が設定される。   A method for detecting a moving object around the vehicle will be described with reference to FIGS. The surrounding object detection device 1 is mounted on the vehicle 100 shown in FIG. 3A that is traveling on the road at the time t1. It is assumed that an image indicated by reference numeral 41 in FIG. At this time, regions indicated by reference numerals 21 to 26 are set on the lane next to the lane in which the vehicle 100 is traveling in the image 41.

これらの領域21〜26は、実空間に固定された領域を画像41上に表示したものとして設定される。すなわち、実空間上に図3(a)に示す領域31〜36が存在すると仮想して、カメラ7で車両100の後側方を撮影したとき、これらの仮想領域31〜36にそれぞれ対応する画像41上の領域が、領域21〜26に相当する。   These regions 21 to 26 are set as regions displayed in the real space displayed on the image 41. That is, it is assumed that the regions 31 to 36 shown in FIG. 3A exist in the real space, and when the camera 7 photographs the rear side of the vehicle 100, the images corresponding to the virtual regions 31 to 36 respectively. The area on 41 corresponds to the areas 21 to 26.

次に、時刻t2において車両100が図3(b)の位置に移動し、このときに図4(b)の符号42に示す画像が撮影されたとする。図3(b)に示す実空間上の仮想領域31〜36は、図3(a)の場合よりも車両100から遠ざかるため、車両100と仮想領域31〜36との相対的な位置関係が変化する。したがって、実空間上の仮想領域31〜36に対応して画像42上に設定される領域21〜26の位置や形状は、画像41のときより変化する。   Next, it is assumed that the vehicle 100 moves to the position shown in FIG. 3B at time t2, and at this time, an image indicated by reference numeral 42 in FIG. Since the virtual areas 31 to 36 in the real space shown in FIG. 3B are farther from the vehicle 100 than in the case of FIG. 3A, the relative positional relationship between the vehicle 100 and the virtual areas 31 to 36 changes. I do. Therefore, the positions and shapes of the regions 21 to 26 set on the image 42 corresponding to the virtual regions 31 to 36 in the real space are different from those of the image 41.

画像42上の領域21〜26の位置や形状は、車両100と仮想領域31〜36との実空間上における相対的な位置関係により決定される。この相対的な位置関係は、車両センサ8によって検出された左右それぞれの車輪速パルスに基づいてデッドレコニングにより車両100の移動量が計算され、その移動量によって算出される(相対位置算出という)。算出された相対的な位置関係により、仮想領域31〜36を画像42に投影したときの位置と形状が演算され(投影処理という)、領域21〜26の位置や形状が決定される。なお、図3(b)において、仮想領域31は、破線30によって示されるカメラ7の視認距離より遠い位置に存在する。そのため、仮想領域31に対応する領域21は、図4(b)に示すように画像42において表示されない。   The positions and shapes of the regions 21 to 26 on the image 42 are determined by the relative positional relationship between the vehicle 100 and the virtual regions 31 to 36 in the real space. This relative positional relationship is calculated based on the left and right wheel speed pulses detected by the vehicle sensor 8 by calculating the amount of movement of the vehicle 100 by dead reckoning (referred to as relative position calculation). Based on the calculated relative positional relationship, the positions and shapes when the virtual regions 31 to 36 are projected onto the image 42 are calculated (referred to as projection processing), and the positions and shapes of the regions 21 to 26 are determined. In FIG. 3B, the virtual area 31 exists at a position farther than the visible distance of the camera 7 indicated by the broken line 30. Therefore, the area 21 corresponding to the virtual area 31 is not displayed in the image 42 as shown in FIG.

またこのとき、車両100が図3(a)の位置から(b)の位置に移動したことにより、車両100と仮想領域36との間に仮想領域1つ分以上の距離が空いたとする。この距離を埋める仮想領域として、車両100の付近の実空間上に、新たな仮想領域37が設定される。その結果、車両100と仮想領域37との相対的な位置関係に基づいて、画像42において、仮想領域37に対応する領域27が新たに設定される。   In addition, at this time, it is assumed that the vehicle 100 has moved from the position in FIG. 3A to the position in FIG. A new virtual area 37 is set in the real space near the vehicle 100 as a virtual area that fills this distance. As a result, the region 27 corresponding to the virtual region 37 is newly set in the image 42 based on the relative positional relationship between the vehicle 100 and the virtual region 37.

次に、車両100が時刻t3においてさらに図3(c)の位置に移動し、このときに図4(c)の符号43に示す画像が撮影されたとする。このとき、図3(a)の位置から(b)の位置に移動した場合と同様に、仮想領域33〜37、および新たに設定される仮想領域38に対して、前述の相対位置算出と投影処理が行われ、画像43における領域23〜28の位置と形状が決定される。なお、仮想領域32はカメラ7の視認距離30より遠い位置に存在するため、画像43において領域22は表示されなくなる。   Next, it is assumed that the vehicle 100 further moves to the position shown in FIG. 3C at time t3, and at this time, an image indicated by reference numeral 43 in FIG. At this time, the above-described relative position calculation and projection are performed on the virtual regions 33 to 37 and the newly set virtual region 38 in the same manner as when the position is moved from the position of FIG. 3A to the position of FIG. Processing is performed, and the positions and shapes of the regions 23 to 28 in the image 43 are determined. Since the virtual area 32 exists at a position farther than the viewing distance 30 of the camera 7, the area 22 is not displayed in the image 43.

以上説明したようにして、撮影画像上に領域23〜28が設定される。これを1つの領域に注目してみると、図3(a)〜(c)の位置に車両100が順次移動していくにしたがって、図4(a)〜(c)の注目領域24(網掛け部)のように、画像上の位置と形状が変化していく。次に、このように画像上に設定された領域23〜28により車両100の周囲の物体を検出する方法を説明する。   As described above, the areas 23 to 28 are set on the captured image. Focusing this on one region, as the vehicle 100 sequentially moves to the positions shown in FIGS. 3A to 3C, the region of interest 24 (network) shown in FIGS. The position and the shape on the image change as in the case of the hanging portion). Next, a method for detecting an object around the vehicle 100 based on the regions 23 to 28 set on the image as described above will be described.

図5に示す実空間上の仮想領域31〜38は、図3の仮想領域31〜38と同じものである。図5(a)〜(c)は、時刻t1〜t3における車両100と、車両100の後側方に存在する検出対象とする他車両101との位置関係とを示す。時刻t2において、図5(b)に示すように、検知対象車両101が仮想領域34に進入しているとする。   The virtual areas 31 to 38 in the real space shown in FIG. 5 are the same as the virtual areas 31 to 38 in FIG. 5A to 5C show the positional relationship between the vehicle 100 at time t1 to t3 and the other vehicle 101 to be detected, which is located on the rear side of the vehicle 100. At time t2, it is assumed that the detection target vehicle 101 has entered the virtual area 34 as shown in FIG.

仮想領域34に対応する画像上の領域、すなわち図4に示す領域24の、時刻t1〜t3における特徴量の時間変化の様子を図6に示す。この特徴量は、領域24における画像の平均輝度値が、所定の時間内に変化した量である。領域24に路面のみ写っている場合には、平均輝度値はあまり変化せず、特徴量は小さい。しかし、領域24に車両などの立体物も合わせて写っている場合には、車両100の移動に伴ってカメラ7の視点が変化すると、立体物が写される面(方向)が変化し、画像における輝度情報が変化する。そのため平均輝度値の変化、すなわち特徴量が大きくなる。図6においては、車両101が仮想領域34に進入した時刻t2に、特徴量がしきい値を越えている。このように特徴量がしきい値を越えたときに、車両101が検出される。   FIG. 6 shows a temporal change in the feature amount of the region on the image corresponding to the virtual region 34, that is, the region 24 shown in FIG. 4 at times t1 to t3. This feature amount is the amount by which the average luminance value of the image in the area 24 has changed within a predetermined time. When only the road surface is captured in the region 24, the average luminance value does not change much and the feature amount is small. However, when a three-dimensional object such as a vehicle is also captured in the area 24, when the viewpoint of the camera 7 changes with the movement of the vehicle 100, the surface (direction) on which the three-dimensional object is captured changes, and Changes in the luminance information. Therefore, the change in the average luminance value, that is, the feature amount increases. In FIG. 6, at time t2 when the vehicle 101 enters the virtual area 34, the feature amount exceeds the threshold value. When the feature amount exceeds the threshold value, the vehicle 101 is detected.

周囲物体検出装置1は、以上説明したようにして、車両100の周囲の画像を撮影して、実空間上の仮想領域と、その仮想領域に対応する画像上の領域とを設定し、この画像上の領域の特徴量によって、周囲の車両などの物体を検出する。さらに周囲物体検出装置1は、後述するようにして車両100と検出した物体との進路の予想を行うことにより、衝突の危険性を判断する。   As described above, the surrounding object detection device 1 captures an image around the vehicle 100, sets a virtual region in the real space, and a region on the image corresponding to the virtual region. An object such as a surrounding vehicle is detected based on the feature amount of the upper region. Further, the surrounding object detection device 1 determines the risk of collision by predicting the course of the vehicle 100 and the detected object as described later.

周囲物体検出装置1により周囲物体を検出するときの処理の流れを示すフローチャートを図7および8に示す。このフローチャートはCPU10で実行されるプログラムに基づくものであり、周囲物体検出装置1の動作時には常に実行されている。図7および8の各フローでの処理内容を、図3および4の例を用いて以下に説明する。なお以下の説明では、図3および4における時刻t1を時刻0、時刻t2を時刻t、時刻t3を時刻t+Δtにそれぞれ置き換えるものとする。   FIGS. 7 and 8 are flowcharts showing a flow of processing when the surrounding object detection device 1 detects a surrounding object. This flowchart is based on a program executed by the CPU 10 and is always executed when the surrounding object detection device 1 operates. The processing contents in each flow of FIGS. 7 and 8 will be described below using the examples of FIGS. In the following description, it is assumed that time t1 in FIGS. 3 and 4 is replaced with time 0, time t2 is replaced with time t, and time t3 is replaced with time t + Δt.

図7のステップS1では、はじめにカメラ7により撮影され、メモリ9に記憶された車両100の周囲の画像信号、すなわち図3(a)に示す車両100の位置において撮影した画像41を読み込む。この画像を初期画像とする。   In step S1 in FIG. 7, first, an image signal around the vehicle 100 captured by the camera 7 and stored in the memory 9, that is, an image 41 captured at the position of the vehicle 100 illustrated in FIG. This image is used as an initial image.

ステップS2では、ステップS1で読み込んだ初期画像41に対応する実空間上に初期の仮想領域31〜36を設定するとともに、この仮想領域31〜36に対応する初期の画像上の領域21〜26を設定する。仮想領域31〜36は、たとえば自動車専用道路においては、その実空間上の大きさを3m四方とし、車両100の後側方の走行車線上に、走行車線の中心に沿って4m間隔で配置する。また一般道路においては、二輪車や歩行者のように車両より小さい物体も検知できるように、仮想領域31〜36の実空間上の大きさと配置間隔は、自動車専用道路の場合に比べて小さく設定される。なお、以上述べた仮想領域の大きさや配置は一例であり、その他の大きさや配置としてもよい。   In step S2, initial virtual areas 31 to 36 are set on the real space corresponding to the initial image 41 read in step S1, and areas 21 to 26 on the initial image corresponding to the virtual areas 31 to 36 are set. Set. The virtual areas 31 to 36 are, for example, 3 m square in the real space on a motorway, and are arranged on the traveling lane on the rear side of the vehicle 100 at intervals of 4 m along the center of the traveling lane. In addition, on general roads, the sizes and arrangement intervals of the virtual areas 31 to 36 in the real space are set to be smaller than those in the case of a dedicated automobile road so that an object smaller than a vehicle such as a motorcycle or a pedestrian can be detected. You. Note that the size and arrangement of the virtual area described above are merely examples, and other sizes and arrangements may be used.

さらにステップS2では、設定した仮想領域31〜36に対して、それぞれを区別するためのID番号を各仮想領域ごとに割り振るとともに、車両100と各仮想領域ごとの相対位置を算出する。また、画像上の領域21〜26に対して、各領域ごとの初期平均輝度値を算出する。平均輝度値は、領域のID番号をn、時刻をtとするとG(n,t)で表され、ステップS2で算出される初期平均輝度値は、G(n,0)で表される。   Further, in step S2, an ID number for distinguishing each of the set virtual areas 31 to 36 is assigned to each virtual area, and the relative position between the vehicle 100 and each virtual area is calculated. Further, an initial average luminance value is calculated for each of the regions 21 to 26 on the image. The average luminance value is represented by G (n, t), where n is the ID number of the area and t is the time, and the initial average luminance value calculated in step S2 is represented by G (n, 0).

ステップS3では、ステップS2で設定した初期仮想領域31〜36について、初期の仮想領域マップMを作成する。初期仮想領域マップMを含めた仮想領域マップのデータ構造は図9に示すようになっている。符号90に示す1つの仮想領域マップには、たとえば時刻0のときの各仮想領域の情報がID番号ごとに記録されている。たとえば符号93に示すID番号nの部分には、その仮想領域と車両100との相対位置、その仮想領域に対応する画像上の領域の平均輝度値および特徴量とともに、後に説明する状態値および車両ラベルの情報が記録されており、他のID番号の部分についても同様である。たとえば時刻tおよびt+Δtに対応する符号91および92に示す仮想領域マップについても、同様の情報が記録されている。仮想領域マップはこのステップS3においてはじめに初期仮想領域マップMが作成され、その後は以降に説明するステップS4からステップS23までの処理を1つの処理サイクルとして繰り返すときに、後述するステップS6において処理サイクルごとに作成される。 In step S3, the initial virtual area 31 to 36 set in step S2, to create an initial virtual area map M 0. Data structure of the virtual area map including the initial virtual area map M 0 is as shown in FIG. In one virtual area map indicated by reference numeral 90, for example, information on each virtual area at time 0 is recorded for each ID number. For example, in the portion of ID number n shown by reference numeral 93, the relative position between the virtual region and the vehicle 100, the average luminance value and the feature amount of the region on the image corresponding to the virtual region, the state value and the vehicle Label information is recorded, and the same applies to other ID number portions. For example, similar information is recorded in virtual area maps indicated by reference numerals 91 and 92 corresponding to times t and t + Δt. Virtual area map initial virtual space map M 0 is created at the beginning in step S3, when subsequently repeats the process from step S4 to be described later to step S23 as one processing cycle, the processing cycle in step S6 to be described later It is created for each.

なお、このステップS3で作成する初期仮想領域マップMにおいては、ステップS2で算出した相対位置(初期相対位置)と平均輝度値(初期平均輝度値)のみが記録される。その他の特徴量、状態値および車両ラベルの各情報は、この時点ではまだ求められていないため、初期仮想領域マップMには記録されない。作成された初期仮想領域マップMは、メモリ9に記憶される。 In the initial virtual area map M 0 created in step S3, the average luminance value and the relative position calculated in step S2 (initial relative position) only (initial average luminance value) is recorded. Other feature quantities, each state information values and the vehicle labels, because this is the time not yet been determined, not recorded in the initial virtual area map M 0. Initial virtual area map M 0 created is stored in the memory 9.

ステップS4では、時間Δtだけ処理を待機する。この時間Δtは、ステップS4からステップS27までの1つの処理サイクルを繰り返すときに、ステップS4以外の各ステップにおける処理時間と、1回の処理サイクルの時間とに基づいて、あらかじめ設定される。なお以降の説明では分かりやすくするため、ステップS4以外の各ステップにおける処理時間を0とし、1回の処理サイクルの時間は時間Δtに等しいものとする。   In step S4, the process waits for a time Δt. This time Δt is preset based on the processing time in each step other than step S4 and the time of one processing cycle when one processing cycle from step S4 to step S27 is repeated. In the following description, for simplicity, the processing time in each step other than step S4 is set to 0, and the time of one processing cycle is equal to the time Δt.

ステップS5では、カメラ7により撮影され、メモリ9に記憶された車両100の後側方の画像信号を読み込む。この画像は、前回の処理サイクルにおけるステップS5またはステップS1で読み込んだ画像から、時間Δt経過後に撮影されたものである。ここでは画像42を読み込むこととし、また画像42を撮影した時刻をtとして説明する。   In step S5, an image signal of the rear side of the vehicle 100, which is captured by the camera 7 and stored in the memory 9, is read. This image was taken after a lapse of time Δt from the image read in step S5 or step S1 in the previous processing cycle. Here, it is assumed that the image 42 is read, and the time at which the image 42 was captured is described as t.

ステップS6では、ステップS2で設定した初期仮想領域31〜36について、時刻tにおける仮想領域マップMを作成する。なお、このステップS6を2度目以降に実行する場合は、1回前の処理サイクルにおいて設定されていた仮想領域について、仮想領域マップを作成する。この時点では、作成された仮想領域マップMには仮想領域31〜36に対応するID番号のみが設定され、ステップS3において説明したID番号ごとの各情報はまだ記録されない。作成された仮想領域マップMは、メモリ9に記憶される。 In step S6, a virtual area map Mt at time t is created for the initial virtual areas 31 to 36 set in step S2. When this step S6 is performed for the second time or later, a virtual area map is created for the virtual area set in the previous processing cycle. At this point, the virtual area map M t created only set ID number corresponding to the virtual area 31 to 36 are each information for each ID number described in Step S3 is not yet recorded. The created virtual area map Mt is stored in the memory 9.

ステップS7では、時刻tにおける車両100の移動量Vtを求める。移動量Vtは、処理サイクル1回分、すなわち時間Δtの間に車両100が実空間を移動した量であり、これは前述したように、車両センサ8より出力された車両100の車輪速パルスに基づいて、デッドレコニングにより求められる。さらに、求めた移動量Vtがしきい値Vsより大きいか否かを判定し、大きい場合はステップS8へ進み、大きくない場合はステップS10へ進む。ここで、しきい値Vsは1つ以上の仮想領域を新たに実空間上に設定できるだけの移動量であり、これはステップS2で設定した仮想領域の大きさにより決まる。なお、移動量Vtとしきい値Vsとの比較は、同じ方向へ移動したときの移動量によって行う。   In step S7, the movement amount Vt of the vehicle 100 at the time t is obtained. The movement amount Vt is an amount of movement of the vehicle 100 in the real space during one processing cycle, that is, the time Δt, and is based on the wheel speed pulse of the vehicle 100 output from the vehicle sensor 8 as described above. Required by dead reckoning. Further, it is determined whether or not the obtained moving amount Vt is larger than the threshold value Vs. If it is larger, the process proceeds to step S8, and if not, the process proceeds to step S10. Here, the threshold value Vs is an amount of movement that can set one or more virtual areas on the real space anew, and is determined by the size of the virtual areas set in step S2. Note that the comparison between the movement amount Vt and the threshold value Vs is performed based on the movement amount when moving in the same direction.

ステップS8では、ステップS7で求めた移動量Vtに応じて、新たな実空間上の仮想領域37を設定する。さらに、この仮想領域37についても、ステップS2で設定した仮想領域31〜36と同様に、ID番号を割り振るとともに、車両100との相対位置を算出する。また、画像42上に仮想領域37に対応する領域27を設定し、その平均輝度値を算出する。なお、ステップS8で設定する新たな仮想領域の数は、移動量Vtの中にいくつの仮想領域を配置できるかによって決定される。すなわち、たとえばVs<Vt≦2Vsの場合には新たな仮想領域を1つ設定し、2Vs<Vt≦3Vsの場合には新たな仮想領域を2つ設定する。   In step S8, a new virtual area 37 in the real space is set according to the movement amount Vt obtained in step S7. Further, for the virtual area 37, similarly to the virtual areas 31 to 36 set in step S2, an ID number is assigned and a relative position with respect to the vehicle 100 is calculated. Further, an area 27 corresponding to the virtual area 37 is set on the image 42, and the average luminance value is calculated. Note that the number of new virtual areas set in step S8 is determined by how many virtual areas can be arranged in the movement amount Vt. That is, for example, when Vs <Vt ≦ 2Vs, one new virtual area is set, and when 2Vs <Vt ≦ 3Vs, two new virtual areas are set.

ステップS9では、ステップS6で作成した仮想領域マップMに、ステップS8で設定した仮想領域37のID番号と、同じくステップS8で算出した車両100と仮想領域37との相対位置、および領域27の平均輝度値の情報を加え、仮想領域マップMを更新する。 In step S9, the virtual area map M t generated in step S6, the ID number of the virtual regions 37 set in step S8, similarly the relative position between the vehicle 100 and the virtual region 37 calculated in step S8, and the region 27 of the The information of the average luminance value is added, and the virtual area map Mt is updated.

ステップS10では、仮想領域マップMにID番号が記録されている仮想領域31〜37について、ステップS7で求めた移動量Vtに基づいて、車両100との相対位置をそれぞれ算出する。この仮想領域マップMは、ステップS6で作成され、ステップS9で更新されたものである。算出された相対位置は仮想領域マップMに記録され、仮想領域マップMが更新される。 In step S10, the virtual area 31 to 37 ID number in the virtual space map M t is recorded, based on the amount of movement Vt calculated in step S7, calculates respectively the relative position of the vehicle 100. The virtual area map M t is created at step S6, those updated in step S9. The calculated relative position is recorded in the virtual space map M t, the virtual space map M t is updated.

ステップS11では、仮想領域マップMに記録されているID番号を選択することにより、仮想領域31〜37のうちいずれか1つを選択する。ここで、同一の処理サイクルにおいてステップS11から以降に説明するステップS17までの処理を繰り返す間、1度このステップS11で選択された仮想領域は、それ以降のステップS11では選択されない。 In step S11, by selecting the ID number recorded in the virtual space map M t, which selects one of the virtual area 31 to 37. Here, while the processing from step S11 to step S17 described below is repeated in the same processing cycle, the virtual region selected once in step S11 is not selected in subsequent step S11.

ステップS12では、ステップS11で選択した仮想領域がカメラ7の観測範囲にあるか否かを判定する。この判定は、仮想領域マップMに記録された車両100との相対位置により行われ、相対位置が一定値以上となったときに、観測範囲にないと判定する。観測範囲にある場合、すなわち仮想領域32〜37のいずれかをステップS11で選択した場合は、ステップS13に進む。観測範囲にない場合、すなわち仮想領域31をステップS11で選択した場合は、ステップS17に進む。このとき、観測範囲にない仮想領域31の情報は仮想領域マップMより削除され、次回以降の処理サイクルにおいて作成される仮想領域マップには、その情報は記録されない。 In step S12, it is determined whether the virtual area selected in step S11 is within the observation range of the camera 7. This determination is performed by the relative position of the vehicle 100 which is recorded in the virtual area map M t, it is determined as the relative position when it becomes a certain value or more, not in the observation area. If it is in the observation range, that is, if any of the virtual regions 32 to 37 is selected in step S11, the process proceeds to step S13. If it is not in the observation range, that is, if the virtual region 31 is selected in step S11, the process proceeds to step S17. At this time, information of the virtual area 31 is not in the observation range are removed from the virtual area map M t, the virtual area map created in subsequent processing cycle the next time, the information is not recorded.

ステップS13では、ステップS12でカメラ7の観測範囲にあると判定した仮想領域に対応する領域22〜27のいずれかを、ステップS5で取り込んだ画像42上に設定する。このときの領域22〜27の位置および形状は、対応する仮想領域32〜37のいずれかに対して、ステップS10で仮想領域マップMに記録された相対位置に基づいて投影処理を行うことにより、求められる。 In step S13, one of the regions 22 to 27 corresponding to the virtual region determined to be in the observation range of the camera 7 in step S12 is set on the image 42 captured in step S5. Position and shape of the region 22 to 27 in this case, with respect to any of the corresponding virtual area 32-37, by performing projection processing on the basis of the relative position recorded in the virtual space map M t in step S10 ,Desired.

ステップS14では、ステップS13で設定した画像42上の領域22〜27のいずれかについて、平均輝度値を算出する。算出された平均輝度値は仮想領域マップMに記録され、仮想領域マップMが更新される。 In step S14, an average luminance value is calculated for any of the regions 22 to 27 on the image 42 set in step S13. Calculated average luminance value is recorded in the virtual space map M t, the virtual space map M t is updated.

ステップS15では、ステップS13で設定した画像42上の領域22〜27のいずれかについて、特徴量を算出する。この特徴量は、ステップS14で算出された平均輝度値と、1回前の処理サイクルのステップS14で算出された平均輝度値との差分の絶対値として定義され、次の式(1)によって表される。式(1)において、G(n,t)は領域のID番号n、時刻tにおける平均輝度値を表し、G(n,t−Δt)はそれより1回前の処理サイクルにおける平均輝度値を表している。なお1回目の処理サイクルにおいては、G(n,t−Δt)に代えて、ステップS2で算出された初期平均輝度値G(n,0)が用いられる。このとき、今回の処理サイクルのステップS8において新たに設定された領域、すなわち領域27については、特徴量は0とする。算出された特徴量は仮想領域マップMに記録され、仮想領域マップMが更新される。
D(n,t)=|G(n,t)−G(n,t−Δt)| (1)
In step S15, a feature amount is calculated for any of the regions 22 to 27 on the image 42 set in step S13. This feature amount is defined as an absolute value of a difference between the average luminance value calculated in step S14 and the average luminance value calculated in step S14 of the immediately preceding processing cycle, and is expressed by the following equation (1). Is done. In the equation (1), G (n, t) represents the average luminance value at the time t and the ID number n of the area, and G (n, t−Δt) represents the average luminance value in the processing cycle one time earlier than that. Represents. In the first processing cycle, the initial average luminance value G (n, 0) calculated in step S2 is used instead of G (n, t-Δt). At this time, the feature amount is set to 0 for the area newly set in step S8 of the current processing cycle, that is, the area 27. Calculated feature quantity is recorded in the virtual space map M t, the virtual space map M t is updated.
D (n, t) = | G (n, t) −G (n, t−Δt) | (1)

ステップS16では、ステップS15で算出した特徴量に基づき、ステップS12でカメラ7の観測範囲にあると判定した仮想領域32〜37のいずれかについて、状態値を算出する。この状態値は、特徴量がしきい値より大きいか否かによって値が決定されるものであり、特徴量がしきい値より大きい場合は1、しきい値以下である場合は0となる。このように仮想領域の状態値が1になることにより、車両100の周囲物体が検出される。算出された状態値は仮想領域マップMに記録され、仮想領域マップMが更新される。 In step S16, based on the feature amount calculated in step S15, a state value is calculated for one of the virtual regions 32 to 37 determined to be in the observation range of the camera 7 in step S12. The state value is determined depending on whether or not the feature value is larger than the threshold value, and is 1 when the feature value is larger than the threshold value and is 0 when the feature value is equal to or smaller than the threshold value. As described above, when the state value of the virtual area becomes 1, an object around the vehicle 100 is detected. Calculated state value is recorded in the virtual space map M t, the virtual space map M t is updated.

ステップS17では、仮想領域マップMにID番号が記録されている仮想領域31〜37のすべてを、ステップS11で選択したか否かを判定する。すべてを選択した場合は図8のステップS18へ進み、まだ選択していない仮想領域がある場合はステップS11へ戻る。 In step S17, determines all the virtual area 31 to 37 ID number in the virtual space map M t is recorded, whether it has selected at step S11. When all are selected, the process proceeds to step S18 in FIG. 8, and when there is a virtual region that has not been selected, the process returns to step S11.

図8のステップS18では、ステップS16で仮想領域マップMに記録された仮想領域32〜37の状態値を判別し、状態値が1である仮想領域があるか否かを判定する。状態値が1である仮想領域が少なくとも1つ以上ある場合、ステップS19へ進む。仮想領域32〜37の状態値がすべて0である場合、図7のステップS4へ戻る。このとき、ステップS19以降の処理は行わない。 In step S18 in FIG. 8, the state value of the virtual area 32 to 37 recorded in the virtual area map M t determined in step S16, it is determined whether the status value is virtual area is 1. When there is at least one or more virtual areas whose state value is 1, the process proceeds to step S19. If the state values of the virtual areas 32 to 37 are all 0, the process returns to step S4 in FIG. At this time, the processing after step S19 is not performed.

ステップS19では、状態値が1である仮想領域について、実空間上で隣接する仮想領域同士を一つの仮想領域群とするクラスタリング処理を行う。たとえば、仮想領域32〜37のうち、仮想領域32と33、および仮想領域36と37の状態値が1であった場合、仮想領域32と33を一つの仮想領域群A、仮想領域36と37を仮想領域群Aとは異なる一つの仮想領域群Bとする。なお、隣接する状態値が1の仮想領域がない仮想領域については、このクラスタリング処理を行わない。 In step S19, for the virtual region having the state value of 1, a clustering process is performed in which adjacent virtual regions in the real space are set as one virtual region group. For example, when the status values of the virtual areas 32 and 33 and the virtual areas 36 and 37 among the virtual areas 32 to 37 are 1, the virtual areas 32 and 33 are combined into one virtual area group AG and the virtual area 36. 37 and a different one of the virtual region group B G and the virtual region group a G. Note that this clustering process is not performed for a virtual area having no adjacent virtual area having a state value of 1.

ステップS20では、状態値が1である仮想領域32と33、および仮想領域36と37について、車両ラベルを付加する。この車両ラベルは、1回前の処理サイクル、すなわち時刻t−Δtにおける仮想領域マップMt−Δtにおいてその仮想領域の状態値が1であった場合は、仮想領域マップMt−Δtに記録された1回前の処理サイクルのものと同じ車両ラベルとする。さらにこのとき、同一の仮想領域群で前方(車両100により近い方)に隣接する仮想領域についても、同じ車両ラベルを付加する。一方、仮想領域マップMt−Δtにおいてその仮想領域の状態値が0であった場合には、新規の車両ラベルを付加する。たとえば、1回前の処理サイクルにおいて仮想領域32の状態値が1であり、その車両ラベルがAであった場合、仮想領域32、および同一の仮想領域群Aで前方に隣接する仮想領域33に、車両ラベルAを付加する。一方、仮想領域36および37には新規の車両ラベルBを付加する。 In step S20, vehicle labels are added to the virtual areas 32 and 33 and the virtual areas 36 and 37 whose state values are 1. The vehicle labels, the processing cycle of one time before, that is, when the state value of the virtual area is 1 in the virtual space map M t-Delta] t at time t-Delta] t, are recorded in the virtual space map M t-Delta] t The vehicle label is the same as that of the previous processing cycle. Further, at this time, the same vehicle label is added to a virtual region adjacent to the front (closer to the vehicle 100) in the same virtual region group. On the other hand, when the state value of the virtual area is 0 in the virtual area map Mt-Δt , a new vehicle label is added. For example, the state value of the virtual area 32 in one previous processing cycle is 1, the vehicle label was A L, the virtual area adjacent forward in the virtual area 32, and the same virtual area group A G 33, a vehicle label AL is added. On the other hand, a new vehicle label BL is added to the virtual areas 36 and 37.

なお以上説明したステップS20の処理においては、仮想領域を設定する実空間は車両100と同一方向の走行車線を想定しており、その仮想領域により検出される車両の進行方向は車両100と同一方向である。また、1回の処理サイクルの時間Δtは側方レーンを走行中の車両の移動速度に比べて充分短い時間を想定しており、時間Δtの間にその車両が移動する距離は仮想領域1つ分以下である。たとえば、その車両の移動速度を時速120kmとし、時間Δtを一般的なカメラのフレームレート時間33msとすると、その間にその車両が移動する距離は1.1mとなるが、このとき設定される仮想領域はこの距離1.1mよりも大きい。したがって前述のように、同一の仮想領域群で前方に隣接する仮想領域について同じ車両ラベルを付加することで、同一の車両に対して前回の処理サイクルにおいて付加されたものと同じ車両ラベルを付加することができる。なお、仮想領域を設定する実空間を車両100の対向車線とする場合には、後方に隣接する仮想領域について同じ車両ラベルを付加するようにする。これにより、同一の車両に対して前回の処理サイクルにおいて付加されたものと同じ車両ラベルを付加することができる。   In the processing in step S20 described above, the real space in which the virtual area is set assumes a traveling lane in the same direction as vehicle 100, and the traveling direction of the vehicle detected by the virtual area is in the same direction as vehicle 100. It is. In addition, the time Δt of one processing cycle is assumed to be a sufficiently short time compared to the moving speed of the vehicle traveling in the side lane, and the distance that the vehicle moves during the time Δt is one virtual area. Minutes or less. For example, assuming that the moving speed of the vehicle is 120 km / h and the time Δt is a frame rate time of a general camera of 33 ms, the moving distance of the vehicle during that time is 1.1 m. Is greater than this distance 1.1 m. Therefore, as described above, the same vehicle label is added to the same vehicle in the same virtual region group as to the virtual region adjacent to the front in the previous processing cycle by adding the same vehicle label to the same vehicle. be able to. When the real space in which the virtual area is set is the opposite lane of the vehicle 100, the same vehicle label is added to the virtual area adjacent to the rear. As a result, the same vehicle label as that added in the previous processing cycle can be added to the same vehicle.

なお1回目の処理サイクルのステップS20においては、すべての仮想領域に新規の車両ラベルを付加する。また、異なる仮想領域群の仮想領域に対して同一の車両ラベルが付加された場合には、後方(車両100により遠い方)の仮想領域群の仮想領域に対しては、新規の車両ラベルを付加する。このように、状態値が1である仮想領域にそれぞれ車両ラベルを付加することで、検出された車両100の周囲物体を車両単位で判別することができる。付加された車両ラベルは仮想領域マップMに記録され、仮想領域マップMが更新される。 In step S20 of the first processing cycle, a new vehicle label is added to all virtual areas. In addition, when the same vehicle label is added to the virtual areas of the different virtual area groups, a new vehicle label is added to the virtual area of the rear (farther to the vehicle 100) virtual area group. I do. As described above, by adding the vehicle labels to the virtual areas having the state value of 1, the detected surrounding objects of the vehicle 100 can be determined for each vehicle. The added vehicle label is recorded in the virtual area map M t, the virtual space map M t is updated.

ステップS21では、検出された周囲物体について、次の処理サイクルを実行する時刻t+Δtにおける車両100との相対位置を予測する。このとき、仮想領域群のうち一番前方の仮想領域の相対位置を、そのとき検出された周囲物体の相対位置とする。時刻tと時刻t−Δtにおいて、車両ラベルが同一である仮想領域群に対してこの周囲物体の相対位置の差を求めることにより、時間Δtの間に車両100に対して周囲物体が移動する移動量を求める。すなわち、時刻tにおける仮想領域33の相対位置と、時刻t−Δtにおける仮想領域32の相対位置との差により、この周囲物体の移動量が求められる。さらに、求められた周囲物体の移動量を時刻tにおける車両100との相対位置に加えることにより、時刻t+Δtにおける車両100との相対位置を予測する。   In step S21, the relative position of the detected surrounding object with respect to the vehicle 100 at time t + Δt at which the next processing cycle is executed is predicted. At this time, the relative position of the forefront virtual area in the virtual area group is set as the relative position of the surrounding object detected at that time. By calculating the difference between the relative positions of the surrounding objects with respect to the virtual area group having the same vehicle label at time t and time t-Δt, the movement in which the surrounding objects move with respect to the vehicle 100 during the time Δt Find the quantity. That is, the amount of movement of the surrounding object is obtained from the difference between the relative position of the virtual region 33 at time t and the relative position of the virtual region 32 at time t-Δt. Further, the relative position with respect to the vehicle 100 at the time t + Δt is predicted by adding the obtained movement amount of the surrounding object to the relative position with respect to the vehicle 100 at the time t.

ステップS22では、ステップS21で予測した周囲物体の相対位置が、衝突予想範囲内にあるか否かを判定する。相対位置が車両100から所定距離以下である場合は、衝突予想範囲内にあると判定して、ステップS23へ進む。そうでない場合は、衝突予想範囲内にはないと判定して、図7のステップS4へ戻る。   In step S22, it is determined whether or not the relative positions of the surrounding objects predicted in step S21 are within the expected collision range. If the relative position is less than or equal to the predetermined distance from the vehicle 100, it is determined that the vehicle is within the expected collision range, and the process proceeds to step S23. Otherwise, it is determined that it is not within the expected collision range, and the process returns to step S4 in FIG.

ステップS23では、警報装置11を作動させ、運転者へ衝突の危険性があることを知らせる。ステップS23を実行した後は、図7のステップS4へ戻る。   In step S23, the alarm device 11 is operated to notify the driver that there is a risk of collision. After executing step S23, the process returns to step S4 in FIG.

上述した第1の実施の形態による周囲物体検出装置によれば、カメラ7により車両100の周囲を撮影し、その周囲の実空間上に実空間に固定された複数の仮想領域31〜38を設定し、その仮想領域31〜38を撮影した画像の情報に基づいて車両100の周囲の物体を検出するようにしたので、車両100の周囲の物体において、投影面の違いや周囲の影などによってその画像情報が変化しても、その物体を検出することができる。
またこの周囲物体検出装置によれば、次のようにして自車両周囲の物体を検出する。車両100の周囲の実空間に固定された仮想領域31〜38を設定する。車両100とこの仮想領域31〜38との相対的な位置関係を計算し、計算された位置関係に基づいて車両100の周囲を撮影した画像上に仮想領域31〜38に対応した領域21〜28を設定する。この画像上の領域21〜28の画像情報に基づいて仮想領域31〜38の特徴量を算出し、算出された特徴量に基づいて車両100の周囲の物体を検出する。これにより、実空間に固定された仮想領域による画像情報に基づいて自車両の周囲物体が検出されるので、自車両の周囲の物体において、投影面の違いや周囲の影などによってその画像情報が変化しても、その物体を検出することができる。
According to the surrounding object detection device according to the above-described first embodiment, the periphery of the vehicle 100 is photographed by the camera 7 and a plurality of virtual areas 31 to 38 fixed to the real space are set on the surrounding real space. Then, since objects around the vehicle 100 are detected based on information of images obtained by photographing the virtual regions 31 to 38, the objects around the vehicle 100 may be detected due to a difference in a projection plane or a surrounding shadow. Even if the image information changes, the object can be detected.
Further, according to the surrounding object detection device, an object around the host vehicle is detected as follows. The virtual areas 31 to 38 fixed in the real space around the vehicle 100 are set. The relative positional relationship between the vehicle 100 and the virtual regions 31 to 38 is calculated, and the regions 21 to 28 corresponding to the virtual regions 31 to 38 are displayed on an image obtained by photographing the periphery of the vehicle 100 based on the calculated positional relationship. Set. The feature amounts of the virtual regions 31 to 38 are calculated based on the image information of the regions 21 to 28 on the image, and objects around the vehicle 100 are detected based on the calculated feature amounts. As a result, the surrounding objects of the own vehicle are detected based on the image information based on the virtual area fixed in the real space. Even if it changes, the object can be detected.

――第2の実施の形態――
本発明による周囲物体検出装置の第2の実施の形態について説明する。第2の実施の形態では、仮想領域の特徴量の算出方法を、第1の実施の形態とは異なる方法によって行う。第1の実施の形態では、実空間上の仮想領域に対応する画像上の領域を求め、この画像上の平均輝度値の変化によって特徴量を算出する方法を説明した。第2の実施の形態では、第1の実施の形態において用いる平均輝度値に代えて、輝度値のヒストグラムの変化を特徴量の算出に用いる。なお、第2の実施の形態における構成は、図1に示す第1の実施の形態と同じであるため、ここでは図示を省略する。
――Second embodiment――
A second embodiment of the surrounding object detection device according to the present invention will be described. In the second embodiment, the method of calculating the feature amount of the virtual area is performed by a method different from that of the first embodiment. In the first embodiment, a method has been described in which a region on an image corresponding to a virtual region in a real space is obtained, and a feature amount is calculated based on a change in an average luminance value on the image. In the second embodiment, a change in a histogram of luminance values is used for calculating a feature amount, instead of the average luminance value used in the first embodiment. The configuration of the second embodiment is the same as that of the first embodiment shown in FIG.

第2の実施の形態における処理の流れを示すフローチャートの一部を図10に示す。このフローチャートは、第1の実施の形態と同様に、CPU10で実行されるプログラムに基づくものであり、周囲物体検出装置1の動作時には常に実行されている。図10において、図7と同一のステップ番号にて示される処理ステップでは第1の実施の形態と同一の処理を行うため、ここでは説明を省略する。なお、図10のステップS17を実行した後は図8のステップS18〜S23と同一の処理を実行するため、ステップS18以降のフローチャートについては図示を省略する。   FIG. 10 shows a part of a flowchart showing the flow of processing in the second embodiment. This flowchart is based on a program executed by the CPU 10 as in the first embodiment, and is always executed when the surrounding object detection device 1 operates. In FIG. 10, processing steps indicated by the same step numbers as those in FIG. 7 perform the same processing as in the first embodiment, and a description thereof will not be repeated. After step S17 in FIG. 10 is executed, the same processes as those in steps S18 to S23 in FIG. 8 are executed, so that the flowcharts after step S18 are not shown.

ステップS2Aでは、図7のステップS2と同様に、ステップS1で読み込んだ初期画像に対応する実空間上に初期の仮想領域を設定し、この仮想領域に対応する初期の画像上の領域を設定する。さらに、仮想領域にそれぞれID番号を割り振り、車両100と各仮想領域ごとの相対位置を算出する。このとき画像上の領域に対しては、図7のステップS2とは異なり、各領域ごとの輝度値のヒストグラムについて、その分散値(初期分散値)が次の式(2)によって計算される。式(2)において、S(n,t)は領域のID番号n、時刻tにおける分散値を表す。このステップS2Aでは、時刻0における初期分散値S(n,0)が計算される。

Figure 2004251886
ただし、
N :着目する領域に含まれる総画素数
i :着目する領域に含まれる各画素の輝度値
min :着目する領域におけるiの最小値
max :着目する領域におけるiの最大値
μ :着目する領域に含まれる全画素の平均輝度値
h(i) :着目する領域に含まれる輝度値がiの画素数 In step S2A, as in step S2 of FIG. 7, an initial virtual area is set on the real space corresponding to the initial image read in step S1, and an area on the initial image corresponding to this virtual area is set. . Further, an ID number is assigned to each virtual area, and a relative position between the vehicle 100 and each virtual area is calculated. At this time, for the area on the image, unlike the step S2 in FIG. 7, the variance (initial variance) of the histogram of the luminance value for each area is calculated by the following equation (2). In the equation (2), S (n, t) represents a variance value at time t at the ID number n of the area. In this step S2A, an initial variance value S (n, 0) at time 0 is calculated.
Figure 2004251886
However,
N: Total number of pixels included in the region of interest i: Brightness value of each pixel included in the region of interest I min : Minimum value of i in the region of interest I max : Maximum value of i in the region of interest μ: Attention Average luminance value h (i) of all pixels included in the region: Number of pixels whose luminance value included in the region of interest is i

ステップS8Aでは、図7のステップS8と同様に、新たな実空間上の仮想領域を、ステップS7で求めた移動量に応じて設定する。さらに、ここで設定した仮想領域についても、ステップS2Aで設定した仮想領域と同様に、ID番号を各仮想領域ごとに割り振るとともに、車両100とこれら各仮想領域ごとの相対位置を算出する。このとき、これらの仮想領域に対応する画像上の領域については、図7のステップS8とは異なり、上記の式(2)によって、各領域ごとに輝度値の分散値を計算する。   In step S8A, as in step S8 of FIG. 7, a new virtual area in the real space is set according to the movement amount obtained in step S7. Further, also for the virtual area set here, similarly to the virtual area set in step S2A, an ID number is assigned to each virtual area, and the relative position of the vehicle 100 and each of these virtual areas is calculated. At this time, for the regions on the image corresponding to these virtual regions, the variance of the luminance value is calculated for each region by the above equation (2), unlike step S8 in FIG.

ステップS14Aでは、ステップS13で設定した画像上の領域について、上記の式(2)により、その領域の輝度値の分散値を算出する。算出された分散値は仮想領域マップMに記録され、仮想領域マップMが更新される。 In step S14A, for the region on the image set in step S13, the variance of the luminance value of the region is calculated by the above equation (2). The calculated variance is recorded in the virtual space map M t, the virtual space map M t is updated.

ステップS15Aでは、ステップS14Aで算出した分散値と、1回前の処理サイクルのステップS14Aで算出された分散値との差分の絶対値を次の式(3)により求め、求められたD’(n,t)をその仮想領域の特徴量とする。式(2)において、S(n,t−Δt)は1回前の処理サイクルにおける分散値を表している。なお1回目の処理サイクルにおいては、S(n,t−Δt)に代えて、ステップS2Aで算出された初期分散値S(n,0)が用いられる。このとき、今回の処理サイクルのステップS8Aにおいて新たに設定された領域については、特徴量は0とする。算出された特徴量は仮想領域マップMに記録され、仮想領域マップMが更新される。この特徴量を用いて、第1の実施の形態と同様の方法によって、車両100の周囲の車両を検出する。
D’(n,t)=|S(n,t)−S(n,t−Δt)| (3)
In step S15A, the absolute value of the difference between the variance value calculated in step S14A and the variance value calculated in step S14A of the immediately preceding processing cycle is calculated by the following equation (3), and D ′ ( (n, t) is the feature amount of the virtual region. In equation (2), S (n, t-Δt) represents a variance value in the immediately preceding processing cycle. In the first processing cycle, the initial dispersion value S (n, 0) calculated in step S2A is used instead of S (n, t-Δt). At this time, the feature amount is set to 0 for the area newly set in step S8A of the current processing cycle. Calculated feature quantity is recorded in the virtual space map M t, the virtual space map M t is updated. Using this feature amount, vehicles around the vehicle 100 are detected by the same method as in the first embodiment.
D ′ (n, t) = | S (n, t) −S (n, t−Δt) | (3)

上述した方法によって周囲車両を検出する例を、図11および12に示す。図11は、周囲車両がないときの例を示す図である。図11(a)に示す時刻tの時点において、実空間上の仮想領域120を画像に投影したときの輝度値のヒストグラムが、たとえば図11(c)に示すものであったとする。また、図11(b)に示す、時刻tより後の時刻t+αの時点において、実空間上の仮想領域120を画像に投影したときの輝度値のヒストグラムが、たとえば図11(d)に示すものであったとする。この場合、図11(c)と(d)に示す輝度値のヒストグラムは、仮想領域120に車両が進入していないため、ほとんど変化が見られない。このとき、図11(c)と(d)のヒストグラムに示される輝度値の分散値は、ヒストグラムに変化がないため、ほぼ同じ値となる。したがって、その分散値によって計算される仮想領域120における特徴量は小さく、車両は検出されない。   11 and 12 show examples of detecting surrounding vehicles by the above-described method. FIG. 11 is a diagram illustrating an example when there is no surrounding vehicle. At time t shown in FIG. 11A, it is assumed that a histogram of luminance values when the virtual area 120 in the real space is projected on the image is, for example, the one shown in FIG. 11C. At time t + α after time t shown in FIG. 11B, a histogram of luminance values when the virtual area 120 in the real space is projected on the image is, for example, a histogram shown in FIG. 11D. Assume that In this case, the histogram of the luminance values shown in FIGS. 11C and 11D shows almost no change because the vehicle does not enter the virtual area 120. At this time, the variance values of the luminance values shown in the histograms of FIGS. 11C and 11D have substantially the same value because the histogram does not change. Therefore, the feature amount in the virtual area 120 calculated based on the variance value is small, and no vehicle is detected.

図12は、周囲車両が進入したときの例を示す図である。図12(a)に示す時刻tの時点において、実空間上の仮想領域120を画像に投影したときの輝度値のヒストグラムが、たとえば図12(c)に示すものであったとする。また、図12(b)に示す、時刻tより後の時刻t+αの時点において、実空間上の仮想領域120を画像に投影したときの輝度値のヒストグラムが、たとえば図12(d)に示すものであったとする。この場合、図12(b)において仮想領域120に車両101が進入していることにより、輝度値のヒストグラムが図12(c)から(d)に示すように大きく変化する。このとき、図12(c)と(d)のヒストグラムに示される輝度値の分散値は、ヒストグラムが大きく変化しているため、その値は大きく異なる。したがって、その分散値によって計算される仮想領域120における特徴量は大きくなり、これがしきい値を越えるときに車両101が検出される。   FIG. 12 is a diagram illustrating an example when a surrounding vehicle enters. At the time point t shown in FIG. 12A, it is assumed that the histogram of the brightness values when the virtual area 120 in the real space is projected on the image is, for example, the one shown in FIG. 12C. Also, at time t + α after time t shown in FIG. 12B, a histogram of luminance values when the virtual area 120 in the real space is projected on the image is, for example, a histogram shown in FIG. 12D. Assume that In this case, since the vehicle 101 has entered the virtual area 120 in FIG. 12B, the histogram of the luminance values greatly changes as shown in FIGS. 12C to 12D. At this time, the variance values of the luminance values shown in the histograms of FIGS. 12C and 12D are significantly different because the histogram has changed greatly. Therefore, the feature amount in the virtual area 120 calculated by the variance value increases, and when the feature amount exceeds the threshold value, the vehicle 101 is detected.

上記の例では、輝度値のヒストグラムの変化をその分散値の差によって判別することとしたが、その他の方法により判別してもよい。たとえば、ヒストグラムのピーク(頻度が最大となる点)における頻度と輝度値の差により判別することとしてもよい。   In the above example, the change in the histogram of the brightness value is determined based on the difference between the variance values. However, the change may be determined by another method. For example, the determination may be made based on the difference between the frequency and the luminance value at the peak of the histogram (the point where the frequency is highest).

上述した第2の実施の形態による周囲物体検出装置によれば、第1の実施の形態と同様の作用効果を得ることができる。   According to the surrounding object detection device according to the above-described second embodiment, the same operation and effect as those of the first embodiment can be obtained.

――第3の実施の形態――
本発明による周囲物体検出装置の第3の実施の形態について説明する。本実施形態では、仮想領域の相対位置算出時において車両の移動量に含まれる離散化誤差により生じる周囲物体の誤検出を防ぐため、注目する仮想領域上の動き成分を特徴量として利用する方法を用いる。なお、本実施形態における構成は、図1に示す第1および第2の実施の形態と同じであるため、ここでは図示を省略する。
--Third embodiment--
A third embodiment of the surrounding object detection device according to the present invention will be described. In the present embodiment, in order to prevent erroneous detection of surrounding objects caused by a discretization error included in the movement amount of the vehicle when calculating the relative position of the virtual region, a method of using a motion component on the virtual region of interest as a feature amount is described. Used. The configuration in the present embodiment is the same as the first and second embodiments shown in FIG.

上記に説明した第1および第2の実施の形態では、左右それぞれの車輪からの車輪速パルス数より時間Δt間の車両の移動量Vtをデッドレコニングにより求め、その移動量Vtのデッドレコニング情報によって車両と仮想領域との相対位置を算出する例について説明した。しかし、車輪速パルスは車輪が所定数分の1回転するごとに出力される離散化された車輪の回転数を表すものであるため、この車輪速パルス数より計算される移動量Vtには、左右の車輪でそれぞれ1パルス以下の離散化(量子化)誤差が含まれることとなる。この離散化誤差によって、車両と仮想領域との相対位置に誤差が生じる。   In the first and second embodiments described above, the moving amount Vt of the vehicle during the time Δt is obtained by dead reckoning from the number of wheel speed pulses from each of the right and left wheels, and the dead reckoning information of the moving amount Vt is used. The example of calculating the relative position between the vehicle and the virtual area has been described. However, since the wheel speed pulse represents the discretized number of rotations of the wheel that is output every time the wheel rotates by a predetermined number, the moving amount Vt calculated from the wheel speed pulse number includes: The left and right wheels each include a discretization (quantization) error of one pulse or less. This discretization error causes an error in the relative position between the vehicle and the virtual area.

車両の移動量Vtに含まれる離散化誤差によって生じる仮想領域の相対位置の誤差は、車両の進行方向に対する誤差成分と、車軸の傾き方向に対する誤差成分とに分けることができる。前者の誤差成分における最大の誤差量Eは1パルスあたりの車両の進行方向の移動量に相当するものであり、車輪の外周をw、1パルスあたりの車輪の回転数をrとすると、下記の式(4)によって表される。
=w・r ・・・・・・(4)
The error in the relative position of the virtual area caused by the discretization error included in the movement amount Vt of the vehicle can be divided into an error component in the traveling direction of the vehicle and an error component in the inclination direction of the axle. The maximum error amount E f of the former error components are those corresponding to the amount of movement of the traveling direction of the vehicle per pulse, when the outer periphery of the wheel w, per pulse the rotational speed of the wheel and r, the following Equation (4).
E f = w · r (4)

上記の式(4)において、たとえば車輪の外周を187cmとし、さらに図1において説明したように1/88回転ごとに車輪速パルスが1つ出力されるとすると、車両の進行方向に対する最大誤差量Eは、187×1/88≒2cmとなる。このように、車両の進行方向に対する誤差成分の大きさは車両や仮想領域に比して小さいものであるため、上記に説明した周囲物体の検出処理に与える影響は小さい。 In the above equation (4), for example, assuming that the outer circumference of the wheel is 187 cm and one wheel speed pulse is output every 1/88 revolution as described in FIG. Ef is 187 × 1/88 ≒ 2 cm. As described above, since the magnitude of the error component in the traveling direction of the vehicle is smaller than that of the vehicle or the virtual area, the influence on the above-described surrounding object detection processing is small.

一方、後者の車軸の傾き方向に対する誤差成分では、左右の車輪による移動量の誤差がそれぞれ最大であり、かつ真値に対する誤差の正負が左右で逆となったときに最大の誤差量となる。この最大誤差量Eは、すなわち2パルスあたりの車軸の傾き方向の移動量に相当するものであり、車両のトレッドをdとすると、下記の式(5)によって表される。
=2・w・r/d ・・・・・・(5)
On the other hand, in the latter error component with respect to the inclination direction of the axle, the error in the amount of movement by the left and right wheels is the maximum, and the error amount becomes the maximum when the sign of the error with respect to the true value is reversed in the left and right. The maximum error amount E a, that is equivalent to the amount of movement of the tilt direction per 2 pulses axles, when the tread of the vehicle is d, is represented by the following formula (5).
E a = 2 · w · r / d (5)

上記の式(5)において、たとえば車輪外周と車輪速パルス出力が前述した式(4)の例と同様であり、さらにこのときの車両のトレッドを142cmとすると、車軸の傾き方向に対する最大誤差量Eは、2×187×1/88÷142≒0.030rad=1.72°となる。このとき、車両を基準とした仮想領域の相対位置において、たとえば車両の後方20mでは、約60cmの横位置のずれが生じる。なお、ここでいう横位置とは自車両の進行方向に対して垂直な方向であり、図13に示す自車両100を基準とした座標系におけるx軸方向に相当する。この横位置のずれの例を図14に示す。図14(a)は、時刻tにおいて計算された仮想領域31〜36の本来の位置を示す。これに対して、時刻t+Δtでは以上説明したような相対位置の誤差により、図14(b)に示すように横位置がずれて仮想領域31〜36と新たな仮想領域37が設定される。このとき、たとえば仮想領域34では、本来は含まれないはずの白線50が仮想領域内に含まれることとなる。 In the above equation (5), for example, the wheel outer circumference and the wheel speed pulse output are the same as those in the above-described equation (4), and if the tread of the vehicle at this time is 142 cm, the maximum error amount with respect to the inclination direction of the axle. E a is a 2 × 187 × 1/88 ÷ 142 ≒ 0.030rad = 1.72 °. At this time, in the relative position of the virtual area with respect to the vehicle, for example, at a position 20 m behind the vehicle, a lateral position shift of about 60 cm occurs. Here, the lateral position is a direction perpendicular to the traveling direction of the host vehicle, and corresponds to the x-axis direction in a coordinate system based on the host vehicle 100 shown in FIG. FIG. 14 shows an example of this lateral displacement. FIG. 14A shows the original positions of the virtual regions 31 to 36 calculated at the time t. On the other hand, at the time t + Δt, due to the relative position error described above, the lateral positions are shifted as shown in FIG. 14B, and the virtual regions 31 to 36 and the new virtual region 37 are set. At this time, for example, in the virtual area 34, a white line 50 that should not be originally included is included in the virtual area.

このように、デッドレコニング情報の離散化誤差により仮想領域の横位置に誤差が生じることによって、仮想領域内に本来ないはずの白線が含まれることがある。すると、この仮想領域において路面の輝度値が変化する。前述した第1および第2の実施の形態のように、仮想領域内の路面の輝度値の変化によって周囲の他車両を検出した場合には、この輝度値の変化が誤検出につながることとなる。   As described above, when an error occurs in the horizontal position of the virtual area due to the discretization error of the dead reckoning information, a white line that should not exist originally may be included in the virtual area. Then, the luminance value of the road surface changes in this virtual area. As in the first and second embodiments described above, when other surrounding vehicles are detected by a change in the brightness value of the road surface in the virtual area, the change in the brightness value leads to erroneous detection. .

本実施形態では、このようなデッドレコニング情報の離散化誤差によって仮想領域の横位置に誤差が生じても誤検出を生じないようにするため、特徴量として自車両に向かう方向、すなわち図14のy軸方向における仮想領域上の動き成分を利用し、y軸方向に動き成分を検出すると、その仮想領域に自車両に向かう移動物があると判定することとする。このようにすると、仮想領域の横位置に誤差が生じた場合において、x軸方向には動き成分が現れるがy軸方向には現れないため、y軸方向の動き成分は検出されず、自車両に向かう移動物はないと判定される。これにより、デッドレコニング情報の離散化誤差による誤検出を防ぐことができる。なお、ここでいう動き成分とは対地速度ベクトルのことであり、自車両に対する相対速度とは異なる。そのため、相体速度の向きに関わらず、対地速度ベクトルが自車両の方向に向かっている物体を検出できる。   In the present embodiment, in order to prevent erroneous detection from occurring even if an error occurs in the lateral position of the virtual region due to such discretization error of the dead reckoning information, a direction toward the host vehicle as a feature amount, that is, a direction of FIG. When a motion component in the y-axis direction is detected using a motion component on the virtual area in the y-axis direction, it is determined that there is a moving object heading for the own vehicle in the virtual area. With this configuration, when an error occurs in the lateral position of the virtual area, a motion component appears in the x-axis direction but does not appear in the y-axis direction. It is determined that there is no moving object toward. This can prevent erroneous detection due to a discretization error in dead reckoning information. Here, the motion component is a ground speed vector, which is different from the relative speed with respect to the own vehicle. Therefore, it is possible to detect an object whose ground speed vector is heading in the direction of the host vehicle, regardless of the direction of the relative body speed.

第3の実施の形態における処理の流れを示すフローチャートを図15に示す。このフローチャートは、第1および第2の実施の形態と同様に、CPU10で実行されるプログラムに基づくものであり、周囲物体検出装置1の動作時には常に実行されている。なお、図15において図7および8と同一のステップ番号にて示される処理ステップでは、第1の実施の形態と同一の処理を行うため、ここでは説明を省略する。   FIG. 15 is a flowchart showing the flow of processing according to the third embodiment. This flowchart is based on a program executed by the CPU 10 as in the first and second embodiments, and is always executed when the surrounding object detection device 1 operates. Note that in FIG. 15, the processing steps indicated by the same step numbers as those in FIGS. 7 and 8 perform the same processing as in the first embodiment, and thus description thereof will be omitted.

ステップS12Aでは、そのときの仮想領域マップMに記録されている仮想領域全てについてカメラ7の観測範囲にあるか否かを判定し、観測範囲外に位置する仮想領域を仮想領域マップMより削除する。このステップS12Aにおける観測範囲にあるか否かの判定は、ステップS12と同様に仮想領域マップMに記録された仮想領域と車両100との相対位置により行われ、相対位置が一定値以上となったときに、その仮想領域は観測範囲にないと判定する。ここで削除された仮想領域の情報は、次回以降の処理サイクルにおいて作成される仮想領域マップには記録されない。なお、本実施形態で用いられる仮想領域マップは図9に示したものと同様の構造であるが、第1および第2の実施の形態で説明した車両ラベルについては、本実施形態の仮想領域マップには記憶されない。 At step S12A, it is determined whether it is in the observation area of the camera 7 for all virtual area recorded in the virtual area map M t at that time, the virtual area which is located outside the observation area than the virtual area map M t delete. Determination of whether the observation range in step S12A is carried out by the relative positions of the virtual area and the vehicle 100 recorded in the same way virtual area map M t a step S12, it relative position and a predetermined value or more , It is determined that the virtual area is not in the observation range. The information on the deleted virtual area is not recorded in the virtual area map created in the next and subsequent processing cycles. Although the virtual area map used in the present embodiment has the same structure as that shown in FIG. 9, the vehicle labels described in the first and second embodiments are the same as the virtual area map of the present embodiment. Is not remembered.

ステップS13Aでは、そのときの仮想領域マップMに記録されている仮想領域(ステップS10で相対位置を算出した仮想領域のうち、ステップS12Aで削除された仮想領域を除いたもの)全てに対応する画像上の領域を、ステップS13で説明したのと同様の方法により、ステップS5で取り込んだ画像上に設定する。なお、画像上の各領域の位置および形状は、ステップS13のときと同様に、対応する仮想領域に対して、ステップS10で算出されて仮想領域マップMに記録された相対位置に基づいて投影処理を行うことにより、求めることができる。 In step S13A, virtual area which is recorded in the virtual space map M t at that time (of the virtual area calculated the relative position in the step S10, excluding the virtual area that is deleted in step S12A) corresponding to all An area on the image is set on the image captured in step S5 by the same method as described in step S13. The position and shape of each region on the image, as in the case of step S13, for the corresponding virtual area, based on the relative position recorded in the virtual area map M t is calculated in step S10 projection By performing the processing, it can be obtained.

ステップS14Bでは、ステップS13Aで画像上に設定した各領域について、それぞれの平均輝度値を算出する。このステップS14Bにおいて算出された平均輝度値を代表して、時刻tにおいて算出された領域のID番号がmの平均輝度値をI(m,t)と表す。以降の説明では、この平均輝度値I(m,t)を用いて説明を行う。なお、算出された平均輝度値は仮想領域マップMに記録され、仮想領域マップMが更新される。 In step S14B, an average luminance value is calculated for each area set on the image in step S13A. On behalf of the average luminance value calculated in step S14B, the average luminance value of the region whose ID number is m calculated at time t is represented by I (m, t). In the following description, description will be made using this average luminance value I (m, t). The average luminance value calculated is recorded in the virtual space map M t, the virtual space map M t is updated.

ステップS15Bでは、ステップS14Bで算出された各領域の平均輝度値に基づいて、以下に説明する算出方法を用いて各仮想領域上における自車両に向かう動きの有無を算出する。まず、ステップS14Bで平均輝度値I(m,t)を算出したID番号mの領域について、前回の処理サイクル(時刻t−Δt)における平均輝度値との差分を下記の式(6)により求める。なお、以下ではこれを平均輝度値の時間微分値という。
Dt(m,t)=I(m,t)−I(m,t−Δt) ・・・・・・(6)
In step S15B, based on the average luminance value of each area calculated in step S14B, the presence or absence of a movement toward the own vehicle in each virtual area is calculated using a calculation method described below. First, for the area of ID number m for which the average luminance value I (m, t) has been calculated in step S14B, the difference from the average luminance value in the previous processing cycle (time t-Δt) is obtained by the following equation (6). . Hereinafter, this is referred to as a time differential value of the average luminance value.
Dt (m, t) = I (m, t) -I (m, t-Δt) (6)

次に、このID番号mの領域に対応する仮想領域を注目仮想領域とする。たとえば、図16に示す仮想領域61を注目仮想領域とする。さらに、実空間上でこの注目仮想領域61の4近傍に位置する仮想領域62〜65のうち、自車両に一番遠いところに位置する仮想領域62を隣接仮想領域として、この隣接仮想領域62に対応する画面上の領域のID番号をm’とする。そして、今回の処理サイクル(時刻t)におけるID番号mの領域と設定されたID番号m’の領域との平均輝度値の差分を、下記の式(7)により求める。なお、以下ではこれを平均輝度値の空間微分値という。
Dm(m,m’,t)=I(m,t)−I(m’,t) ・・・・・(7)
Next, a virtual area corresponding to the area with the ID number m is set as a target virtual area. For example, the virtual area 61 shown in FIG. Further, among the virtual areas 62 to 65 located in the vicinity of the target virtual area 61 in the real space, the virtual area 62 located farthest from the host vehicle is set as the adjacent virtual area, and The ID number of the corresponding area on the screen is m ′. Then, the difference between the average luminance value of the area of the ID number m and the area of the set ID number m ′ in the current processing cycle (time t) is obtained by the following equation (7). Hereinafter, this is referred to as a spatial differential value of the average luminance value.
Dm (m, m ', t) = I (m, t) -I (m', t) (7)

さらに、上記の式(6)および(7)と同様にして、ID番号m’の領域における平均輝度値の時間微分値と、前回の処理サイクル(時刻t−Δt)における平均輝度値の空間微分値とを、下記の式(8)および(9)のように求める。なお、式(9)の前回の処理サイクルにおける平均輝度値の空間微分値は、今回の処理サイクルで求めずに、前回の処理サイクルにおいて式(7)で求められたものを用いるようにしてもよい。
Dt(m’,t)=I(m’,t)−I(m’,t−Δt) ・・・(8)
Dm(m,m’,t−Δt)
=I(m,t−Δt)−I(m’,t−Δt) ・・・・・・・・(9)
Further, similarly to the above equations (6) and (7), the time differential value of the average luminance value in the area of ID number m ′ and the spatial differential value of the average luminance value in the previous processing cycle (time t−Δt) Is determined as in the following equations (8) and (9). It should be noted that the spatial differential value of the average luminance value in the previous processing cycle of Expression (9) may not be obtained in the current processing cycle, but may be the one obtained by Expression (7) in the previous processing cycle. Good.
Dt (m ′, t) = I (m ′, t) −I (m ′, t−Δt) (8)
Dm (m, m ', t-Δt)
= I (m, t−Δt) −I (m ′, t−Δt) (9)

上記の式(6)および(8)で求められた平均輝度値の時間微分値から、下記の式(10)により、平均輝度値の時間微分値における注目仮想領域と隣接仮想領域との平均、すなわち平均輝度値の時間微分値についての空間平均を求める。また、式(7)および(9)で求められた平均輝度値の空間微分値から、下記の式(11)により、平均輝度値の空間微分値における今回処理サイクルと前回処理サイクルとの平均、すなわち平均輝度値の空間微分値についての時間平均を求める。
St(m,t)={Dt(m,t)+Dt(m’,t)}/2 (10)
Sm(m,m’,t)
={Dm(m,m’,t)+Dm(m,m’,t−Δt)}/2 (11)
From the time differential value of the average luminance value obtained by the above expressions (6) and (8), the average of the virtual region of interest and the adjacent virtual region in the time differential value of the average luminance value is calculated by the following expression (10). That is, a spatial average of the time differential value of the average luminance value is obtained. Further, from the spatial differential value of the average luminance value obtained by Expressions (7) and (9), the average of the current processing cycle and the previous processing cycle in the spatial differential value of the average luminance value is calculated by the following Expression (11). That is, the time average of the spatial differential value of the average luminance value is obtained.
St (m, t) = {Dt (m, t) + Dt (m ′, t)} / 2 (10)
Sm (m, m ', t)
= {Dm (m, m ′, t) + Dm (m, m ′, t−Δt)} / 2 (11)

さらに、上記の式(10)および(11)から、下記の式(12)により自車両に向かう方向の動き成分ベクトル(対地速度ベクトル)を算出し、このベクトルV(m,t)が0より大きいか否かを判定する。
V(m,t)=−St(m,t)/Sm(m,m’,t)>0 (12)
Further, a motion component vector (ground speed vector) in the direction toward the host vehicle is calculated from the above equations (10) and (11) by the following equation (12), and this vector V (m, t) is calculated from 0. It is determined whether it is larger.
V (m, t) = − St (m, t) / Sm (m, m ′, t)> 0 (12)

自車両に向かって走行する車両が注目仮想領域に存在するとき、このようにして算出された対地速度ベクトルV(m,t)は、次に説明するように、0より大きくなる。したがって、式(12)が満たされるときには、自車両に向かって走行する車両がその仮想領域に存在すると判定する。なお、式(12)の判定を行うに当たっては、先に式(11)に示す平均輝度値の空間微分値についての時間平均が所定のしきい値θより大きくなるか否かを判定し、これがしきい値θより大きくなったときに、式(12)の判定を行うようにすることが好ましい。このようにすることで、注目仮想領域61へその後方に位置する隣接仮想領域62から車両が進入してきたときに、対応する領域の平均輝度値の変化を検出することができる。   When a vehicle traveling toward the host vehicle is present in the virtual area of interest, the ground speed vector V (m, t) calculated in this manner becomes larger than 0, as described below. Therefore, when Expression (12) is satisfied, it is determined that the vehicle traveling toward the own vehicle exists in the virtual area. In making the determination of Expression (12), it is first determined whether or not the time average of the spatial derivative of the average luminance value shown in Expression (11) is larger than a predetermined threshold θ. It is preferable to make the determination of Expression (12) when the value becomes larger than the threshold value θ. In this way, when the vehicle enters the target virtual area 61 from the adjacent virtual area 62 located behind the target virtual area 61, a change in the average luminance value of the corresponding area can be detected.

以下に、自車両に向かって走行する車両が注目仮想領域に存在するときに対地速度ベクトルV(m,t)が0より大きくなる理由を、図17に示す例を用いて説明する。はじめに、前述したデッドレコニングの誤差などによって注目仮想領域内に白線が含まれることで、仮想領域の平均輝度値に変化が生じた場合について説明する。このとき、図17(a)に示すように、時刻t−Δtにおいて、符号71に示す注目仮想領域mと符号72に示す隣接仮想領域m’には道路以外に何も含まれておらず、時刻tになると、それらの仮想領域に白線73が含まれるとする。   The reason why the ground speed vector V (m, t) becomes larger than 0 when a vehicle traveling toward the host vehicle is in the virtual region of interest will be described with reference to an example shown in FIG. First, a case will be described in which the average luminance value of the virtual region changes due to the inclusion of a white line in the virtual region of interest due to the above-described error in dead reckoning. At this time, as shown in FIG. 17A, at time t-Δt, the target virtual area m indicated by the reference numeral 71 and the adjacent virtual area m ′ indicated by the reference numeral 72 contain nothing other than the road, At time t, it is assumed that those virtual areas include the white line 73.

図17(a)に示す場合、時刻tにおいて、注目仮想領域mと隣接仮想領域m’には、ほぼ同じ割合で白線が含まれている。そのため、式(7)に示す平均輝度値の空間微分値Dm(m,m’,t)の値が0に近くなる。また、時刻t−Δtでは白線が含まれていないため、式(9)に示す平均輝度値の空間微分値Dm(m,m’,t―Δt)の値についても、ほぼ0となる。したがって、式(11)によりSm(m,m’,t)≒0となる。そのため、前述したように式(12)の判定を行うために所定のしきい値θを設定し、そのθを適切な値としておくことにより、このような場合にSm(m,m’,t)<θとなって、誤検出を防ぐことができる。   In the case shown in FIG. 17A, at time t, the target virtual area m and the adjacent virtual area m 'include white lines at almost the same ratio. Therefore, the value of the spatial differential value Dm (m, m ', t) of the average luminance value shown in Expression (7) becomes close to zero. Further, since the white line is not included at the time t−Δt, the value of the spatial differential value Dm (m, m ′, t−Δt) of the average luminance value shown in Expression (9) is almost zero. Therefore, Sm (m, m ', t) ≒ 0 according to equation (11). Therefore, as described above, a predetermined threshold value θ is set for performing the determination of Expression (12), and by setting the θ to an appropriate value, Sm (m, m ′, t ) <Θ, and erroneous detection can be prevented.

次に、自車両に向かって走行する車両が注目仮想領域に存在する場合について説明する。このとき、図17(b)に示すように、時刻t―Δtにおいて隣接仮想領域m’に車両74が含まれており、その後車両74が自車両に接近することによって、時刻tになると、注目仮想領域mと隣接仮想領域m’の両方に車両74が含まれるとする。以下、路面に比べて車両の輝度値が高い場合と、低い場合とに分けて説明を行う。   Next, a case will be described in which a vehicle traveling toward the host vehicle exists in the virtual area of interest. At this time, as shown in FIG. 17 (b), the vehicle 74 is included in the adjacent virtual area m ′ at the time t-Δt, and the vehicle 74 approaches the own vehicle thereafter. It is assumed that the vehicle 74 is included in both the virtual area m and the adjacent virtual area m ′. Hereinafter, the case where the luminance value of the vehicle is higher than the road surface and the case where the luminance value is lower will be described separately.

路面に比べて車両の輝度値が高い場合、時刻t―Δtよりも時刻tのときの方が、注目仮想領域m、隣接仮想領域m’ともに、その仮想領域中に占める車両の割合が大きく、その平均輝度値が高くなる。このことから、たとえば、時刻t−Δtにおいて、注目仮想領域mと隣接仮想領域m’の平均輝度値がそれぞれI(m,t−Δt)=100とI(m’,t−Δt)=150であり、時刻tにおいては、I(m,t)=150とI(m’,t)=200であったとする。このとき、式(6)〜(9)は以下のように計算される。
Dt(m,t)=50
Dt(m’,t)=50
Dm(m,m’,t)=−50
Dm(m,m’,t−Δt)=−50
When the brightness value of the vehicle is higher than the road surface, the ratio of the vehicle occupying the virtual region in the virtual region of interest m and the adjacent virtual region m ′ is larger at the time t than at the time t−Δt, The average luminance value increases. From this, for example, at time t-Δt, the average luminance values of the target virtual region m and the adjacent virtual region m ′ are I (m, t−Δt) = 100 and I (m ′, t−Δt) = 150, respectively. At time t, it is assumed that I (m, t) = 150 and I (m ′, t) = 200. At this time, equations (6) to (9) are calculated as follows.
Dt (m, t) = 50
Dt (m ', t) = 50
Dm (m, m ', t) =-50
Dm (m, m ′, t−Δt) = − 50

上記の計算結果より対地速度ベクトルを算出すると、以下のようになり、式(12)が満たされる。
V(m,t)=−{(50+50)/2}/{(−50−50)/2}=1>0
When the ground speed vector is calculated from the above calculation result, the following is obtained, and the expression (12) is satisfied.
V (m, t) =-{(50 + 50) / 2} / {(-50-50) / 2} = 1> 0

一方、路面に比べて車両の輝度値が低い場合、時刻t―Δtよりも時刻tのときの方が、注目仮想領域m、隣接仮想領域m’ともに、その平均輝度値が低くなる。このことから、たとえば、時刻t−Δtにおける注目仮想領域mと隣接仮想領域m’の平均輝度値がそれぞれI(m,t−Δt)=150とI(m’,t−Δt)=100であり、時刻tにおいてI(m,t)=100とI(m’,t)=50であったとする。このとき、式(6)〜(9)は以下のように計算される。
Dt(m,t)=−50
Dt(m’,t)=−50
Dm(m,m’,t)=50
Dm(m,m’,t−Δt)=50
On the other hand, when the luminance value of the vehicle is lower than the road surface, the average luminance value of the target virtual area m and the adjacent virtual area m ′ is lower at the time t than at the time t−Δt. From this, for example, the average luminance values of the target virtual area m and the adjacent virtual area m ′ at time t−Δt are I (m, t−Δt) = 150 and I (m ′, t−Δt) = 100, respectively. It is assumed that at time t, I (m, t) = 100 and I (m ′, t) = 50. At this time, equations (6) to (9) are calculated as follows.
Dt (m, t) =-50
Dt (m ', t) =-50
Dm (m, m ', t) = 50
Dm (m, m ′, t−Δt) = 50

上記の計算結果より対地速度ベクトルを算出すると、以下のようになり、この場合にも式(12)が満たされる。
V(m,t)=−{(−50−50)/2}/{(50+50)/2}=1>0
When the ground speed vector is calculated from the above calculation result, the following is obtained, and also in this case, Expression (12) is satisfied.
V (m, t) =-{(-50-50) / 2} / {(50 + 50) / 2} = 1> 0

次に、自車両と対向方向に走行する車両が注目仮想領域に存在する場合について説明する。このとき、図17(c)に示すように、時刻t―Δtにおいて注目仮想領域mに車両75が含まれており、その後車両75が自車両から遠ざかることによって、時刻tになると、注目仮想領域mと隣接仮想領域m’の両方に車両75が含まれるとする。この場合に上記と同様にして対地速度ベクトルを計算すると、路面に比べて車両の輝度値が高い場合と低い場合のいずれについても、V(m,t)<0となり、式(12)が満たされない。   Next, a case will be described in which a vehicle traveling in the opposite direction to the own vehicle exists in the virtual region of interest. At this time, as shown in FIG. 17C, the vehicle 75 is included in the virtual region of interest m at the time t-Δt, and the vehicle 75 then moves away from the own vehicle. It is assumed that the vehicle 75 is included in both m and the adjacent virtual area m ′. In this case, when the ground speed vector is calculated in the same manner as described above, V (m, t) <0 in both cases where the vehicle brightness value is high and low compared to the road surface, and the expression (12) is satisfied. Not done.

以上説明したように、自車両に向かって走行する車両が注目仮想領域に存在するときのみ、対地速度ベクトルV(m,t)は0より大きくなり、式(12)を満たす。このことから、領域ID番号がmの領域について、対地速度ベクトルV(m,t)を算出することにより、自車両に向かう動きの有無を算出することができる。このようにすることで、第1および第2の実施の形態における図8のステップS18〜S20の処理、すなわち移動物が自車両に向かうか否かを判定するための処理が、本実施形態において不要となる。その結果、処理量の軽減を図ることができる。   As described above, the ground speed vector V (m, t) becomes larger than 0 only when the vehicle traveling toward the own vehicle exists in the virtual region of interest, and satisfies the expression (12). Accordingly, by calculating the ground speed vector V (m, t) for the area with the area ID number m, it is possible to calculate the presence or absence of a movement toward the own vehicle. By doing so, the processing of steps S18 to S20 in FIG. 8 in the first and second embodiments, that is, the processing for determining whether or not the moving object is heading for the own vehicle is performed in the present embodiment. It becomes unnecessary. As a result, the processing amount can be reduced.

上記の説明と同様にして、ステップS13Aで画像上に設定された全ての領域について対地速度ベクトルを算出し、これによって各仮想領域上における自車両に向かう動きの有無を算出する。このようにしてステップS15Bで算出された各領域の対地速度ベクトルの値は特徴量として仮想領域マップMに記録され、仮想領域マップMが更新される。 In the same manner as described above, the ground speed vectors are calculated for all the areas set on the image in step S13A, and the presence or absence of a movement toward the own vehicle on each virtual area is calculated. The value of the ground speed vector of each such region calculated in step S15B in the are recorded in the virtual space map M t as the feature quantity, the virtual space map M t is updated.

ステップS16Aでは、ステップS15Bで算出された各仮想領域上における自車両に向かう動きの有無により各仮想領域の状態値を求め、これを仮想領域マップMに記録する。このとき、自車両に向かう動きが算出された仮想領域、すなわち前述のようにして算出された対地速度ベクトルが0より大きい仮想領域については、その状態値を1とする。それ以外の仮想領域については、状態値を0とする。ステップS16Aの実行後はステップS22を実行し、さらにステップS22が肯定判定された場合にはS23を実行して、ステップS4へ戻る。 In step S16A, obtains the state value of each virtual region by the presence or absence of movement towards the vehicle on each virtual area calculated in step S15B, and records it in the virtual space map M t. At this time, the state value is set to 1 for the virtual area in which the movement toward the own vehicle is calculated, that is, the virtual area in which the ground speed vector calculated as described above is larger than 0. For the other virtual areas, the state value is set to 0. After execution of step S16A, step S22 is executed, and if step S22 is affirmatively determined, step S23 is executed, and the process returns to step S4.

以上説明した第3の実施の形態によれば、注目仮想領域と対応する領域について、平均輝度値の時間微分値を式(6)により算出する。また、注目仮想領域と、その注目仮想領域に実空間上で自車両の一番遠い位置に隣接する隣接仮想領域とについて、空間微分値を式(7)により算出する。そして、算出された平均輝度値の時間微分値および空間微分値に基づいて、式(12)により注目仮想領域の対地速度ベクトルを算出する。さらに、この対地速度ベクトルを全ての仮想領域について算出することにより、仮想領域の特徴量を算出する(ステップS15B)。そして、算出された特徴量に基づいて、各仮想領域の状態値を求める(ステップS16A)。このようにしたので、第1および第2の実施の形態と同様の作用効果が得られる。さらに、デッドレコニング情報の離散化誤差によって仮想領域の横位置に誤差が生じ、仮想領域内に本来ないはずの白線などが含まれる場合において、誤検出を生じないようにすることができる。   According to the third embodiment described above, the time differential value of the average luminance value is calculated by Expression (6) for the region corresponding to the target virtual region. Further, a spatial differential value is calculated by equation (7) for the virtual area of interest and an adjacent virtual area that is adjacent to the virtual area of interest in the real space of the vehicle in the real space. Then, based on the calculated time differential value and spatial differential value of the average luminance value, the ground speed vector of the virtual region of interest is calculated by Expression (12). Further, the feature amount of the virtual area is calculated by calculating the ground speed vector for all the virtual areas (step S15B). Then, a state value of each virtual area is obtained based on the calculated feature amount (step S16A). As a result, the same operation and effect as those of the first and second embodiments can be obtained. Furthermore, when an error occurs in the horizontal position of the virtual area due to the discretization error of the dead reckoning information and a white line or the like which should not exist in the virtual area is included, erroneous detection can be prevented.

以上の実施の形態では、たとえば撮影手段をカメラ7で実現し、車両運動検出手段を車両センサ8で実現し、移動量算出手段、仮想領域設定手段、相対位置算出手段、投影処理手段、画像領域設定手段、特徴量算出手段、および周囲物体検出手段をCPU10で実現している。しかし、これらはあくまで一例であり、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。   In the above embodiment, for example, the photographing means is realized by the camera 7, the vehicle motion detecting means is realized by the vehicle sensor 8, the moving amount calculating means, the virtual area setting means, the relative position calculating means, the projection processing means, the image area The setting unit, the feature amount calculating unit, and the surrounding object detecting unit are realized by the CPU 10. However, these are merely examples, and each component is not limited to the above-described embodiment as long as the features of the present invention are not impaired.

本発明の構成を示す図である。It is a figure showing composition of the present invention. カメラ7の視軸方向を示す図である。FIG. 3 is a diagram illustrating a visual axis direction of a camera 7. 道路を走行中の車両100と、実空間上に設定される仮想領域との関係を示す図であり、(a)は時刻t1、(b)は時刻t2、(c)は時刻t3の状態をそれぞれ示す。It is a figure which shows the relationship between the vehicle 100 which is driving | running | working on a road, and the virtual area | region set in real space, (a) shows the state of time t1, (b) at time t2, (c) at time t3. Shown respectively. 道路を走行中の車両100に搭載されたカメラ7で撮影される画像および画像上に設定される領域を示す図であり、(a)は時刻t1、(b)は時刻t2、(c)は時刻t3の状態をそれぞれ示す。It is a figure which shows the image image | photographed by the camera 7 mounted in the vehicle 100 which is driving | running | working on a road, and the area | region set on an image, (a) is time t1, (b) is time t2, (c) is The state at time t3 is shown. 道路を走行中の車両100と、実空間上に設定される仮想領域との関係、および車両100の周囲に存在する検出対象の車両との関係を示す図であり、(a)は時刻t1、(b)は時刻t2、(c)は時刻t3の状態をそれぞれ示す。It is a figure which shows the relationship between the vehicle 100 which is driving | running | working on the road, and the virtual area | region set in real space, and the relationship with the vehicle of the detection object which exists around the vehicle 100, (a) is time t1, time t1, FIG. (B) shows the state at time t2, and (c) shows the state at time t3. 図5に示す状況において、仮想領域34に対応する画像上の領域における平均輝度値の時間変化を示す図である。FIG. 6 is a diagram illustrating a temporal change of an average luminance value in an area on an image corresponding to a virtual area in the situation illustrated in FIG. 5. 第1の実施の形態における周囲車両検出の処理の流れを示すフローチャートのうち、ステップS1〜S17までを示す図である。It is a figure which shows steps S1-S17 among the flowcharts which show the flow of the process of surrounding vehicle detection in 1st Embodiment. 第1の実施の形態における周囲車両検出の処理の流れを示すフローチャートのうち、ステップS18〜S23までを示す図である。It is a figure which shows steps S18-S23 among the flowcharts which show the process of a surrounding vehicle detection in 1st Embodiment. 仮想領域マップのデータ構造を示す図である。FIG. 4 is a diagram illustrating a data structure of a virtual area map. 第2の実施の形態における周囲車両検出の処理の流れを示すフローチャートのうち、ステップS1〜S17までを示す図である。It is a figure which shows steps S1-S17 among the flowcharts which show the flow of the process of surrounding vehicle detection in 2nd Embodiment. 第2の実施の形態におけるカメラ7で撮影される画像の例と輝度値のヒストグラムとの関係を示す図であり、周囲車両が存在しない状況において、(a)は時刻tにおける画像例、(b)は時刻t+αにおける画像例を示し、(c)は(a)に示す画像例における輝度値のヒストグラムの例、(d)は(b)に示す画像例における輝度値のヒストグラムの例をそれぞれ示す。It is a figure which shows the relationship between the example of the image image | photographed by the camera 7 in 2nd Embodiment, and the histogram of a brightness value, (a) is an example of the image at the time t in the situation where there is no surrounding vehicle, (b) ) Shows an image example at time t + α, (c) shows an example of a histogram of luminance values in the image example shown in (a), and (d) shows an example of a histogram of luminance values in the image example shown in (b). . 第2の実施の形態におけるカメラ7で撮影される画像の例と輝度値のヒストグラムとの関係を示す図であり、周囲車両が存在する状況において、(a)は時刻tにおける画像例、(b)は時刻t+αにおける画像例を示し、(c)は(a)に示す画像例における輝度値のヒストグラムの例、(d)は(b)に示す画像例における輝度値のヒストグラムの例をそれぞれ示す。It is a figure which shows the relationship between the example of the image image | photographed by the camera 7 in 2nd Embodiment, and the histogram of a brightness value, (a) is an example of the image at the time t in the situation where a surrounding vehicle exists, (b) ) Shows an image example at time t + α, (c) shows an example of a histogram of luminance values in the image example shown in (a), and (d) shows an example of a histogram of luminance values in the image example shown in (b). . 自車両を基準とした座標系を示す図である。FIG. 3 is a diagram illustrating a coordinate system based on a host vehicle. デッドレコニング情報の離散化誤差により生ずる仮想領域の横位置のずれの例を示す図であり、(a)は時刻tにおける本来の位置、(b)は時刻t+Δtにおける横位置がずれた位置を示す図である。It is a figure which shows the example of the shift of the horizontal position of the virtual area | region caused by the discretization error of dead reckoning information, (a) shows the original position at the time t, (b) shows the position where the horizontal position shifted at the time t + (DELTA) t. FIG. 第3の実施の形態における周囲車両検出の処理の流れを示すフローチャートを示す図である。It is a figure showing a flow chart which shows a flow of processing of surrounding vehicles detection in a 3rd embodiment. 注目仮想領域と隣接仮想領域との位置関係を示す図である。FIG. 4 is a diagram illustrating a positional relationship between a virtual area of interest and an adjacent virtual area. 自車両に向かって走行する車両が注目仮想領域に存在するときに対地速度ベクトルが0より大きくなる理由を説明するための図であり、(a)は注目仮想領域内に白線が含まれたときの例、(b)は自車両に向かって走行する車両が注目仮想領域に存在するときの例、(c)は自車両と対向方向に走行する車両が注目仮想領域に存在するときの例をそれぞれ示す。It is a figure for explaining the reason that the ground speed vector becomes larger than 0 when the vehicle which runs toward the own vehicle exists in the attention virtual area, and (a) is when the white line is included in the attention virtual area. (B) shows an example in which a vehicle traveling toward the own vehicle exists in the virtual area of interest, and (c) shows an example in which a vehicle traveling in the direction opposite to the own vehicle exists in the virtual area of interest. Shown respectively.

符号の説明Explanation of reference numerals

1 周囲物体検出装置
100 自車両
101 検出対象とする周囲の他車両
21〜28 撮影した画像上に設定する領域
31〜38 実空間上に設定する仮想領域
1 Surrounding Object Detecting Device 100 Own Vehicle 101 Other Vehicles 21 to 28 to be Detected Regions 31 to 38 Set on Captured Image Virtual Region Set on Real Space

Claims (6)

車両の周囲を撮影する撮影手段と、
前記車両の周囲の実空間上に前記実空間に固定された複数の仮想領域を設定し、その仮想領域を前記撮影手段により撮影した画像の情報に基づいて、前記車両の周囲の物体を検出する検出手段とを備えることを特徴とする周囲物体検出装置。
Photographing means for photographing around the vehicle;
A plurality of virtual areas fixed to the real space are set on the real space around the vehicle, and an object around the vehicle is detected based on information on an image of the virtual area captured by the image capturing means. A surrounding object detecting device, comprising: detecting means.
車両に搭載されてその車両の周囲の物体を検出する周囲物体検出装置において、
前記車両の周囲を撮影する撮影手段と、
前記車両の運動を検出する車両運動検出手段と、
前記車両運動検出手段により検出された前記車両の運動に基づいて前記車両の移動量を計算する移動量算出手段と、
前記車両の周囲の実空間上に前記実空間に固定された複数の仮想領域を設定し、前記移動量に応じて新たな前記仮想領域を設定する仮想領域設定手段と、
前記移動量算出手段により計算された前記車両の移動量に基づいて前記車両と前記仮想領域との相対的な位置関係を計算する相対位置算出手段と、
前記相対位置算出手段により計算された位置関係に基づいて、前記仮想領域を前記撮影手段により撮影された画像に投影したときの前記画像における位置と形状を演算する投影処理手段と、
前記投影処理手段により演算された位置と形状に基づいて、前記画像上に前記仮想領域に対応する領域を設定する画像領域設定手段と、
前記画像領域設定手段により設定された領域内の画像情報に基づいて、前記仮想領域の特徴を表す特徴量を算出する特徴量算出手段と、
前記特徴量算出手段により算出された特徴量に基づいて、前記仮想領域に存在する前記車両の周囲物体を検出する周囲物体検出手段とを備えることを特徴とする周囲物体検出装置。
In a surrounding object detection device mounted on a vehicle and detecting an object around the vehicle,
Photographing means for photographing the periphery of the vehicle;
Vehicle motion detection means for detecting the motion of the vehicle,
A movement amount calculation unit that calculates a movement amount of the vehicle based on the movement of the vehicle detected by the vehicle movement detection unit;
Virtual area setting means for setting a plurality of virtual areas fixed to the real space on the real space around the vehicle, and setting the new virtual area according to the movement amount;
A relative position calculating unit that calculates a relative positional relationship between the vehicle and the virtual area based on the moving amount of the vehicle calculated by the moving amount calculating unit;
Projection processing means for calculating the position and shape in the image when the virtual area is projected on the image shot by the shooting means, based on the positional relationship calculated by the relative position calculation means,
Image area setting means for setting an area corresponding to the virtual area on the image based on the position and shape calculated by the projection processing means,
A feature value calculation unit that calculates a feature value representing a feature of the virtual region based on image information in the region set by the image region setting unit;
A surrounding object detection unit that detects surrounding objects of the vehicle existing in the virtual region based on the feature amount calculated by the feature amount calculation unit.
請求項2の周囲物体検出装置において、
前記周囲物体検出手段により検出された周囲物体の未来の位置を予測し、その位置が前記車両の衝突予想範囲内にある場合は、それを報知する報知手段を備えることを特徴とする周囲物体検出装置。
The surrounding object detection device according to claim 2,
Surrounding object detection characterized by comprising a notifying means for predicting a future position of the surrounding object detected by the surrounding object detecting means, and notifying the position when the position is within the expected collision range of the vehicle. apparatus.
請求項2または3の周囲物体検出装置において、
前記特徴量算出手段は、前記画像領域設定手段により設定された領域の平均輝度値の変化量により、前記仮想領域の特徴を表す特徴量を算出することを特徴とする周囲物体検出装置。
The surrounding object detection device according to claim 2 or 3,
The surrounding object detection device according to claim 1, wherein the feature amount calculating unit calculates a feature amount representing a feature of the virtual region based on a change amount of an average luminance value of the region set by the image region setting unit.
請求項2または3の周囲物体検出装置において、
前記特徴量算出手段は、前記画像領域設定手段により設定された領域の輝度値のヒストグラムの変化により、前記仮想領域の特徴を表す特徴量を算出することを特徴とする周囲物体検出装置。
The surrounding object detection device according to claim 2 or 3,
The surrounding object detection device according to claim 1, wherein the feature amount calculating unit calculates a feature amount representing a feature of the virtual region based on a change in a histogram of luminance values of the region set by the image region setting unit.
請求項2または3の周囲物体検出装置において、
前記特徴量算出手段は、前記仮想領域のうち前記画像領域設定手段により設定された領域のいずれか1つに対応する仮想領域を注目仮想領域とし、
前記設定された領域のうち前記注目仮想領域に対応する領域について、現在時刻の平均輝度値と現在時刻より所定時間前の平均輝度値との差分である平均輝度値の時間微分値を算出し、
前記注目仮想領域と実空間上で隣接する仮想領域の中から前記車両に最も遠い位置にあるものを隣接仮想領域とし、前記設定された領域のうち前記注目仮想領域に対応する領域について、その領域の平均輝度値と前記隣接仮想領域に対応する領域の平均輝度値との差分である平均輝度値の空間微分値を算出し、
前記算出された平均輝度値の時間微分値および空間微分値に基づいて前記注目仮想領域上の前記車両に向かう方向の対地速度成分を算出し、
前記仮想領域ごとの前記対地速度成分を算出することにより、前記仮想領域の特徴を表す特徴量を算出することを特徴とする周囲物体検出装置。
The surrounding object detection device according to claim 2 or 3,
The feature amount calculation unit sets a virtual region corresponding to any one of the regions set by the image region setting unit in the virtual region as a target virtual region,
For the area corresponding to the virtual area of interest among the set areas, a time differential value of an average luminance value that is a difference between the average luminance value at the current time and the average luminance value a predetermined time before the current time is calculated.
Of the virtual areas adjacent to the noted virtual area in the real space, the area farthest from the vehicle is defined as an adjacent virtual area, and the area corresponding to the noted virtual area in the set area is defined as the area. Calculating the spatial differential value of the average luminance value that is the difference between the average luminance value of the area and the average luminance value of the area corresponding to the adjacent virtual area,
Calculating a ground speed component in a direction toward the vehicle on the virtual region of interest based on the time differential value and the spatial differential value of the calculated average luminance value,
A surrounding object detection apparatus, wherein a feature amount representing a feature of the virtual area is calculated by calculating the ground speed component for each virtual area.
JP2003311411A 2003-01-28 2003-09-03 Device for detecting surrounding object Pending JP2004251886A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003311411A JP2004251886A (en) 2003-01-28 2003-09-03 Device for detecting surrounding object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003018794 2003-01-28
JP2003311411A JP2004251886A (en) 2003-01-28 2003-09-03 Device for detecting surrounding object

Publications (1)

Publication Number Publication Date
JP2004251886A true JP2004251886A (en) 2004-09-09

Family

ID=33032126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003311411A Pending JP2004251886A (en) 2003-01-28 2003-09-03 Device for detecting surrounding object

Country Status (1)

Country Link
JP (1) JP2004251886A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115198A (en) * 2005-10-24 2007-05-10 Aisin Aw Co Ltd Vehicle recognition method and in-vehicle device
JP2010262665A (en) * 2010-06-25 2010-11-18 Aisin Aw Co Ltd On-vehicle device and vehicle recognition method
JP2011076214A (en) * 2009-09-29 2011-04-14 Alps Electric Co Ltd Obstacle detection device
JP2015028696A (en) * 2013-07-30 2015-02-12 アルパイン株式会社 Vehicle rear side alarm device, vehicle rear side alarm method and other vehicles distance detection device
JP2015228212A (en) * 2014-05-30 2015-12-17 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method for assisting driver in driving vehicle, driver assistance system, computer software product and vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115198A (en) * 2005-10-24 2007-05-10 Aisin Aw Co Ltd Vehicle recognition method and in-vehicle device
JP4687381B2 (en) * 2005-10-24 2011-05-25 アイシン・エィ・ダブリュ株式会社 Vehicle recognition method and in-vehicle device
JP2011076214A (en) * 2009-09-29 2011-04-14 Alps Electric Co Ltd Obstacle detection device
JP2010262665A (en) * 2010-06-25 2010-11-18 Aisin Aw Co Ltd On-vehicle device and vehicle recognition method
JP2015028696A (en) * 2013-07-30 2015-02-12 アルパイン株式会社 Vehicle rear side alarm device, vehicle rear side alarm method and other vehicles distance detection device
JP2015228212A (en) * 2014-05-30 2015-12-17 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method for assisting driver in driving vehicle, driver assistance system, computer software product and vehicle

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
US10896310B2 (en) Image processing device, image processing system, and image processing method
US8406472B2 (en) Method and system for processing image data
JP3739693B2 (en) Image recognition device
JP4957807B2 (en) Moving object detection apparatus and moving object detection program
US10896542B2 (en) Moving body image generation recording display device and program product
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
JPH06107096A (en) Forward monitoring method for vehicle
KR101573576B1 (en) Image processing method of around view monitoring system
JP4609603B2 (en) 3D information display device and 3D information display method
JP2009033743A (en) Method for recognition of object
JP2010218226A (en) Measurement map generation device and traveling environment confirmation device
JP2001216520A (en) Surroundings monitor device for vehicle
JP5418661B2 (en) Vehicle periphery monitoring device
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP5825713B2 (en) Dangerous scene reproduction device for vehicles
JP4967758B2 (en) Object movement detection method and detection apparatus
JP3916930B2 (en) Approach warning device
JP6152261B2 (en) Car parking frame recognition device
JP2004251886A (en) Device for detecting surrounding object
CN113442831A (en) Visual field blind area display method and device and navigation system adopting method
JP4575315B2 (en) Object detection apparatus and method
JP3949628B2 (en) Vehicle periphery monitoring device
JP3226699B2 (en) Perimeter monitoring device for vehicles
JP6949090B2 (en) Obstacle detection device and obstacle detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080722