JP2007334511A - Object detection device, vehicle, object detection method and program for object detection - Google Patents
Object detection device, vehicle, object detection method and program for object detection Download PDFInfo
- Publication number
- JP2007334511A JP2007334511A JP2006163834A JP2006163834A JP2007334511A JP 2007334511 A JP2007334511 A JP 2007334511A JP 2006163834 A JP2006163834 A JP 2006163834A JP 2006163834 A JP2006163834 A JP 2006163834A JP 2007334511 A JP2007334511 A JP 2007334511A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- vehicle
- pitching
- image acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車両に搭載されたカメラ等の撮像手段を介して取得した画像から、車両の周辺に存在する歩行者等の対象物を検出する装置及び方法に関する。さらに、その装置の処理をコンピュータに実行させるためのプログラムに関する。 The present invention relates to an apparatus and a method for detecting an object such as a pedestrian existing in the vicinity of a vehicle from an image acquired via an imaging unit such as a camera mounted on the vehicle. Furthermore, the present invention relates to a program for causing a computer to execute processing of the apparatus.
近年、車両にCCDカメラ等の撮像手段を搭載して周辺を撮像し、撮像された画像から車両の周辺に存在する歩行者等の対象物を検出し、該車両と接触する可能性が高い歩行者等の対象物を判定して、運転者への情報の提示等を行う技術が知られている(例えば特許文献1参照)。 In recent years, an imaging means such as a CCD camera is mounted on a vehicle, the surroundings are imaged, a pedestrian or other object existing in the vicinity of the vehicle is detected from the captured image, and walking with high possibility of coming into contact with the vehicle A technique for determining an object such as a driver and presenting information to a driver is known (see, for example, Patent Document 1).
特許文献1の車両の周辺監視装置においては、2つの赤外線カメラから得られる画像のうちの一方の画像(基準画像)に2値化処理やラベリング処理等を施して、車両の周辺の対象物を抽出する。そして、基準画像上で抽出された対象物を時刻間で追跡すると共に、基準画像上で抽出された対象物に対応する対象物を他方の画像上で探索し、2つの赤外線カメラから得られる画像上での対象物のずれ(視差)に基づいて、車両の周辺に存在する対象物の該車両に対する相対位置を位置データとして検出する。これにより、対象物の位置の時系列データが取得され、この時系列データに基づいて該対象物の該車両に対する移動ベクトルが算出される。そして、対象物の位置データと移動ベクトルとに基づいて該車両と接触する可能性が高い対象物が判定される。
In the vehicle periphery monitoring device of
このとき、特許文献1の車両の周辺監視装置において、対象物を時刻間で追跡する処理は、互いに異なる時刻で抽出された対象物の同一性を認識する処理であり、具体的には、時刻kにおいて基準画像から対象物Tkが抽出され、次の演算処理周期の時刻k+1において基準画像から対象物Tk+1が抽出されたとしたとき、対象物Tk+1と対象物Tkとの同一性(対象物Tk+1が対象物Tkと同一の対象物であるか否か)が判定される。この同一性の判定は、対象物の重心位置、面積、縦横比等の対象物の全体的な特徴に基づいて行われる。そして、対象物Tkと対象物Tk+1とが同一の対象物であると判定された場合には、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更される。これにより、対象物Tkと対象物Tk+1とが同一の対象物であると認識されて時刻間で追跡される。
At this time, in the vehicle periphery monitoring device of
一方、車両の旋回時やピッチング時には、撮像手段の撮像性能に比べて対象物の車両に対する相対位置の時間変化が大きくなるために、車両に搭載された撮像手段から得られた道路周辺の画像上で、歩行者等の対象物の残像が生じる場合がある。例えば、車両が右方向に旋回している場合には、画像上で対象物が左側にずれるため右側に残像が生じ、車両が左方向に旋回している場合には、画像上で対象物が右側にずれるため左側に残像が生じる。また、例えば、車両が上方向にピッチングしている場合には、画像上で対象物が下側にずれるため上側に残像が生じ、車両が下方向にピッチングしている場合には、画像上で対象物が上側にずれるため下側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の影響で、対象物の重心位置、面積、縦横比等の特徴が変化する。このため、同一の対象物である場合でも、画像上での対象物の重心位置、面積、縦横比等の特徴が、残像が生じていない画像上で該対象物が示していた特徴と相違することとなる。 On the other hand, when the vehicle is turning or pitching, the temporal change in the relative position of the object with respect to the vehicle is larger than the imaging performance of the imaging means, so the image around the road obtained from the imaging means mounted on the vehicle Thus, an afterimage of an object such as a pedestrian may occur. For example, when the vehicle is turning in the right direction, the object is shifted to the left side on the image, so an afterimage is generated on the right side. When the vehicle is turning in the left direction, the object is on the image. Since it shifts to the right side, an afterimage occurs on the left side. Further, for example, when the vehicle is pitched upward, the object is shifted downward on the image, so an afterimage is generated on the upper side. When the vehicle is pitched downward, the image is Since the object is shifted upward, an afterimage is generated on the lower side. When an object is extracted from an image in which an afterimage is generated in this way, characteristics such as the position of the center of gravity, area, and aspect ratio of the object change due to the influence of the afterimage. For this reason, even in the case of the same object, features such as the position of the center of gravity, area, and aspect ratio of the object on the image are different from the characteristics that the object showed on the image in which no afterimage has occurred. It will be.
しかしながら、特許文献1の車両の周辺監視装置では、このような残像の影響は考慮されていないため、車両の旋回時やピッチング時には、同一の対象物であるか否かを判定する際に、同一の対象物でないと誤判定される可能性がある。このため、車両の旋回時やピッチング時に、互いに異なる時刻で抽出された対象物の同一性を適切に認識し得る技術が望まれていた。
本発明は、かかる背景に鑑みてなされたものであり、車両の旋回時やピッチング時に画像上に生じる残像の影響を低減して、車両に搭載された撮像手段により得られた車両周辺の画像から、互いに異なる時刻で抽出された歩行者等の対象物の同一性を精度良く認識することができる対象物検出装置、車両、対象物検出方法、並びに該対象物検出装置の処理をコンピュータに実行させる対象物検出用プログラムを提供することを目的とする。 The present invention has been made in view of such a background, and reduces the influence of an afterimage generated on an image during turning or pitching of the vehicle, from an image around the vehicle obtained by an imaging means mounted on the vehicle. The object detection apparatus, the vehicle, the object detection method and the object detection apparatus capable of accurately recognizing the identity of objects such as pedestrians extracted at different times are executed by a computer. An object is to provide a program for detecting an object.
かかる目的を達成するために、本発明の第1態様の対象物検出装置は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、任意の時刻Taに取得された画像から該対象物抽出手段により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定手段とを備えた対象物検出装置において、前記車両のヨーレートを逐次検出するヨーレート検出手段を備え、前記同一性判定手段は、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第1発明)。 In order to achieve this object, the object detection apparatus according to the first aspect of the present invention is an object for sequentially extracting objects existing in the vicinity of a vehicle from an image acquired via an imaging means mounted on the vehicle. The object extraction means and the first object extracted by the object extraction means from the image acquired at an arbitrary time Ta are extracted from the image acquired at a time Tb before the time Ta. And an identity determination means for determining whether or not the second object extracted by the means is the same. The object detection apparatus further comprises a yaw rate detection means for sequentially detecting the yaw rate of the vehicle, and the same The sex determination means has at least the left and right side portions of the image portion of the first object in the image acquired at the time Ta when the magnitude of the yaw rate at the time Ta is a predetermined threshold value or more. Of the feature amount of the portion near the edge opposite to the turning direction of the vehicle and the left and right side portions of the image portion of the second object in the image acquired at the time Tb. It is characterized in that it is determined whether or not the first object is the same as the second object based on the feature amount of the portion near the edge opposite to the turning direction (first invention). ).
この第1発明の対象物検出装置において、前記同一性判定手段は、任意の時刻Taに取得された画像から前記対象物抽出手段により抽出された第1の対象物が、時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する。このとき、車両の旋回時には、取得された画像上で対象物の残像が生じることがある。例えば、車両が右方向に旋回している場合には、画像上で対象物の右側に残像が生じ、車両が左方向に旋回している場合には、画像上で対象物の左側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の画像部分が対象物の画像部分に含まれて抽出される。このため、残像の影響で、抽出された対象物の画像部分の重心位置、面積、縦横比等の全体的な特徴量が変化する。 In the object detection device according to the first aspect of the present invention, the identity determination means is configured such that the first object extracted by the object extraction means from an image acquired at an arbitrary time Ta is earlier than the time Ta. It is determined whether or not it is the same as the second object extracted by the object extraction means from the image acquired at time Tb. At this time, an afterimage of the object may occur on the acquired image when the vehicle turns. For example, when the vehicle is turning rightward, an afterimage is generated on the right side of the object on the image, and when the vehicle is turning leftward, an afterimage is displayed on the left side of the object on the image. Arise. Then, when the object is extracted from the image in which the afterimage is generated in this way, the image portion of the afterimage is included and extracted in the image portion of the object. For this reason, the overall feature amount such as the position of the center of gravity, area, and aspect ratio of the image portion of the extracted object changes due to the influence of the afterimage.
そこで、前記同一性判定手段は、前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるとき(車両が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分に大きいとき)に、時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。 Therefore, the identity determination means determines that the yaw rate at the time Ta is greater than or equal to a predetermined threshold (when the vehicle turns and the yaw rate is large enough to cause an afterimage on the image). , The feature amount of the portion near the edge opposite to the turning direction of the vehicle in the left and right side portions of the image portion of the first object in the image acquired at time Ta, and acquired at time Tb. The first object is determined based on the feature amount of the portion near the edge opposite to the turning direction of the vehicle in the left and right side portions of the image portion of the second object in the captured image. It is determined whether or not it is the same as the second object.
すなわち、前記車両の旋回方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が低減されたものとなる。従って、前記同一性判定手段により、この部分の特徴量に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両の旋回時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。 That is, since the portion near the edge opposite to the turning direction of the vehicle is an image portion on the side where no afterimage is generated, the feature amount of this portion is one in which the influence of the afterimage is reduced. Therefore, the identity determination means determines whether the first object is the same as the second object based on the feature amount of this portion, so that when the vehicle turns, Thus, it is possible to reduce the influence of the afterimage that occurs in the vehicle and accurately recognize the identity of the objects extracted from the images around the vehicle at different times.
なお、前記同一性判定手段は、時刻Taにおける前記ヨーレートの大きさが所定閾値未満であるとき(ヨーレートの大きさが画像上に残像が生じない程度に十分に小さいとき)には、時刻Taに取得された画像における前記第1の対象物の画像部分の全体的な特徴量(該対象物の左右の両側部分のいずれも含む画像部分全体の特徴量)と、時刻Tbに取得された画像における前記第2の対象物の画像部分の全体的な特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定すればよい。 The identity determination means determines that at the time Ta when the magnitude of the yaw rate at the time Ta is less than a predetermined threshold (when the magnitude of the yaw rate is sufficiently small so that no afterimage is generated on the image). The overall feature amount of the image portion of the first object in the acquired image (the feature amount of the entire image portion including both the left and right side portions of the object) and the image acquired at time Tb What is necessary is just to determine whether this 1st target object is the same as this 2nd target object based on the whole feature-value of the image part of a said 2nd target object.
また、前記第1発明の対象物検出装置において、前記ヨーレート検出手段により検出されたヨーレートの大きさが前記所定閾値未満であるときに取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する対象物画像記憶手段を備え、前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ヨーレートの大きさが前記所定値未満から該所定値以上に変化した直後で、且つ、該ヨーレートの大きさが該所定値以上に維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、該ヨーレートの大きさが該所定閾値以上に変化する直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することが好ましい(第2発明)。 In the object detection device of the first invention, the object extracted by the object extraction unit from an image acquired when the magnitude of the yaw rate detected by the yaw rate detection unit is less than the predetermined threshold value. Object image storage means for sequentially storing the image portion as an object image, wherein the identity determination means is configured such that the time Ta and the time Tb are at least the magnitude of the yaw rate less than the predetermined value. The image of the first object in the image acquired at the time Ta immediately after the change and when the yaw rate is a time within a predetermined period in which the magnitude of the yaw rate is maintained above the predetermined value. The time immediately before the feature amount of the portion near the edge opposite to the turning direction of the vehicle and the magnitude of the yaw rate change beyond the predetermined threshold value in the left and right side portions of the portion The first feature amount of the left and right side portions of the object image stored by the object image storage means from the image acquired in c is the feature amount of the portion near the edge opposite to the turning direction of the vehicle. The degree of similarity, and the feature amount of the edge portion on the opposite side to the turning direction of the vehicle, of the left and right side portions of the image portion of the second object in the image acquired at the time Tb, Based on the second degree of similarity between the left and right side parts of the object image at the time Tc and the feature amount of the part near the edge on the opposite side to the turning direction of the vehicle, the first object It is preferable to determine whether or not an object is the same as the second object (second invention).
これによれば、前記対象物画像記憶手段は、前記ヨーレート検出手段により検出されたヨーレートの大きさが前記所定閾値未満であるとき(ヨーレートの大きさが画像上に残像が生じない程度に十分に小さいとき)に取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する。この対象物画像は、残像が生じていない状態での対象物の画像部分であり、この対象物画像には、残像によるノイズが含まれないため対象物の特徴量が顕著に現れている。 According to this, the object image storage means is sufficiently large when the magnitude of the yaw rate detected by the yaw rate detection means is less than the predetermined threshold (the magnitude of the yaw rate does not cause an afterimage on the image). The image portion of the target object extracted by the target object extraction means from the acquired image is sequentially stored as the target object image. This object image is an image portion of the object in a state in which no afterimage is generated. Since the object image does not include noise due to the afterimage, the feature amount of the object appears remarkably.
一方、前記時刻Ta及び時刻Tbが、少なくとも前記ヨーレートの大きさが前記所定値未満から該所定値以上に変化した直後で、且つ、該ヨーレートの大きさが該所定値以上に維持される所定期間内の時刻である場合には、時刻Taに取得された画像上と、時刻Tbに取得された画像上とのいずれにおいても、残像が生じている状態であり、これらの画像から抽出された第1の及び第2の対象物の画像部分には、残像によるノイズが含まれている。なお、前記所定期間は、画像上に同一の対象物が存在しなくなるまでの期間である。 On the other hand, the time Ta and the time Tb are at least immediately after the magnitude of the yaw rate changes from less than the predetermined value to the predetermined value or more, and a predetermined period in which the magnitude of the yaw rate is maintained above the predetermined value. Is an afterimage both on the image acquired at time Ta and on the image acquired at time Tb, and the first image extracted from these images. The image portions of the first and second objects include afterimage noise. The predetermined period is a period until the same object does not exist on the image.
ここで、前記時刻Taに取得された画像における前記第1の対象物と、前記時刻Tbに取得された画像における前記第2の対象物とのいずれもが、該ヨーレートの大きさが該所定閾値以上に変化する直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像に対応する対象物(時刻Tcに取得された画像から前記対象物抽出手段により抽出された第3の対象物)と同一であることが判れば、該第1の対象物が該第2の対象物と同一であることが判る。なお、前記ヨーレートの大きさが前記所定閾値以上に変化する直前の時刻Tcにおける対象物画像とは、該所定閾値以上に変化する前に記憶された対象物画像であって、そのうちの最新に記憶された対象物画像である。 Here, both of the first object in the image acquired at the time Ta and the second object in the image acquired at the time Tb have a magnitude of the yaw rate equal to the predetermined threshold value. The object corresponding to the object image stored by the object image storage means from the image acquired at time Tc immediately before the change (extracted by the object extraction means from the image acquired at time Tc). If it is found that it is the same as the third object), it is found that the first object is the same as the second object. Note that the object image at the time Tc immediately before the magnitude of the yaw rate changes to the predetermined threshold value or more is an object image stored before the value of the yaw rate changes to the predetermined threshold value or more. It is the object image made.
そこで、前記同一性判定手段は、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。 Therefore, the identity determination means includes a portion near the edge opposite to the turning direction of the vehicle, out of the left and right side portions of the image portion of the first object in the image acquired at the time Ta. The first similarity degree between the feature amount and the feature amount of the portion near the edge opposite to the turning direction of the vehicle in the left and right side portions of the object image at the time Tc, and the time Tb Among the left and right side portions of the image portion of the second object in the acquired image, the feature amount of the edge side portion opposite to the turning direction of the vehicle, and the object image at the time Tc The first object is the second object based on the second degree of similarity between the left and right side portions and the feature amount of the portion near the edge on the opposite side to the turning direction of the vehicle. It is determined whether or not the same.
すなわち、前記第1及び第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、これらの部分の特徴量は、残像の影響が低減されたものとなる。さらに、これらの部分の特徴量が、残像が生じていない対象物画像の特徴量と比較されるので、残像の影響が排除され、前記第1及び第2の類似の度合には、前記第1及び第2の対象物が前記第3の対象物と同一であるか否かが精度良く示される。よって、前記同一性判定手段により、前記第1及び第2の類似の度合に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両の旋回時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。 That is, of the left and right side portions of the image portions of the first and second objects, the portion near the edge opposite to the turning direction of the vehicle is an image portion on the side where no afterimage is generated. The feature amounts of these portions are those in which the influence of the afterimage is reduced. Further, since the feature values of these portions are compared with the feature values of the object image in which no afterimage is generated, the influence of the afterimage is eliminated, and the first and second similarities include the first and second similarities. And whether the second object is the same as the third object is accurately indicated. Therefore, by determining whether or not the first object is the same as the second object based on the first and second similarity degrees, the identity determination means At the time of turning, it is possible to reduce the influence of an afterimage generated on the image, and to accurately recognize the identity of the objects extracted from the images around the vehicle at different times.
次に、本発明の第2態様の対象物検出装置は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、任意の時刻Taに取得された画像から該対象物抽出手段により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定手段とを備えた対象物検出装置において、前記車両のピッチングを逐次検出するピッチング検出手段を備え、前記同一性判定手段は、少なくとも前記時刻Taにおいて前記ピッチング検出手段によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第3発明)。 Next, the object detection device according to the second aspect of the present invention includes an object extraction unit that sequentially extracts an object existing around the vehicle from an image acquired via an imaging unit mounted on the vehicle, The first object extracted by the object extracting unit from the image acquired at an arbitrary time Ta is extracted by the object extracting unit from the image acquired at the time Tb before the time Ta. An object detection device comprising identity determination means for determining whether or not the second object is the same, further comprising pitching detection means for sequentially detecting the pitching of the vehicle, wherein the identity determination means includes: At least when the pitching is detected by the pitching detection means at the time Ta, the vehicle in the upper and lower side portions of the image portion of the first object in the image acquired at the time Ta. Of the feature amount of the portion near the edge opposite to the pitching direction and the upper and lower side portions of the image portion of the second object in the image acquired at the time Tb, the side opposite to the pitching direction of the vehicle It is characterized in that it is determined whether or not the first object is the same as the second object based on the feature amount of the portion closer to the edge (third invention).
この第3発明の対象物検出装置において、前記第1発明と同様に、前記同一性判定手段は、任意の時刻Taに取得された画像から前記対象物抽出手段により抽出された第1の対象物が、時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する。このとき、車両のピッチング時には、取得された画像上で対象物の残像が生じることがある。例えば、車両が上方向にピッチングしている場合には、画像上で対象物の上側に残像が生じ、車両が下方向にピッチングしている場合には、画像上で対象物の下側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の画像部分が対象物の画像部分に含まれて抽出される。このため、残像の影響で、抽出された対象物の画像部分の重心位置、面積、縦横比等の全体的な特徴量が変化する。 In the object detection device according to the third aspect of the present invention, as in the first aspect, the identity determination means is the first object extracted by the object extraction means from an image acquired at an arbitrary time Ta. Is the same as the second object extracted by the object extracting means from the image acquired at time Tb before time Ta. At this time, when the vehicle is pitched, an afterimage of the object may occur on the acquired image. For example, when the vehicle is pitching upward, an afterimage is generated above the object on the image, and when the vehicle is pitching downward, the afterimage is displayed below the object on the image. Occurs. Then, when the object is extracted from the image in which the afterimage is generated in this way, the image portion of the afterimage is included and extracted in the image portion of the object. For this reason, the overall feature amount such as the position of the center of gravity, area, and aspect ratio of the image portion of the extracted object changes due to the influence of the afterimage.
そこで、前記同一性判定手段は、時刻Taにおいて前記ピッチング検出手段により車両のピッチングが検出されたとき(車両が画像上に残像が生じる程度にピッチングしているとき)に、時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。なお、前記ピッチング検出手段は、車両のピッチングによって変化する状態量の検出値(例えば、車両の上下方向の並進速度や、車両のピッチング軸周りの角速度等)の大きさが所定閾値以上であるときに、ピッチングが検出されたと判断し、該検出値の大きさが該所定閾値未満であるときに、ピッチングが検出されていないと判断する。 Therefore, the identity determination means is acquired at time Ta when the pitching detection means detects the pitching of the vehicle at time Ta (when the vehicle is pitching enough to cause an afterimage on the image). Of the upper and lower side parts of the image part of the first object in the image, the feature amount of the part near the edge opposite to the pitching direction of the vehicle, and the second in the image acquired at time Tb The first object is the same as the second object on the basis of the feature amount of the portion near the edge opposite to the pitching direction of the vehicle in the upper and lower side portions of the image portion of the object. It is determined whether or not. The pitching detection means has a state quantity detection value (for example, a translational velocity in the vertical direction of the vehicle, an angular velocity around the pitching axis of the vehicle, etc.) that is changed by the pitching of the vehicle being a predetermined threshold value or more. In addition, it is determined that pitching has been detected, and it is determined that no pitching has been detected when the magnitude of the detected value is less than the predetermined threshold.
すなわち、前記車両のピッチング方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が低減されたものとなる。従って、前記同一性判定手段により、この部分の特徴量に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。 That is, since the portion near the edge opposite to the pitching direction of the vehicle is an image portion on the side where no afterimage is generated, the feature amount of this portion has a reduced influence of the afterimage. Therefore, the identity determination means determines whether the first object is the same as the second object based on the feature amount of this portion, so that when the vehicle is pitched, Thus, it is possible to reduce the influence of the afterimage that occurs in the vehicle and accurately recognize the identity of the objects extracted from the images around the vehicle at different times.
なお、前記同一性判定手段は、時刻Taにおいて前記ピッチング検出手段によりピッチングが検出されていないとき(車両が画像上に残像が生じる程度にピッチングしていないとき)には、時刻Taに取得された画像における前記第1の対象物の画像部分の全体的な特徴量(該対象物の左右の両側部分のいずれも含む画像部分全体の特徴量)と、時刻Tbに取得された画像における前記第2の対象物の画像部分の全体的な特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定すればよい。 The identity determination means is acquired at time Ta when pitching is not detected by the pitching detection means at time Ta (when the vehicle is not pitched enough to cause an afterimage on the image). The overall feature amount of the image portion of the first object in the image (the feature amount of the entire image portion including both the left and right side portions of the object) and the second feature amount in the image acquired at time Tb Whether or not the first object is the same as the second object may be determined based on the overall feature amount of the image portion of the object.
また、前記第3発明の対象物検出装置において、前記ピッチング検出手段によりピッチングが検出されていないときに取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する対象物画像記憶手段を備え、
前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ピッチング検出手段によりピッチングが検出されていない状態からピッチングが検出された状態に変化した直後で、且つ、該ピッチングが検出された状態が維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、該ピッチングが検出された状態となる直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することが好ましい(第4発明)。
Further, in the object detection device of the third invention, an image portion of the object extracted by the object extraction means from an image acquired when no pitching is detected by the pitching detection means is obtained as an object image. As an object image storage means for sequentially storing as,
The identity determination means is a state immediately after the time Ta and the time Tb are changed from a state in which no pitching is detected by the pitching detection means to a state in which pitching is detected, and in which the pitching is detected. Of the left and right side portions of the image portion of the first object in the image acquired at the time Ta, on the opposite side to the pitching direction of the vehicle. Of the left and right side portions of the object image stored by the object image storage means from the feature amount of the portion near the edge and the image acquired at the time Tc immediately before the pitching is detected, The first similarity degree with the feature quantity of the portion near the edge opposite to the pitching direction of the vehicle, and the image of the second object in the image acquired at the time Tb Of the left and right side portions of the minute, and the feature amount of the edge side portion opposite to the pitching direction of the vehicle, and the pitching direction of the vehicle of the left and right side portions of the object image at the time Tc It is preferable to determine whether or not the first object is the same as the second object based on the second degree of similarity with the feature amount of the portion near the opposite edge ( Fourth invention).
これによれば、前記対象物画像記憶手段は、前記ピッチング検出手段によりピッチングが検出されていないとき(車両が画像上に残像が生じる程度にピッチングしていないとき)に取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する。この対象物画像は、残像が生じていない状態での対象物の画像部分であり、この対象物画像には、残像によるノイズが含まれないため対象物の特徴量が顕著に現れている。 According to this, the object image storage means is configured to detect the object from an image acquired when pitching is not detected by the pitching detection means (when the vehicle is not pitched to the extent that an afterimage is generated on the image). The image portion of the object extracted by the object extracting means is sequentially stored as the object image. This object image is an image portion of the object in a state in which no afterimage is generated. Since the object image does not include noise due to the afterimage, the feature amount of the object appears remarkably.
一方、前記時刻Ta及び時刻Tbが、少なくとも前記ピッチング検出手段によりピッチングが検出されていない状態からピッチングが検出された状態に変化した直後で、且つ、該ピッチングが検出された状態が維持される所定期間内の時刻である場合には、時刻Taに取得された画像上と、時刻Tbに取得された画像上とのいずれにおいても、残像が生じている状態であり、これらの画像から抽出された第1の及び第2の対象物の画像部分には、残像によるノイズが含まれている。なお、前記所定期間は、画像上に同一の対象物が存在しなくなるまでの期間である。 On the other hand, the time Ta and the time Tb are at least immediately after changing from a state where no pitching is detected by the pitching detection means to a state where pitching is detected, and a state where the state where the pitching is detected is maintained. When the time is within the period, an afterimage is generated both on the image acquired at the time Ta and on the image acquired at the time Tb, and extracted from these images. The image portions of the first and second objects include afterimage noise. The predetermined period is a period until the same object does not exist on the image.
ここで、前記時刻Taに取得された画像における前記第1の対象物と、前記時刻Tbに取得された画像における前記第2の対象物とのいずれもが、該ピッチングが検出された状態となる直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像に対応する対象物(時刻Tcに取得された画像から前記対象物抽出手段により抽出された第3の対象物)と同一であることが判れば、該第1の対象物が該第2の対象物と同一であることが判る。なお、前記ピッチングが検出された状態となる直前の時刻Tcにおける対象物画像とは、該ピッチングが検出された状態となる前に記憶された対象物画像であって、そのうちの最新に記憶された対象物画像である。 Here, both the first object in the image acquired at the time Ta and the second object in the image acquired at the time Tb are in a state in which the pitching is detected. The object corresponding to the object image stored by the object image storage means from the image acquired at the previous time Tc (the third object extracted by the object extraction means from the image acquired at the time Tc) If it is found that the first object is the same as the second object, the first object is the same as the second object. Note that the object image at the time Tc immediately before the pitching is detected is the object image stored before the pitching is detected, and is stored most recently. It is an object image.
そこで、前記同一性判定手段は、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。 Therefore, the identity determination means includes a portion of the left and right side portions of the image portion of the first object in the image acquired at the time Ta that is closer to the edge opposite to the pitching direction of the vehicle. The degree of similarity between the feature amount and the feature amount of the left and right side portions of the object image at the time Tc and the portion near the edge opposite to the pitching direction of the vehicle is acquired at the time Tb. Among the left and right side portions of the image portion of the second object in the captured image, the feature amount of the edge portion on the opposite side to the pitching direction of the vehicle, and both the left and right sides of the object image at the time Tc Whether or not the first object is the same as the second object based on the degree of similarity between the feature amount of the portion near the edge opposite to the pitching direction of the vehicle. Determine whether.
すなわち、前記第1及び第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、これらの部分の特徴量は、残像の影響が低減されたものとなる。さらに、これらの部分の特徴量が、残像が生じていない対象物画像の特徴量と比較されるので、残像の影響が排除され、前記第1及び第2の類似の度合には、前記第1及び第2の対象物が前記第3の対象物と同一であるか否かが精度良く示される。よって、前記同一性判定手段により、前記第1及び第2の類似の度合に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。 That is, of the left and right side portions of the image portions of the first and second objects, the portion near the edge opposite to the vehicle pitching direction is an image portion on the side where no afterimage is generated. The feature amounts of these portions are those in which the influence of the afterimage is reduced. Further, since the feature values of these portions are compared with the feature values of the object image in which no afterimage is generated, the influence of the afterimage is eliminated, and the first and second similarities include the first and second similarities. And whether the second object is the same as the third object is accurately indicated. Therefore, by determining whether or not the first object is the same as the second object based on the first and second similarity degrees, the identity determination means At the time of pitching, it is possible to reduce the influence of an afterimage generated on the image, and to accurately recognize the identity of objects extracted from images around the vehicle at different times.
さらに、前記第1〜第4発明の対象物検出装置において、前記対象物抽出手段により抽出された対象物の、前記車両に対する距離を検出する距離検出手段を備え、前記同一性判定手段は、前記時刻Taに取得された画像における前記第1の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第1の類似の度合を算出すると共に、前記時刻Tbに取得された画像における前記第2の対象物の、該距離検出手段により検出された距離と、該時刻Tcにおける該対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第2の類似の度合を算出することが好ましい(第5発明)。 Furthermore, in the object detection device according to any one of the first to fourth inventions, the object detection apparatus includes a distance detection unit that detects a distance of the object extracted by the object extraction unit with respect to the vehicle, and the identity determination unit includes: The distance detected by the distance detector of the first object in the image acquired at time Ta and the object corresponding to the object image at the time Tc detected by the distance detector. Means for correcting the size of the object image based on the distance, the first similarity degree is calculated using the corrected object image, and acquired at the time Tb Based on the distance detected by the distance detection means of the second object in the image and the distance detected by the distance detection means of the object corresponding to the object image at the time Tc. Comprising means for correcting the size of the object image, by using the corrected target image, we are preferable to calculate the second similarity degree (the fifth invention).
すなわち、対象物の車両に対する距離が変化すると、該車両に搭載された撮像手段を介して取得された画像上で、該対象物の画像部分の大きさが該距離の変化に応じて変化する。そこで、前記同一性判定手段は、前記時刻Taに取得された画像における前記第1の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する。また、前記時刻Tbに取得された画像における前記第2の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する。すなわち、前記対象物画像の大きさが、対象物の車両に対する距離の変化の影響を低減するように補正される。 That is, when the distance of the object to the vehicle changes, the size of the image portion of the object changes in accordance with the change of the distance on the image acquired via the imaging means mounted on the vehicle. Therefore, the identity determination unit includes a distance detected by the distance detection unit of the first object in the image acquired at the time Ta, and an object corresponding to the object image at the time Tc. The size of the object image is corrected based on the distance detected by the distance detecting means. Also, the distance detected by the distance detection unit of the second object in the image acquired at the time Tb and the distance detection unit of the object corresponding to the object image at the time Tc. Based on the detected distance, the size of the object image is corrected. That is, the size of the object image is corrected so as to reduce the influence of a change in the distance of the object to the vehicle.
そして、前記同一性判定手段により、前記それぞれ補正された対象物画像を用いて前記第1及び第2の類似の度合が算出される。従って、算出された前記第1及び第2の類似の度合は、対象物の車両に対する距離の変化によらずに、前記第1及び第2の対象物の画像部分の特徴量と前記対象物画像に対応する対象物との類似の度合をより適切に示すものとなる。よって、前記同一性判定手段により、算出された前記第1及び第2の類似の度合に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両の旋回時又はピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。 Then, the identity determination means calculates the first and second similar degrees using the corrected object images. Therefore, the calculated first and second similarity degrees are the feature amounts of the image portions of the first and second objects and the object image regardless of the change in the distance of the object to the vehicle. The degree of similarity with the object corresponding to is more appropriately indicated. Therefore, the identity determination means determines whether the first object is the same as the second object based on the calculated first and second similar degrees. It is possible to reduce the influence of afterimages generated on the image at the time of turning or pitching of the vehicle, and accurately recognize the identity of objects extracted at different times from images around the vehicle.
次に、本発明の車両は、前記第1〜第5発明のうちいずれかの対象物検出装置が搭載されたことを特徴とする(第6発明)。この第6発明の車両によれば、本発明の対象物検出装置と同等の効果を奏する車両を実現できる。 Next, the vehicle of the present invention is characterized in that any one of the object detection devices of the first to fifth inventions is mounted (sixth invention). According to the vehicle of the sixth aspect of the invention, a vehicle having the same effects as the object detection device of the present invention can be realized.
次に、本発明の第1態様の対象物検出方法は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出ステップと、任意の時刻Taに取得された画像から該対象物抽出ステップにより抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出ステップにより抽出された第2の対象物と同一であるか否かを判定する同一性判定ステップとを備える対象物検出方法であって、前記車両のヨーレートを逐次検出するヨーレート検出ステップを備え、前記同一性判定ステップにおいて、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第7発明)。 Next, the object detection method according to the first aspect of the present invention includes an object extraction step of sequentially extracting objects existing around the vehicle from an image acquired via an imaging unit mounted on the vehicle; The first object extracted by the object extraction step from the image acquired at an arbitrary time Ta is extracted by the object extraction step from the image acquired at time Tb prior to the time Ta. An object detection method comprising: an identity determination step for determining whether or not the second object is the same; and a yaw rate detection step for sequentially detecting the yaw rate of the vehicle, wherein the identity determination step includes: When at least the magnitude of the yaw rate at the time Ta is equal to or greater than a predetermined threshold, both left and right sides of the image portion of the first object in the image acquired at the time Ta Of the minute, the feature amount of the portion near the edge opposite to the turning direction of the vehicle, and the left and right side portions of the image portion of the second object in the image acquired at the time Tb, It is characterized in that it is determined whether or not the first object is the same as the second object based on the feature amount of the portion near the edge on the opposite side to the turning direction of the vehicle ( (Seventh invention).
この第7発明の対象物検出方法によれば、前記第1発明に関して説明したように、時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるとき(車両が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分に大きいとき)に、時刻Taに抽出された対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が排除されたものとなる。そして、時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときには、前記同一性判定ステップにおいて、この残像の影響が低減された部分の特徴量に基づいて、該第1の対象物が時刻Tbに取得された画像における前記第2の対象物と同一であるか否かが判定される。よって、本発明によれば、車両の旋回時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。 According to the object detection method of the seventh aspect of the invention, as described in relation to the first aspect of the invention, when the magnitude of the yaw rate at the time Ta is equal to or greater than the predetermined threshold (the vehicle turns and the magnitude of the yaw rate is an image). Of the left and right sides of the image portion of the object extracted at time Ta), the portion near the edge opposite to the turning direction of the vehicle is an afterimage. Therefore, the feature amount of this part is one in which the influence of the afterimage is eliminated. Then, when the magnitude of the yaw rate at the time Ta is equal to or greater than a predetermined threshold, the first object is detected at the time Tb based on the feature amount of the portion in which the influence of the afterimage is reduced in the identity determination step. It is determined whether or not it is the same as the second object in the acquired image. Therefore, according to the present invention, it is possible to reduce the influence of an afterimage generated on an image when the vehicle turns, and to accurately recognize the identity of objects extracted from images around the vehicle at different times. .
次に、本発明の第2態様の対象物検出方法は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出ステップと、任意の時刻Taに取得された画像から該対象物抽出ステップにより抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出ステップにより抽出された第2の対象物と同一であるか否かを判定する同一性判定ステップとを備える対象物検出方法であって、前記車両のピッチングを逐次検出するピッチング検出ステップを備え、前記同一性判定ステップにおいて、少なくとも前記時刻Taにおいて前記ピッチング検出ステップでピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第8発明)。 Next, the object detection method according to the second aspect of the present invention includes an object extraction step of sequentially extracting objects existing around the vehicle from an image acquired through an imaging unit mounted on the vehicle; The first object extracted by the object extraction step from the image acquired at an arbitrary time Ta is extracted by the object extraction step from the image acquired at time Tb prior to the time Ta. An object detection method comprising: an identity determination step for determining whether or not the second object is the same; and a pitching detection step for sequentially detecting pitching of the vehicle, wherein the identity determination step includes: , At least when the pitching is detected in the pitching detection step at the time Ta, the upper portion of the image portion of the first object in the image acquired at the time Ta Of the two side portions of the vehicle, the feature amount of the portion closer to the edge opposite to the pitching direction of the vehicle, and the upper and lower side portions of the image portion of the second object in the image acquired at the time Tb And determining whether or not the first object is the same as the second object based on the feature amount of the portion near the edge opposite to the pitching direction of the vehicle. (8th invention).
この第8発明の対象物検出方法によれば、前記第3発明に関して説明したように、時刻Taにおいて前記ピッチング検出ステップでピッチングが検出されたとき(車両が画像上に残像が生じる程度にピッチングしているとき)に、時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が排除されたものとなる。なお、前記ピッチング検出ステップでは、車両のピッチングによって変化する状態量の検出値(例えば、車両の上下方向の並進速度や、車両のピッチング軸周りの角速度等)の大きさが所定閾値以上であるときに、ピッチングが検出されたと判断し、該検出値の大きさが該所定閾値未満であるときに、ピッチングが検出されていないと判断する。 According to the object detection method of the eighth invention, as described with respect to the third invention, when pitching is detected in the pitching detection step at time Ta (the vehicle is pitched to the extent that an afterimage is generated on the image). In the image acquired at time Ta, an afterimage is generated in the upper and lower side portions of the image portion of the first object near the edge opposite to the vehicle pitching direction. Since this is an image portion on the side that is not, the feature amount of this portion is one in which the influence of the afterimage is eliminated. In the pitching detection step, when the detected value of the state quantity that changes due to the pitching of the vehicle (for example, the vertical translational velocity of the vehicle, the angular velocity around the pitching axis of the vehicle, etc.) is greater than or equal to a predetermined threshold value. In addition, it is determined that pitching has been detected, and it is determined that no pitching has been detected when the magnitude of the detected value is less than the predetermined threshold.
そして、時刻Taにおいてピッチングが検出されたときには、前記同一性判定ステップにおいて、この残像の影響が低減された部分の特徴量に基づいて、該第1の対象物が時刻Tbに取得された画像における前記第2の対象物と同一であるか否かが判定される。よって、本発明によれば、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。 Then, when pitching is detected at time Ta, in the identity determination step, the first object in the image acquired at time Tb is based on the feature amount of the portion where the influence of the afterimage is reduced. It is determined whether or not it is the same as the second object. Therefore, according to the present invention, it is possible to reduce the influence of an afterimage generated on an image when the vehicle is pitched, and accurately recognize the identity of objects extracted at different times from images around the vehicle. .
次に、本発明の第1態様の対象物検出用プログラムは、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出処理と、任意の時刻Taに取得された画像から該対象物抽出処理により抽出された第1の対象物が、時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出処理により抽出された第2の対象物と同一であるか否かを判定する同一性判定処理とを、コンピュータに実行させる対象物検出用プログラムであって、前記車両のヨーレートの検出値を逐次取得するヨーレート取得処理をコンピュータに実行させる機能を備え、前記同一性判定処理として、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする(第9発明)。 Next, the object detection program according to the first aspect of the present invention includes an object extraction process for sequentially extracting objects existing around the vehicle from an image acquired via an imaging unit mounted on the vehicle. The first object extracted from the image acquired at an arbitrary time Ta by the object extraction process is extracted from the image acquired at the time Tb before the time Ta by the object extraction process. An object detection program for causing a computer to execute an identity determination process for determining whether or not the second object is the same, and a yaw rate acquisition process for sequentially acquiring a detected value of the yaw rate of the vehicle A function to be executed by a computer, and as the identity determination process, at least when the yaw rate at the time Ta is greater than or equal to a predetermined threshold, an image acquired at the time Ta Of the left and right side portions of the image portion of the first object, the feature amount of the portion near the edge opposite to the turning direction of the vehicle, and the second target in the image acquired at time Tb The first object is the same as the second object based on the feature amount of the left and right side parts of the image portion of the object and the portion near the edge opposite to the turning direction of the vehicle. A program having a function of causing a computer to execute a process for determining whether or not there is (ninth invention).
この第9発明の対象物検出用プログラムによれば、前記第1発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。 According to the object detection program of the ninth aspect of the invention, it is possible to cause a computer to execute a process that can achieve the effects described with respect to the first aspect of the invention.
次に、本発明の第2態様の対象物検出用プログラムは、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出処理と、任意の時刻Taに取得された画像から該対象物抽出処理により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定処理とを、コンピュータに実行させる対象物検出用プログラムであって、前記車両のピッチングによって変化する状態量の検出値を逐次取得するピッチング取得処理をコンピュータに実行させる機能を備え、前記同一性判定処理として、少なくとも前記時刻Taにおいて前記ピッチング取得処理で取得された検出値によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする(第10発明)。 Next, the object detection program according to the second aspect of the present invention includes an object extraction process for sequentially extracting objects existing around the vehicle from an image acquired through an imaging unit mounted on the vehicle. The first object extracted by the object extraction process from the image acquired at an arbitrary time Ta is extracted by the object extraction means from the image acquired at the time Tb before the time Ta. An object determination program for causing a computer to execute an identity determination process for determining whether or not the second object is the same as the second object, and sequentially detecting detection values of state quantities that change due to pitching of the vehicle. A function for causing a computer to execute a pitching acquisition process to be acquired, and as the identity determination process, at least a pitch based on a detection value acquired by the pitching acquisition process at the time Ta The feature of the portion near the edge opposite to the pitching direction of the vehicle in the upper and lower side portions of the image portion of the first object in the image acquired at the time Ta when the motion is detected Based on the amount and the feature amount of the portion near the edge opposite to the pitching direction of the vehicle in the upper and lower side portions of the image portion of the second object in the image acquired at the time Tb A program having a function of causing a computer to execute a process of determining whether or not the first object is the same as the second object (a tenth invention).
この第10発明の対象物検出用プログラムによれば、前記第3発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。 According to the object detection program of the tenth aspect of the present invention, it is possible to cause a computer to execute processing that can achieve the effects described with respect to the third aspect of the present invention.
本発明の一実施形態を添付の図面を参照して説明する。まず、本発明の第1実施形態について説明する。図1は、本実施形態による対象物検出装置の機能ブロック図であり、図2は、図1に示した対象物検出装置の車両への取り付け態様の説明図であり、図3は、図1の対象物検出装置における対象物検出・注意喚起動作を示すフローチャートである。また、図4は、図3の対象物検出・注意喚起動作における処理画像の例示図である。なお、本実施形態は、本発明の第1態様の対象物検出装置に相当する。 An embodiment of the present invention will be described with reference to the accompanying drawings. First, a first embodiment of the present invention will be described. FIG. 1 is a functional block diagram of the object detection device according to the present embodiment, FIG. 2 is an explanatory view of an attachment mode of the object detection device shown in FIG. 1 to the vehicle, and FIG. It is a flowchart which shows the target object detection / alerting | wakening start work in the target object detection apparatus. FIG. 4 is a view showing an example of a processed image in the object detection / attention activation work of FIG. In addition, this embodiment is corresponded to the target object detection apparatus of the 1st aspect of this invention.
図1,2を参照して、本実施形態の対象物検出装置は、CPU(中央演算装置)を備えた電子ユニットである画像処理ユニット1を有する。画像処理ユニット1には、2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを逐次検出するヨーレートセンサ3と、自車両10の走行速度(車速)を逐次検出する車速センサ4と、自車両10のブレーキの操作を逐次検出するためのブレーキセンサ5とが接続されている。なお、加速度センサ17は、本実施形態には備えられず、後述の第2実施形態に備えられるものであるので、ここでは説明を省略する。
With reference to FIGS. 1 and 2, the object detection device of the present embodiment includes an
また、画像処理ユニット1には、自車両10に搭載された、音声等による聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。表示装置7は、例えば、自車両10のフロントウィンドウに画像等の情報を表示するHUD(ヘッドアップディスプレイ)7a等を備えている。HUD7aは、自車両10のフロントウィンドウの運転者の前方視界を妨げない位置に画面が表示されるように設けられている。
Further, the
赤外線カメラ2R,2Lは、遠赤外線を検出可能なカメラであり、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。なお、赤外線カメラ2R,2Lは、本発明の撮像手段に相当する。
The
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部に所定の間隔で取り付けられている。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行であって、且つ、それぞれの光軸の路面からの高さが等しくなるように自車両10の前部に固定されている。
As shown in FIG. 2, the
画像処理ユニット1は、詳細の図示は省略するが、A/D変換回路、CPU、RAM、ROM、画像メモリ等を含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4及びブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、画像処理ユニット1は、所定の演算処理周期毎に、入力されたデータを基に、歩行者等の対象物を検出する処理や、その検出した対象物に関する所定要件が満たされるか否かを判定し、該要件が満たされる場合にスピーカ6や表示装置7を介して注意喚起(対象物に対する運転者の注意の喚起)を行う処理等を実行する。これらの処理は、画像処理ユニット1のROMに予め実装されたプログラムを画像処理ユニット1により実行することにより実現され、そのプログラムは、本発明の対象物検出用プログラムを含んでいる。
Although not shown in detail, the
より詳しくは、画像処理ユニット1は、上記プログラムにより実現される機能として、取得された画像から自車両10の周辺に存在する対象物を抽出する対象物抽出手段11と、抽出された対象物の画像部分から該対象物が歩行者であるか否かを判定する歩行者判定手段12と、ヨーレートセンサ3により検出されたヨーレートの大きさが所定閾値未満である場合に歩行者画像を逐次記憶する歩行者画像記憶手段13と、対象物の自車両10に対する距離を検出する距離検出手段14とを備える。また、画像処理ユニット1は、その機能として、演算処理周期毎に抽出された対象物の同一性を判定する同一性判定手段16と、ヨーレートセンサ3により検出されたヨーレートの大きさが所定閾値未満である場合に対象物画像を逐次記憶する対象物画像記憶手段15とを備える。
More specifically, the
対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像から、自車両10の周辺に存在する対象物を抽出する。具体的には、対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像のうちの所定の基準画像(本実施形態では、赤外線カメラ2Rを介して取得された画像とする)に2値化処理等を施して、さらにラベリング処理等を施し、対象物の画像部分を抽出する。
The object extraction means 11 extracts an object existing around the
距離検出手段14は、基準画像上で対象物抽出手段11により抽出された対象物に対応する対象物を赤外線カメラ2Lを介して取得された画像上で探索し、2つの赤外線カメラ2R,2Lから得られる画像上での対象物のずれ(視差)に基づいて、対象物の自車両10に対する距離を検出する。なお、画像に基づいて対象物の距離を検出する具体的な手法としては、例えば、上述の特許文献1に記載したような手法を用いることができる。
The distance detection means 14 searches for an object corresponding to the object extracted by the object extraction means 11 on the reference image on the image acquired via the
歩行者画像記憶手段13は、ヨーレートセンサ3より検出されたヨーレートの大きさが所定閾値未満であるときに取得された画像から、歩行者判定手段12により歩行者であると判定された対象物の画像部分を、歩行者画像として逐次記憶する。 The pedestrian image storage means 13 is an object that has been determined to be a pedestrian by the pedestrian determination means 12 from an image acquired when the magnitude of the yaw rate detected by the yaw rate sensor 3 is less than a predetermined threshold. Image portions are sequentially stored as pedestrian images.
歩行者判定手段12は、対象物抽出手段11により抽出された対象物の画像部分から、該対象物が歩行者であるか否かを判定する。具体的には、歩行者判定手段12は、ヨーレートの大きさが所定閾値以上であるときには、このとき取得された画像から抽出された対象物の画像部分の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量と、該ヨーレートの大きさが所定閾値以上に変化する直前に記憶された歩行者画像の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量との類似の度合に基づいて、該対象物が歩行者であるか否かを判定する。なお、歩行者判定手段12は、距離検出手段14の検出結果に基づいて前記歩行者画像の大きさを補正し、該補正した歩行者画像を用いて前記類似の度合を算出する。
The
また、歩行者判定手段12は、ヨーレートの大きさが所定閾値未満であるときには、このとき取得された画像から抽出された対象物の画像部分の全体的な特徴量に基づいて、該対象物が歩行者であるか否かを判定する。なお、歩行者の判定に用いる対象物の画像部分の全体的な特徴量は、例えば、対象物の形状、輝度分散等である。
In addition, when the magnitude of the yaw rate is less than the predetermined threshold, the
対象物画像記憶手段15は、ヨーレートセンサ3より検出されたヨーレートの大きさが所定閾値未満であるときに取得された画像から対象物抽出手段11により抽出された対象物の画像部分を、対象物画像として逐次記憶する。 The object image storage means 15 obtains an image portion of the object extracted by the object extraction means 11 from an image acquired when the magnitude of the yaw rate detected by the yaw rate sensor 3 is less than a predetermined threshold. Store sequentially as images.
同一性判定手段16は、任意の時刻Taに取得された画像から対象物抽出手段11により抽出された第1の対象物が、該時刻Taよりも前の演算処理周期の時刻Tbに取得された画像から対象物抽出手段11により抽出された第2の対象物と同一であるか否かを判定する。具体的には、同一性判定手段16は、時刻Taにおけるヨーレートの大きさが所定閾値以上であるときに、時刻Taに取得された画像における第1の対象物の画像部分の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。
The
また、同一性判定手段16は、時刻Taにおけるヨーレートの大きさが所定閾値未満であるときは、時刻Taに取得された画像における第1の対象物の画像部分の全体的な特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の全体的な特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。なお、同一性の判定に用いる対象物の画像部分の全体的な特徴量は、例えば、対象物の重心位置、面積、対象物の外接四角形の縦横比等である。
In addition, the
次に、本実施形態の対象物検出装置の全体的な作動(対象物検出・警報動作)を、図3に示したフローチャートに従って説明する。図3を参照して、画像処理ユニット1は、所定の演算処理周期毎に、STEP001〜STEP020の処理を繰り返して、対象物検出・注意喚起動作を実行する。まず、画像処理ユニット1は、赤外線カメラ2R,2Lの出力信号である赤外線画像を取得して(STEP001)、A/D変換し(STEP002)、グレースケール画像を画像メモリに格納する(STEP003)。なお、赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。右画像と左画像とでは、同一の対象物の画像上での横方向(x方向)の位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
Next, the overall operation (object detection / alarm operation) of the object detection device of the present embodiment will be described with reference to the flowchart shown in FIG. Referring to FIG. 3,
次に、画像処理ユニット1は、グレースケール画像のうちの基準画像に対して、その画像信号を2値化する(STEP004)。すなわち、基準画像の画像信号の輝度値が閾値Ithより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理が行われる。閾値Ithは、実験的に予め決定される値である。
Next, the
図4(a)に、ある演算処理周期の時刻(離散系時刻)kにおいて赤外線カメラ2Rによって得られる画像を2値化した画像を例示する。図4(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。太い実線で囲まれた領域は、赤外線カメラ2Rから得られる画像において、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域である。なお、図4(a)に示した例は、自車両10の前方に歩行者が存在しており、自車両10が直進している場合の例である。
FIG. 4A illustrates an image obtained by binarizing an image obtained by the
次に、画像処理ユニット1は、2値化処理で「白」となった領域(以下、2値化領域という)からランレングスデータを作成する(STEP005)。作成されるランレングスデータは、2値化領域を画像の横方向の1次元の連結画素であるラインの集合で表し、該2値化領域を構成する各ラインをその始点の座標と、始点から終点までの長さ(画素数)とで示したものである。
Next, the
次に、画像処理ユニット1は、作成されたランレングスデータに基づいて、対象物のラベリングをする(STEP006)ことにより、対象物を抽出する(STEP007)。すなわち、ランレングスデータで表されたラインのうち、画像の縦方向(y方向)に重なる部分のあるラインを1つの対象物とみなしてラベル(識別子)を付すことにより、画像内の連結した領域を対象物として抽出する。
Next, the
上述のSTEP005〜007の処理により、図4(a)に示す2値化領域が、図4(b)に例示するように、対象物(2値化対象物)Tkとして抽出される。このとき、例えばラベルTkの対象物は、n個のランレングスデータL1〜Lnで示される。なお、抽出される対象物(2値化対象物)には、道路周辺の歩行者以外に、例えば、他車両、電柱や自動販売機等の人工構造物が含まれる。図4(b)の例では、対象物Tkは、自車両10の前方に存在する歩行者に対応する2値化対象物である。
By the above-described processing of STEP 005 to 007, the binarized area shown in FIG. 4A is extracted as the target (binarized target) T k as illustrated in FIG. 4B. At this time, for example, the object of the label T k is indicated by n pieces of run-length data L1 to Ln. The extracted objects (binarized objects) include, for example, other vehicles, artificial structures such as electric poles and vending machines, in addition to pedestrians around the road. In the example of FIG. 4B, the target T k is a binarized target corresponding to a pedestrian existing in front of the
次に、画像処理ユニット1は、抽出された対象物の面積S、重心位置Gc、対象物の外接四角形の高さHb、幅Wb、重心位置Gb、縦横比ASPを算出する(STEP008)。具体的には、図4(b)の例では、対象物Tkの面積Skは、各ランレングスデータLi(i=1,...,n)で示されるラインの長さを、対象物Tkのn個のランレングスデータについて積算することにより算出する。また、対象物Tkの重心位置Gckは、各ランレングスデータLiで示されるラインの長さと、各ランレングスデータLiのラインの中点の座標(x[i],y[i])とをそれぞれ掛け合わせ、更にこれを対象物T1のn個のランレングスデータについて積算したものを、面積Skで割ることにより算出する。また、対象物Tkの外接四角形の縦横比ASPkは、対象物Tkの外接四角形の高さ(縦方向の長さ)Hbkと幅(横方向の長さ)Wbkとの比Hbk/Wbkとして算出する。なお、対象物Tkの画像部分Rkは、対象物Tkを囲む外接四角形の領域全体とする。
Next, the
次に、画像処理ユニット1は、ヨーレートセンサ3により検出されるヨーレートYRと、車速センサ4により検出される車速VCARとを読み込む(STEP009)。なお、このSTEP009では、ヨーレートYRを時間積分することにより、自車両10の回頭角θrの算出も行われる。
Next, the
次に、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎に同一対象物を認識する処理を行う(STEP010)。同一対象物認識処理は、時刻kにおけるSTEP007の処理により対象物Tkが抽出され、次の演算処理周期の時刻k+1におけるSTEP007の処理により対象物Tk+1が抽出されたとしたとき、対象物Tk+1と対象物Tkとの同一性(対象物Tk+1が対象物Tkと同一の対象物であるか否か)を判定する処理である。そして、対象物Tkと対象物Tk+1とが同一の対象物であると判定された場合には、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更される。これにより、対象物Tkと対象物Tk+1とが同一の対象物であると認識されて、時刻間で追跡される。この同一対象物認識処理は、基準画像において実行される。なお、同一対象物認識処理については、詳細を後述する。
Next, the
一方、画像処理ユニット1は、STEP009,010の処理に平行して、STEP011〜014の処理を実行する。STEP011〜014の処理は、対象物と自車両10との距離z(自車両10の前後方向の距離)を算出する処理である。
On the other hand, the
まず、画像処理ユニット1は、基準画像の2値化画像によって追跡される対象物の中の1つを選択して、基準画像から探索画像R1(選択した対象物を囲む外接四角形の領域全体を探索画像とする)を抽出する(STEP011)。
First, the
次に、画像処理ユニット1は、参照画像(赤外線カメラ2R,2Lから得られた右画像及び左画像のうちの基準画像でない画像、今回の例では赤外線カメラ2Lから得られた左画像)中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(STEP012)。具体的には、探索画像R1の各頂点座標に応じて、参照画像中に探索領域R2を設定し、探索領域R2内に、座標(x0,y0)を基点(領域の左上の頂点)とした探索画像R1と同一形状の局所領域R3を設定する。そして、基点の座標(x0,y0)を変化させて、探索領域R2内で局所領域R3を移動させながら、局所領域R3と探索画像R1との相関の度合を示す輝度値の絶対差分和(SAD,Sum of Absolute Difference)C(x0,y0)を次式(1)により算出する。
Next, the
ここで、絶対差分和C(x0,y0)は、探索画像R1内の座標(m,n)の画素の輝度値IRと、探索領域R2内の座標(x0,y0)を基点とした局所領域R3内の座標(x0+m,y0+n)の画素の輝度値ILとの差の絶対値を取り、この差の絶対値の探索画像R1及び局所領域R3内の全画素(m=0,...,M-1,n=0,...,N-1)についての総和値を求めたものである。なお、絶対差分和C(x0,y0)の値が小さいほど、探索画像R1と局所領域R3との相関の度合が高いことを示す。これにより、絶対差分和C(x0,y0)が最小となる基点の座標(x0,y0)を求め、この位置の局所領域R3を対応画像R4として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。STEP011〜012の処理により、基準画像中の探索画像R1と、参照画像中の対応画像R4とが抽出される。 Here, the absolute difference sum C (x0, y0) is a local area based on the luminance value IR of the pixel at the coordinates (m, n) in the search image R1 and the coordinates (x0, y0) in the search area R2. The absolute value of the difference from the luminance value IL of the pixel at the coordinates (x0 + m, y0 + n) in R3 is taken, and all pixels (m = 0,...,. M−1, n = 0,..., N−1) is obtained as a total value. Note that the smaller the value of the absolute difference sum C (x0, y0), the higher the degree of correlation between the search image R1 and the local region R3. Thus, the coordinates (x0, y0) of the base point at which the absolute difference sum C (x0, y0) is minimum are obtained, and the local region R3 at this position is extracted as the corresponding image R4. This correlation calculation is performed using a grayscale image instead of a binarized image. Through the processing in STEPs 011 to 012, the search image R1 in the standard image and the corresponding image R4 in the reference image are extracted.
次に、画像処理ユニット1は、探索画像R1の重心位置と、対応画像R4の重心位置とに基づいて、視差Δd(画素数)を算出する(STEP013)。そして、画像処理ユニット1は、算出された視差Δdを用いて、次式(2)により、自車両10と対象物との距離zを算出する(STEP014)。
Next, the
z=B×F/(Δd×p) …(2)
なお、Bは赤外線カメラ2R,2Lの基線長(光軸の間隔)、Fは赤外線カメラ2R,2Lの焦点距離F、pは画素間隔である。
z = B × F / (Δd × p) (2)
Note that B is the base line length (interval of the optical axis) of the
STEP010及びSTEP014の処理の終了後、画像処理ユニット1は、次に、画像内の座標(x,y)及び距離zを、実空間座標に変換して、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP015)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点(自車両10に固定された位置)を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向及びY方向は、それぞれ自車両10の左右方向(車幅方向)、上下方向であり、これらのX方向及びY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、実空間位置(X,Y,Z)は、次式(3)(4)(5)により算出される。
After the processing of STEP010 and STEP014, the
X=x×z×p/f …(3)
Y=y×z×p/f …(4)
Z=z …(5)
次に、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、STEP009で算出した回頭角θrを用いて、対象物の実空間位置を補正する。(STEP016)。回頭角補正は、時刻kから時刻k+1までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ2R,2Lによって得られる画像上では、画像の範囲がx方向にずれるので、これを補正する処理である。なお、以下の説明では、「対象物の実空間位置」は、この回頭角補正を施した対象物の実空間位置を意味する。
X = x × z × p / f (3)
Y = y × z × p / f (4)
Z = z (5)
Next, the
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP017)。具体的には、同一対象物についての実空間位置の、所定期間dT(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(座標PvdT=(XvdT,YvdT,ZvdT))から、現在時刻における該直線上の対象物の位置(座標Pv0=(Xv0,Yv0,Zv0))に向かうベクトルを対象物の移動ベクトルとして求める。なお、近似直線の具体的な算出処理には、前記特許文献1に記載された手法を用いる。
Next, the
次に、画像処理ユニット1は、検出した対象物と自車両10とが接触する可能性を判定して、該対象物が回避対象(自車両10との接触を回避すべき対象)であるか否かを判定する回避判定処理を行う(STEP018)。なお、回避判定処理については、詳細を後述する。STEP018において、検出した対象物が回避対象でないと判定された場合(STEP018の判定結果がNO)には、STEP001に戻り、上述の処理を繰り返す。また、STEP018において、検出した対象物が回避対象であると判定された場合(STEP018の判定結果がYES)、STEP019へ進む。
Next, the
STEP019では、画像処理ユニット1は、対象物に対する車両10の運転者の注意を喚起すべきか否かを判定する注意喚起出力判定処理を行う。この注意喚起出力判定処理では、ブレーキセンサ5の出力BRから、運転者による自車両10のブレーキ操作がなされていることが確認され、且つ、自車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行わないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、自車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行うべきと判定される。
In STEP019, the
そして、画像処理ユニット1は、注意喚起を行うべきと判定した場合(STEP019の判定結果がYES)には、スピーカ6と表示装置7とによる注意喚起を自車両10の運転者に対して行う注意喚起処理を実行し(STEP020)、STEP001に戻り、上述の処理を繰り返す。この警報出力処理では、例えば表示装置7に基準画像を表示すると共に、その基準画像中の回避対象である対象物の画像を強調的に表示する。さらに、回避対象である対象物が存在することをスピーカ6から運転者に音声案内する。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
When the
また、STEP019で注意喚起を行わないと判定した場合(全ての対象物について注意喚起を行わないと判定した場合)には、STEP019の判定結果がNOとなり、この場合には、そのままSTEP001に戻り、上述の処理を繰り返す。 If it is determined in STEP019 that alerting is not performed (when it is determined that alerting is not performed for all objects), the determination result in STEP019 is NO. In this case, the process directly returns to STEP001, The above process is repeated.
以上が、本実施形態の対象物検出装置の画像処理ユニット1における対象物検出・注意喚起動作である。これにより、自車両10の周辺の赤外線画像と、自車両10の走行状態を示す信号とから、自車両10の前方の歩行者等の対象物が検出され、回避対象である対象物について運転者に注意喚起が行われる。
The above is the object detection / attention activation work in the
次に、図5に示すフローチャートを参照して、図3に示したフローチャートのSTEP010における同一対象物認識処理について詳細に説明する。以下の説明では、時刻kに、自車両10の前方に歩行者が存在して自車両10が直進している場合において、時刻k+1で、自車両10が直進を継続し、時刻k+2で、自車両10が右方向に旋回している場合を例にして説明する。なお、時刻kにおける処理画像は、図4(a)に例示したようになる。
Next, the same object recognition processing in STEP010 of the flowchart shown in FIG. 3 will be described in detail with reference to the flowchart shown in FIG. In the following description, at time k, when a pedestrian is present in front of the
図4(c)には、時刻k+1において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図4(c)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。図4(c)に示す2値化領域は、上述のSTEP005〜007の処理により、図4(d)に例示するように、対象物(2値化対象物)Tk+1として抽出される。このとき、対象物Tk+1の画像部分Rk+1は、幅Wbk+1、高さHbk+1とする。
FIG. 4C illustrates an image obtained by binarizing an image obtained by the
また、図4(e)には、時刻k+2において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図4(e)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。このとき、図4(e)の例では、自車両10が右方向に旋回しているため、歩行者の画像部分の右側に残像が生じている。このため、図4(e)に示す2値化領域には、歩行者に相当する領域F1と共に、残像に相当する領域F2(点描を付した領域)が含まれている。そして、図4(e)に示す2値化領域は、上述のSTEP005〜007の処理により、図4(f)に例示するように、対象物(2値化対象物)Tk+2として抽出される。このとき、対象物Tk+2の画像部分Rk+2は、幅Wbk+2、高さHbk+2とする。
FIG. 4E illustrates an image obtained by binarizing the image obtained by the
図5を参照して、同一対象物認識処理において、まず、画像処理ユニット1は、図3のSTEP009で読み込まれたヨーレートYRが所定閾値YRth以上であるか否かを判断する(STEP101)。
Referring to FIG. 5, in the same object recognition process, first,
STEP101の判断結果がNOの場合(|YR|<YRth)は、自車両10のヨーレートの大きさが画像上に残像が生じない程度に十分に小さい場合であり、以下のSTEP102〜104の処理が行われ、STEP110又はSTEP111に進む。上述の図4(c)に示した時刻k+1の例がこの場合に相当しており、以下ではこの例を用いて説明する。
When the determination result in STEP 101 is NO (| YR | <YRth), the magnitude of the yaw rate of the
まず、STEP102に進み、画像処理ユニット1は、抽出された対象物Tk+1の画像部分Rk+1を、対象物画像として画像メモリに記憶する。なお、対象物画像は逐次(演算処理周期毎に)更新されて記憶される。
First, proceeding to STEP 102, the
次に、STEP103で、画像処理ユニット1は、時刻k+1で抽出された対象物Tk+1と、時刻kで抽出された対象物Tkとの同一性の判定に用いる特徴量を算出する。なお、本実施形態では、同一性判定用の特徴量として、時刻k+1のSTEP008で算出された対象物Tk+1の重心位置Gck+1、面積Sk+1、縦横比ASPk+1と、時刻kにおいてSTEP008で算出された対象物Tkの重心位置Gck、面積Sk、縦横比ASPkとを用いている。そして、画像処理ユニット1は、それぞれの差ΔGc(=Gck+1−Gck),ΔS(=Sk+1−Sk),ΔASP(=ASPk+1−ASPk)を算出する。
Then, calculated in STEP103, the
次に、STEP104で、画像処理ユニット1は、ΔGc,ΔS,ΔASPが、それぞれ所定範囲内であるか否か判断する。なお、所定範囲は、ΔGc,ΔS,ΔASPのそれぞれについて、対象物Tkと対象物Tk+1とが同一であるときに採り得る値の範囲として予め定められる範囲である。
Next, in STEP 104, the
STEP104の判断結果がYES(ΔGc,ΔS,ΔASPの全てが所定範囲内である)の場合には、STEP110に進み、対象物Tkと対象物Tk+1とが同一であると判定されて、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更され、同一対象物認識処理が終了される。STEP104の判断結果がNO(ΔGc,ΔS,ΔASPのうちの少なくともいずれかが所定範囲内でない)の場合には、STEP111に進み、対象物Tkと対象物Tk+1とが同一でないと判定されて、同一対象物認識処理が終了される。 If the determination result in STEP 104 is YES (all ΔGc, ΔS, and ΔASP are within a predetermined range), the process proceeds to STEP 110, where it is determined that the object T k and the object T k + 1 are the same. The label of the object T k + 1 is changed to the same label as the label of the object T k , and the same object recognition process is terminated. If the determination result in STEP 104 is NO (at least one of ΔGc, ΔS, and ΔASP is not within the predetermined range), the process proceeds to STEP 111, where it is determined that the object T k and the object T k + 1 are not the same. Then, the same object recognition process is completed.
一方、STEP101の判断結果がYESの場合(|YR|≧YRth)は、自車両10が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分大きい場合であり、以下のSTEP105〜109の処理が行われ、STEP110又はSTEP111に進む。上述の図4(e)に示した時刻k+2の例がこの場合に相当しており、以下ではこの例を用いて説明する。時刻k+2で抽出された対象物Tk+2の画像部分Rk+2は、図6(b)に示したようになる。
On the other hand, when the determination result in STEP 101 is YES (| YR | ≧ YRth), the
まず、STEP105に進み、画像処理ユニット1は、時刻k+1でSTEP102において画像メモリに記憶された対象物画像Rk+1(ヨーレートYRの大きさが所定閾値YRth以上となる直前の対象物画像)を読み込む。次に、STEP106で、画像処理ユニット1は、読み込んだ対象物画像Rk+1の大きさ(幅Wbk+1と高さHbk+1)を補正する。具体的には、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+2の対象物Tk+2の自車両10に対する距離Zv0k+2とを用いて、補正後の対象物画像Rk+1’の幅Wbk+1’=Wbk+1×Zv0k+2/Zv0k+1、高さHbk+1’=Hbk+1×Zv0k+2/Zv0k+1となるように補正する。
First, proceeding to STEP 105, the
なお、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1としては、時刻k+1のSTEP014で算出された値を用いる。また、時刻k+2の対象物Tk+2の自車両10に対する距離Zv0k+2は、例えば、対象物Tk+2が対象物Tk+1と同一であると仮定して、時刻k+1における対象物Tk+1の位置及び速度とヨーレートYRと自車速VCARとに基づいて、移動軌跡を推定することにより算出する。補正された対象物画像Rk+1’は、図6(a)に示したようになる。
Note that the value calculated in STEP 014 at time k + 1 is used as the distance Zv0 k + 1 of the object T k + 1 at time k + 1 to the
次に、STEP107で、画像処理ユニット1は、補正した対象物画像Rk+1’と、対象物Tk+2の画像部分Rk+2とに、それぞれ、自車両10の旋回方向と逆側のエッジ寄りの部分である部分領域Ck+1,Ck+2を、図6(a)(b)に示したように設定する(この部分領域Ck+1,Ck+2は、図示のごとく、自車両10の旋回方向と逆側寄りのエッジを含む領域である)。なお、部分領域Ck+2は、部分領域Ck+1と同一形状とする。これにより、残像が生じていない側の画像部分に、部分領域Ck+1,Ck+2が設定される。
Next, in STEP 107, the
次に、STEP108で、画像処理ユニット1は、部分領域Ck+1と部分領域Ck+2との相関の度合を示す値である輝度値の絶対差分和を算出する。なお、本実施形態では、同一性判定用の特徴量として、部分領域Ck+1,Ck+2の輝度分布を用いており、部分領域Ck+1,Ck+2の輝度分布の類似の度合として、絶対差分和を用いている。
Next, in
次に、STEP109で、画像処理ユニット1は、算出された絶対差分和に基づいて、部分領域Ck+1,Ck+2の輝度分布の類似の度合を判断する。具体的には、算出された絶対差分和が所定閾値以下(相関の度合が高い)である場合に、類似の度合が高いと判断する。
Next, in STEP 109, the
STEP109の判断結果がYES(類似の度合が高い)の場合には、STEP110に進み、対象物Tk+1と対象物Tk+2とが同一であると判定されて、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更され、同一対象物認識処理が終了される。図6に示した例では、類似の度合が高いと判断され、対象物Tk+1と対象物Tk+2とが同一であると判定される。STEP109の判定結果がNO(類似の度合が低い)の場合には、STEP111に進み、対象物Tk+1と対象物Tk+2とが同一でないと判定されて、同一対象物認識処理が終了される。これにより、自車両10の旋回時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く判定することができる。
If the determination result in STEP 109 is YES (the degree of similarity is high), the process proceeds to STEP 110, where it is determined that the object T k + 1 and the object T k + 2 are the same, and the object T k + The label of 2 is changed to the same label as the label of the object T k + 1 , and the same object recognition process is terminated. In the example illustrated in FIG. 6, it is determined that the degree of similarity is high, and it is determined that the object T k + 1 and the object T k + 2 are the same. If the determination result in STEP 109 is NO (the degree of similarity is low), the process proceeds to STEP 111, where it is determined that the object T k + 1 and the object T k + 2 are not the same, and the same object recognition process is performed. Is terminated. Thereby, the influence of the afterimage which arises on the acquired image at the time of the turn of the
さらに、時刻k+3で、画像上に対象物Tk+3が(対象物Tk+2と同一の対象物)抽出され、時刻k+2と同様に、自車両10が右方向に旋回している場合(|YR|≧YRth)には、時刻k+2と同様に、STEP105〜109の処理が行われる。この場合に、時刻k+1,k+2,k+3は、それぞれ、前記第2発明の時刻Tc,Tb,Taに相当する。
Further, at time k + 3, the object T k + 3 is extracted on the image (the same object as the object T k + 2 ), and the
このとき、STEP106で、画像処理ユニット1は、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+3の対象物Tk+3の自車両10に対する距離Zv0k+3とを用いて、対象物画像Rk+1の大きさを補正する。次に、STEP107で、画像処理ユニット1は、補正した対象物画像Rk+1”と、対象物Tk+3の画像部分Rk+3とに、それぞれ、自車両10の旋回方向と逆側のエッジ寄りの部分である部分領域Ck+1,Ck+3を設定する。次に、STEP108で、部分領域Ck+1と部分領域Ck+3との輝度値の絶対差分和が算出され、STEP109で、部分領域Ck+1と部分領域Ck+3との輝度分布の類似の度合が判断される。
At this time, in STEP 106, the
そして、STEP109の判断結果がYESとなり、STEP110で、対象物Tk+1と対象物Tk+3とが同一であると判定されて、対象物Tk+3のラベルが対象物Tk+1のラベルと同じラベルに変更される。このとき、時刻k+2の演算処理周期において、STEP109で部分領域Ck+1,Ck+2の輝度分布の類似の度合が高いと判断され、STEP110で、対象物Tk+1と対象物Tk+2とが同一であると判定され、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更されている。よって、対象物Tk+3のラベルが対象物Tk+2のラベルと同じラベルに変更されることとなり、時刻k+3の対象物Tk+3が時刻k+2の対象物Tk+2と同一であることが認識される。 Then, the determination result in STEP 109 is YES, and in STEP 110, it is determined that the object T k + 1 and the object T k + 3 are the same, and the label of the object T k + 3 is the object T k +. It is changed to the same label as 1 label. At this time, in STEP 109, it is determined that the degree of similarity of the luminance distributions of the partial areas C k + 1 and C k + 2 is high in STEP 109, and in STEP 110, the object T k + 1 and the object are detected. It is determined that the object T k + 2 is the same, and the label of the object T k + 2 is changed to the same label as the label of the object T k + 1 . Therefore, the object T k + 3 of the label becomes to be changed to the same label as the label of the object T k + 2, the time k + 3 of the object T k + 3 the time k + 2 of the object T k Recognized to be identical to +2 .
以上が、本実施形態における同一対象物認識処理の詳細である。 The above is the details of the same object recognition process in the present embodiment.
なお、本実施形態では、画像処理ユニット1がその機能として対象物画像記憶手段13を備え、画像処理ユニット1は、ヨーレートの大きさが所定閾値以上に変化する直前に対象物画像記憶手段13により記憶された対象物画像と、対象物の画像部分との類似の度合に基づいて、対象物の同一性を判定するものとがしたが、他の実施形態として、画像処理ユニット1は、対象物画像の代わりに、例えば逐次直前の演算処理周期に抽出された対象物の画像部分を用いて類似の度合を算出し、対象物の同一性を判定してもよい。
In the present embodiment, the
このとき、画像処理ユニット1は、例えば、上述の時刻k+3の場合に、時刻k+2とk+3とで、対象物Tk+2,Tk+3の画像部分のうちの自車両10の旋回方向と逆側のエッジ寄り部分Ck+2,Ck+3の特徴量を直接比較して類似の度合を算出し、対象物Tk+2と対象物Tk+3との同一性を判定する。この場合に、時刻k+2,k+3は、それぞれ、前記第1発明の時刻Tb,Taに相当する。このようにしても、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量は、残像の影響が低減されたものとなるので、自車両10の旋回時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く判定することができる。
At this time, for example, in the case of the above-mentioned time k + 3, the
次に、図7に示すフローチャートを参照して、図3に示したフローチャートのSTEP018における回避判定処理について詳細に説明する。図7は、本実施形態の回避判定処理を示すフローチャートである。回避判定処理は、以下に示す第1接触判定処理、第2接触判定処理、進入接触判定処理、歩行者判定処理、及び人工構造物判定処理により、検出した対象物と自車両10との接触の可能性及び対象物の種類を判定して、該対象物が回避対象であるか否かを判定する処理である。 Next, the avoidance determination processing in STEP018 of the flowchart shown in FIG. 3 will be described in detail with reference to the flowchart shown in FIG. FIG. 7 is a flowchart showing the avoidance determination process of the present embodiment. The avoidance determination process includes a first contact determination process, a second contact determination process, an approach contact determination process, a pedestrian determination process, and an artificial structure determination process, which are described below. This is a process of determining the possibility and the type of the object and determining whether or not the object is an avoidance target.
図7を参照して、まず、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第1接触判定処理を行う(STEP201)。第1接触判定処理は、対象物と自車両10との接触を自車両10の操舵やブレーキ操作によって余裕を持って回避できるか否かを判定するための処理である。具体的には、第1接触判定処理では、赤外線カメラ2R,2Lにより撮像される自車両10の前方の領域(赤外線カメラ2R,2Lの視野角内の領域)AR0のうち、自車両10からのZ方向の距離(自車両10の前後方向の距離)が、所定値以下となる領域AR1(以下、第1接触判定領域という)に対象物の現在の実空間位置が存在するか否かが判定される。
Referring to FIG. 7, first, the
この場合、自車両10からの距離に関する所定値は、対象物毎に設定される。具体的には、対象物と自車両10とのZ方向の相対速度Vs(=(Zv0−ZvdT)/dT)を求め、この相対速度Vsに所定の時間T1(例えば2〜5秒程度)を乗じた値Vs×T1が、第1接触判定領域AR1の、Z方向の境界を規定する上記所定値として設定される。なお、相対速度Vsが自車両10から遠ざかる向きの相対速度である場合には、対象物は第1接触判定領域AR1に存在しないと判定される。
In this case, the predetermined value regarding the distance from the
ここで、図8を参照して説明すると、図8は、自車両10の走行する道路を上方から見た図であり、自車両10の前方の領域区分が示されている。図8に示したように、領域AR0を太い実線で示す外側の三角形の領域とすると、第1接触判定領域AR1は、領域AR0内のZ1(=Vs×T1)より自車両10に近い領域となる。なお、第1衝突判定領域AR1は、上下方向では、所定の高さH(例えば自車両10の車高の2倍程度の高さ)を有する領域である。従って、対象物の現在のZ方向の座標値(距離)Zv0がVs×T1以下で、且つ、対象物の現在のY方向の座標値(高さ)Yv0がH以下である場合に、対象物が第1接触判定領域AR1に存在すると判定される。
Here, with reference to FIG. 8, FIG. 8 is a view of the road on which the
STEP201の判定結果がNOの場合(対象物が第1接触判定領域内AR1に存在しない)には、車両10の操舵やブレーキ操作によって対象物と車両10との接触を余裕を持って回避しうる状況である。この場合には、STEP207に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
If the determination result in STEP 201 is NO (the object does not exist in the first contact determination area AR1), contact between the object and the
STEP201の判定結果がYESの場合(対象物が第1接触判定領域AR1内に存在している)には、STEP202に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第2接触判定処理を行う。第2接触判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、対象物と車両10との接触の可能性が高いか否かを判定するための処理である。具体的には、第2接触判定処理では、対象物が、図8に示したように、第1接触判定領域AR1のうちの、自車両10の車幅αの両側に余裕βを加えた幅(α+2β)を有する領域AR2(以下、第2接触判定領域という)内に存在するか否かを判定する。なお、第2接触判定領域AR2も所定高さHを有する。
When the determination result in STEP 201 is YES (the object is present in the first contact determination area AR1), the process proceeds to STEP 202, and the
STEP202の判定結果がYESの場合(対象物が第2接触判定領域AR2内に存在している)には、対象物が現在の実空間位置に留まったとした場合に、該対象物が自車両10と接触する可能性が高い。この場合には、STEP203に進み、画像処理ユニット1は、対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う。なお、歩行者判定処理については、詳細を後述する。
When the determination result in STEP 202 is YES (the object is present in the second contact determination area AR2), the object is determined to be the
STEP203の判定結果がYESの場合(対象物は歩行者の可能性がある)には、STEP204に進み、更に対象物が歩行者である可能性の判定の信頼性を上げるために、画像処理ユニット1は、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う。人工構造物判定処理は、対象物の画像に、例えば予め登録された人工構造物の形状と一致する等の、歩行者ではないと考えられる特徴が検出された場合に、該対象物を人工構造物と判定し、回避対象から除外する処理である。 If the determination result in STEP 203 is YES (the object may be a pedestrian), the process proceeds to STEP 204, and in order to further increase the reliability of the determination of the possibility that the object is a pedestrian, 1 performs an artificial structure determination process for determining whether or not the object is an artificial structure. Artificial structure determination processing is performed when an image of a target object is detected as a feature that is not a pedestrian, for example, matches the shape of a pre-registered artificial structure. This is a process of determining an object and excluding it from the avoidance target.
STEP204の判定結果がNOの場合(対象物が人工構造物でない)には、STEP206に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。従って、対象物が第1接触判定領域内の第2接触判定領域に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。
When the determination result in STEP 204 is NO (the object is not an artificial structure), the process proceeds to STEP 206, where the
また、STEP203の判定結果がNOの場合(対象物は歩行者の可能性がない)、あるいは、STEP204の判定結果がYESの場合(対象物が人工構造物である)には、STEP207に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
If the determination result in STEP 203 is NO (the object is not a pedestrian) or if the determination result in STEP 204 is YES (the object is an artificial structure), the process proceeds to STEP 207. The
一方、STEP202の判定結果がNOの場合(対象物が第2接触判定領域AR2内に存在しない)には、STEP205に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、進入接触判定処理を行う。進入接触判定処理は、対象物が第2接触判定領域AR2内へ進入し、且つ自車両10との接触する可能性が高いか否かを判定する処理である。進入接触判定処理では、図8に示したように、第1接触判定領域AR1内で第2接触判定領域AR2よりX座標の絶対値が大きい(第2接触判定領域AR2の横方向外側の)領域AR3,AR4(以下、進入判定領域という)内にある対象物が、第2接触判定領域AR2に進入して自車両10と接触するか否かを、対象物の移動ベクトルに基づいて判定する。なお、進入判定領域AR3,AR4も所定高さHを有する。
On the other hand, if the determination result in STEP 202 is NO (the object does not exist in the second contact determination area AR2), the process proceeds to STEP 205, and the
具体的には、自車両10の前面のXY平面(自車両10の前後方向に垂直な面)と、対象物の移動ベクトルを含む直線との交点のX座標(車幅方向の位置)が、自車両10の車幅αよりも若干広い所定範囲内に存在する場合(対象物が相対的に自車両10に向かってくる場合)に、第2接触判定領域AR2に進入して接触する可能性が高いと判定される。
Specifically, the X coordinate (position in the vehicle width direction) of the intersection of the XY plane (the plane perpendicular to the front-rear direction of the host vehicle 10) of the
STEP205の判定結果がYESの場合には、対象物が将来、自車両10と接触する可能性が高い。そこで、この場合には、STEP206に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。また、STEP205の判定結果がNOの場合には、対象物が自車両10と接触する可能性が低いので、STEP207に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
When the determination result in STEP 205 is YES, there is a high possibility that the target object will come into contact with the
以上が、本実施形態における回避判定処理の詳細である。 The above is the detail of the avoidance determination process in this embodiment.
次に、図9に示すフローチャートを参照して、図7に示したフローチャートのSTEP203における歩行者判定処理について詳細に説明する。以下の説明では、時刻kに、自車両10の前方に歩行者が存在して自車両10が直進している場合において、時刻k+1で、自車両10が直進しており、時刻k+2で、自車両10が右方向に旋回している場合を例にして説明する。なお、時刻k,k+1,k+2における処理画像は、図4(a),(c),(e)に例示したようになる。
Next, the pedestrian determination processing in STEP 203 of the flowchart shown in FIG. 7 will be described in detail with reference to the flowchart shown in FIG. In the following description, at time k, when a pedestrian is present in front of the
図9を参照して、まず、画像処理ユニット1は、図3のSTEP009で検出されたヨーレートYRが所定閾値YRth以上であるか否かを判断する(STEP301)。
Referring to FIG. 9, first,
STEP301の判断結果がNOの場合(|YR|<YRth)は、自車両10のヨーレートの大きさが画像上に残像が生じない程度に十分に小さい場合であり、以下のSTEP302〜304の処理が行われ、STEP310又はSTEP311に進む。上述の図4(c)に示した時刻k+1の例がこの場合に相当しており、以下ではこの例を用いて説明する。
When the determination result in STEP 301 is NO (| YR | <YRth), the magnitude of the yaw rate of the
まず、STEP302に進み、画像処理ユニット1は、抽出された対象物Tk+1が歩行者であるか否かを判定するために用いる特徴量を算出する。具体的には、まず、画像処理ユニット1は、STEP008で算出された対象物Tk+1(2値化対象物)の面積Sk+1、重心位置Gck+1、対象物Tk+1の外接四角形の縦横比ASPk+1、高さHbk+1、幅Wbk+1、重心位置Gbk+1、面積(Hbk+1×Wbk+1)と、STEP014で算出された自車両10との距離Zv0k+1とを用いて、実空間での2値化対象物の形状特徴量を、歩行者判定用の特徴量として算出する。この実空間での2値化対象物の形状特徴量は、例えば、実空間における2値化対象物の幅ΔWb、実空間における2値化対象物の高さΔHb、実空間における2値化対象物の上端位置Yt、2値化対象物の面積と外接四角形の面積との比Rate=Sk+1/(Hbk+1×Wbk+1)、2値化対象物の重心位置と外接四角形の重心位置との実空間における距離Dis、外接四角形の縦横比ASPk+1等である。
First, proceeding to STEP 302, the
さらに、画像処理ユニット1は、2値化画像上での対象物Tk+1の画像部分Rk+1基づいて、図10に示したように、グレースケール画像上での対象物Tk+1の画像部分AREA0k+1(高さHgk+1,幅Wgk+1)を求める。なお、図10において、2値化画像上での対象物Tk+1の領域を、太い実線で囲まれた領域で示している。また、グレースケール画像上での対象物の画像部分を算出する具体的な手法としては、例えば、本出願人による特開2003−284057号公報の図8のS43に記載された手法を用いることができる。そして、画像処理ユニット1は、画像部分AREA0k+1内に、図10に示したように、マスク領域AREA1,AREA2,AREA3を設定し、AREA1の輝度平均値Ave_A1と、AREA2の輝度分散Var_A2と、AREA3の輝度分散Var_A3とを、歩行者判定用の特徴量として算出する。なお、AREA1は、対象物の頭部に相当する領域であり、AREA2は、対象物の腕及び胴部に相当する領域であり、AREA3は、対象物の頭部から下半身にかけての全身に相当する領域である。さらに、画像処理ユニット1は、AREA1と予め登録されている歩行者の頭部パターンを示すテンプレート画像との相関演算を行い、AREA1と頭部パターンとの類似の度合を、歩行者判定用の特徴量として算出する。
Further, the
次に、STEP303で、画像処理ユニット1は、上述の各特徴量が所定範囲内であるか否か判断する。なお、前記所定範囲は、対象物が歩行者の上半身や全身であるときに採り得る値の範囲として予め定められる範囲である。
Next, in STEP 303, the
STEP303の判断結果がYES(全特徴量が所定範囲内である)の場合には、STEP304に進み、画像処理ユニット1は、対象物Tk+1のグレースケール上での画像部分AREA0k+1を歩行者画像として画像メモリに記憶する。なお、歩行者画像は逐次(演算処理周期毎に)更新されて記憶される。そして、STEP310に進み、対象物が歩行者であると判定され、歩行者判定処理が終了される。STEP303の判断結果がNO(特徴量の少なくともいずれかが所定範囲内でない)の場合には、STEP311に進み、対象物が歩行者でないと判定され、歩行者判定処理が終了される。なお、この歩行者を判定する手法については、上述の特許文献1に詳細に記載されている。
If the determination result in STEP303 is YES (all feature quantity is within a predetermined range), the process proceeds to STEP 304, the
一方、STEP301の判断結果がYESの場合(|YR|≧YRth)は、自車両10が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分に大きい場合であり、以下のSTEP305〜309の処理が行われ、STEP310又はSTEP311に進む。上述の図4(e)に示した時刻k+2の例がこの場合に相当しており、以下ではこの例を用いて説明する。時刻k+2で抽出された対象物Tk+2のグレースケール上での画像部分AREA0k+2(高さHgk+2,幅Wgk+2)は、図11(b)に示したようになる。なお、図11(b)において、2値化画像上での対象物Tk+1の領域を、太い実線で囲まれた領域で示している。
On the other hand, when the determination result in STEP 301 is YES (| YR | ≧ YRth), the
まず、STEP305に進み、画像処理ユニット1は、時刻k+1でSTEP304において画像メモリに記憶された歩行者画像AREA0k+1(ヨーレートYRの大きさが所定閾値YRth以上となる直前の歩行者画像)を読み込む。次に、STEP306で、画像処理ユニット1は、読み込んだ歩行者画像AREA0k+1の大きさを補正する。具体的には、時刻k+1のSTEP014で算出された対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+2のSTEP014で算出された対象物Tk+2の自車両10に対する距離Zv0k+2とを用いて、補正後の歩行者画像AREA0k+1’の幅Wgk+1’=Wgk+1×Zv0k+2/Zv0k+1、高さHgk+1’=Hgk+1×Zv0k+2/Zv0k+1となるように補正する。補正された歩行者画像AREA0k+1’は、図11(a)に示したようになる。なお、図11(a)において、2値化画像上での対象物Tk+2領域を、太い実線で囲まれた領域で示している。
First, proceeding to STEP 305, the
次に、STEP307で、画像処理ユニット1は、補正した歩行者画像AREA0k+1’と、対象物Tk+2のグレースケール画像上での画像部分AREA0k+2とに、それぞれ、自車両10の旋回方向の逆側寄りのエッジ部分の部分領域Dk+1,Dk+2を、図11(a)(b)に示したように設定する。本実施形態では、部分領域Dk+1,Dk+2は、対象物が歩行者である場合に、その頭部と肩とが含まれるように設定される。なお、部分領域Dk+2は、部分領域Dk+1と同一形状とする。これにより、残像が生じていない側の画像部分に、部分領域Dk+1,Dk+2が設定される。
Next, in STEP 307, the
次に、STEP308で、画像処理ユニット1は、部分領域Dk+1と部分領域Dk+2との相関の度合を示す値である輝度値の絶対差分和を算出する。なお、本実施形態では、歩行者判定用の特徴量として、部分領域Dk+1,Dk+2の輝度分布を用いており、部分領域Dk+1,Dk+2の輝度分布の類似の度合として、絶対差分和を用いている。
Next, in STEP 308, the
次に、STEP309で、画像処理ユニット1は、算出された絶対差分和に基づいて、部分領域Dk+1,Dk+2の輝度分布の類似の度合を判断する。具体的には、算出された絶対差分和が所定閾値以下(相関の度合が高い)である場合に、類似の度合が高いと判断する。STEP309の判断結果がYES(類似の度合が高い)の場合には、STEP310に進み、対象物Tk+2が歩行者である(歩行者の可能性がある)と判定され、歩行者判定処理が終了される。図11に示した例では、類似の度合が高いと判断され、対象物Tk+2が歩行者であると判定される。STEP309の判断結果がNO(類似の度合が低い)の場合には、STEP311に進み、対象物Tk+2が歩行者でない(歩行者の可能性がない)と判定され、歩行者判定処理が終了される。これにより、自車両10の旋回時に、取得される画像上に生じる残像の影響を低減して、抽出された対象物Tk+2が歩行者であるか否かを精度良く判定することができる。
Next, in STEP 309, the
以上の処理により、本実施形態によれば、自車両10の旋回時に、画像上に生じる残像の影響を低減して、赤外線カメラ2R,2Lにより得られた画像から、自車両10の周辺に存在する歩行者を精度良く検出することができる。これにより、自車両10の運転者に情報の提示等を適切に行うことができる。
Through the above processing, according to the present embodiment, the influence of the afterimage generated on the image is reduced when the
なお、本実施形態では、前述したように、画像処理ユニット1が、その機能として、対象物抽出手段11と、歩行者判定手段12と、歩行者画像記憶手段13と、距離検出手段14とを含んでいる。より具体的には、図3のSTEP004〜007が対象物抽出手段11に相当し、図3のSTEP011〜014が距離検出手段14に相当し、図7のSTEP203及び図9のSTEP301〜303,STEP305〜311が歩行者判定手段12に相当し、図9のSTEP304が歩行者画像記憶手段13に相当する。
In the present embodiment, as described above, the
また、本実施形態では、前述したように、画像処理ユニット1が、その機能として、同一性判定手段16と、対象物画像記憶手段15とを含んでいる。より具体的には、図3のSTEP010及び図5のSTEP101,103〜111が同一性判定手段16に相当し、図5のSTEP102が対象物画像記憶手段15に相当する。
In this embodiment, as described above, the
次に、本発明の第2実施形態について説明する。なお、本実施形態は、第1実施形態において、画像処理ユニット1に、自車両10の上下方向の加速度を逐次検出する加速度センサ17が接続されて自車両10の上下方向の速度が算出されるものであり、画像処理ユニット1の機能である対象物画像記憶手段15と同一性判定手段16との作動が第1実施形態と相違する。以下の説明では、第1実施形態と同一の構成については、第1実施形態と同一の参照符号を用いて説明を省略する。なお、本実施形態は、本発明の第2態様の対象物検出装置に相当する。
Next, a second embodiment of the present invention will be described. In the present embodiment, in the first embodiment, the
本実施形態の対象物検出装置において、画像処理ユニット1の機能である対象物画像記憶手段15は、加速度センサ17より検出された自車両10の上下方向の加速度を積分して得られた自車両10の上下方向の速度の大きさが所定閾値未満であるとき(自車両10のピッチングが検出されていないとき)に取得された画像から対象物抽出手段11により抽出された対象物の画像部分を、対象物画像として逐次記憶する。
In the object detection device of the present embodiment, the object image storage means 15 that is a function of the
同一性判定手段16は、時刻Taにおける上下方向の速度の大きさが所定閾値以上であるとき(自車両10のピッチングが検出されたとき)に、時刻Taに取得された画像における第1の対象物の画像部分の左右の両側部分のうちの、自車両10のピッチング方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の左右の両側部分のうちの、自車両10のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。また、同一性判定手段16は、時刻Taにおける上下方向の速度の大きさが所定閾値未満であるとき(自車両10のピッチングが検出されていないとき)は、時刻Taに取得された画像における第1の対象物の画像部分の全体的な特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の全体的な特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。以上説明した以外の構成は、第1実施形態と同じである。
The identity determination means 16 is the first target in the image acquired at the time Ta when the magnitude of the vertical speed at the time Ta is equal to or greater than a predetermined threshold (when pitching of the
次に、本実施形態の対象物検出装置の全体的な作動(対象物検出・警報動作)を説明する。なお、本実施形態における対象物検出装置の対象物検出・警報動作は、第1実施形態と、自車両10の走行状態に関する検出値の読み込み等を行う処理(図3のSTEP009)と、同一対象物認識処理(図3のSTEP010)のみが相違するものである。
Next, the overall operation (object detection / alarm operation) of the object detection device of the present embodiment will be described. Note that the object detection / alarm operation of the object detection device in the present embodiment is the same as that in the first embodiment and the process (STEP 009 in FIG. 3) for reading the detection value related to the traveling state of the
本実施形態のSTEP009で、画像処理ユニット1は、ヨーレートセンサ3により検出されるヨーレートYRと、車速センサ4により検出される車速VCAR(水平方向の速度)と共に、加速度センサ17により検出される上下方向の加速度GYを読み込む(STEP009)。なお、このSTEP009では、ヨーレートYRを時間積分することにより、自車両10の回頭角θrの算出も行われる。また、加速度GYを時間積分することにより、自車両10の上下方向の速度VYの算出も行われる。
In STEP 009 of the present embodiment, the
次に、STEP010で、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎に同一対象物を認識する処理を行う。ここで、本実施形態の同一対象物認識処理について、図12に示すフローチャートを参照して説明する。なお、本実施形態では、図3のSTEP010及び図12のSTEP401,403〜411が同一性判定手段16に相当し、図12のSTEP402が対象物画像記憶手段15に相当する。
Next, in STEP 010, the
以下の説明では、時刻kに、自車両10の前方に歩行者が存在して自車両10が直進している場合において、時刻k+1で、自車両10が直進を継続し、時刻k+2で、自車両10が下方向にピッチングしている場合を例にして説明する。なお、時刻k,k+1における処理画像は、図4(a),(c)に例示したようになる。
In the following description, at time k, when a pedestrian is present in front of the
図13(a)には、時刻k+2において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図13(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。このとき、図13(a)の例では、自車両10が下方向にピッチングしているため、歩行者の画像部分の下側に残像が生じている。このため、図13(a)に示す2値化領域には、歩行者に相当する領域F3と共に、残像に相当する領域F4(点描を付した領域)が含まれている。そして、図13(a)に示す2値化領域は、上述のSTEP005〜007の処理により、図13(b)に例示するように、対象物(2値化対象物)Tk+2として抽出される。このとき、対象物Tk+2の画像部分Rk+2は、幅Wbk+2、高さHbk+2とする。
FIG. 13A illustrates an image obtained by binarizing an image obtained by the
図12を参照して、同一対象物認識処理において、まず、画像処理ユニット1は、図3のSTEP009で算出された自車両10の上下方向の速度VYが所定閾値VYth以上であるか否かを判断する(STEP401)。
Referring to FIG. 12, in the same object recognition process, first, the
STEP401の判断結果がNOの場合(|VY|<VYth)は、自車両10の上下方向の速度の大きさが画像上に残像が生じない程度に十分に小さい場合であり、以下のSTEP402〜404の処理が行われ、STEP410又はSTEP411に進む。上述の図4(c)に示した時刻k+1の例がこの場合に相当している。なお、STEP402〜404,410,411の処理は、それぞれ、第1実施形態のSTEP102〜104,110,111の処理と同じであるので、説明を省略する。
When the determination result in STEP 401 is NO (| VY | <VYth), the magnitude of the vertical speed of the
一方、STEP401の判断結果がYESの場合(|VY|≧VYth)は、自車両10がピッチングして上下方向の速度の大きさが画像上に残像が生じる程度に十分大きい場合であり、以下のSTEP405〜409の処理が行われ、STEP410又はSTEP411に進む。上述の図13(a)に示した時刻k+2の例がこの場合に相当しており、以下ではこの例を用いて説明する。時刻k+2で抽出された対象物Tk+2の画像部分Rk+2は、図14(b)に示したようになる。
On the other hand, when the determination result in STEP 401 is YES (| VY | ≧ VYth), the
まず、STEP405に進み、画像処理ユニット1は、時刻k+1でSTEP402において画像メモリに記憶された対象物画像Rk+1(上下方向の速度VYが所定閾値VRth以上となる直前の対象物画像)を読み込む。次に、STEP406で、画像処理ユニット1は、読み込んだ対象物画像Rk+1の大きさ(幅Wbk+1と高さHbk+1)を補正する。具体的には、第1実施形態のSTEP105と同様に、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+2の対象物Tk+2の自車両10に対する距離Zv0k+2とを用いて、補正後の対象物画像Rk+1’の幅Wbk+1’=Wbk+1×Zv0k+2/Zv0k+1、高さHbk+1’=Hbk+1×Zv0k+2/Zv0k+1となるように補正する。補正された対象物画像Rk+1’は、図14(a)に示したようになる。
First, proceeding to STEP 405, the
次に、STEP407で、画像処理ユニット1は、補正した対象物画像Rk+1’と、対象物Tk+2の画像部分Rk+2とに、それぞれ、自車両10のピッチング方向の逆側寄りのエッジ部分の部分領域Ck+1,Ck+2を、図13(a)(b)に示したように設定する。なお、部分領域Ck+2は、部分領域Ck+1と同一形状とする。これにより、残像が生じていない側の画像部分に、部分領域Ck+1,Ck+2が設定される。
Next, in STEP 407, the
次に、STEP408で、画像処理ユニット1は、部分領域Ck+1と部分領域Ck+2との相関の度合を示す値である輝度値の絶対差分和を算出する。なお、本実施形態では、同一性判定用の特徴量として、部分領域Ck+1,Ck+2の輝度分布を用いており、部分領域Ck+1,Ck+2の輝度分布の類似の度合として、絶対差分和を用いている。
Next, in STEP 408, the
次に、STEP409で、画像処理ユニット1は、算出された絶対差分和に基づいて、部分領域Ck+1,Ck+2の輝度分布の類似の度合を判断する。具体的には、算出された絶対差分和が所定閾値以下(相関の度合が高い)である場合に、類似の度合が高いと判断する。
Next, in STEP 409, the
STEP409の判断結果がYES(類似の度合が高い)の場合には、STEP410に進み、対象物Tk+1と対象物Tk+2とが同一であると判定されて、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更され、同一対象物認識処理が終了される。図13に示した例では、類似の度合が高いと判断され、対象物Tk+1と対象物Tk+2とが同一であると判定される。STEP409の判定結果がNO(類似の度合が低い)の場合には、STEP411に進み、対象物Tk+1と対象物Tk+2とが同一でないと判定されて、同一対象物認識処理が終了される。これにより、自車両10のピッチング時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く認識することができる。
If the determination result in STEP 409 is YES (the degree of similarity is high), the process proceeds to STEP 410, where it is determined that the object T k + 1 and the object T k + 2 are the same, and the object T k + The label of 2 is changed to the same label as the label of the object T k + 1 , and the same object recognition process is terminated. In the example illustrated in FIG. 13, it is determined that the degree of similarity is high, and it is determined that the object T k + 1 and the object T k + 2 are the same. When the determination result in STEP 409 is NO (the degree of similarity is low), the process proceeds to STEP 411, where it is determined that the object T k + 1 and the object T k + 2 are not the same, and the same object recognition process is performed. Is terminated. Thereby, at the time of pitching of the
さらに、時刻k+3で、画像上に対象物Tk+3が(対象物Tk+2と同一の対象物)抽出され、時刻k+2と同様に、自車両10が下方向にピッチングしている場合(VY≧VYth)には、時刻k+2と同様に、STEP405〜409の処理が行われる。この場合に、時刻k+1,k+2,k+3は、それぞれ、前記第4発明の時刻Tc,Tb,Taに相当する。
Further, at time k + 3, the object T k + 3 (the same object as the object T k + 2 ) is extracted on the image, and the
このとき、STEP406で、画像処理ユニット1は、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+3の対象物Tk+3の自車両10に対する距離Zv0k+3とを用いて、対象物画像Rk+1の大きさを補正する。次に、STEP407で、画像処理ユニット1は、補正した対象物画像Rk+1”と、対象物Tk+3の画像部分Rk+3とに、それぞれ、自車両10のピッチング方向と逆側のエッジ寄りの部分である部分領域Ck+1,Ck+3を設定する。次に、STEP408で、部分領域Ck+1と部分領域Ck+3との輝度値の絶対差分和が算出され、STEP409で、部分領域Ck+1と部分領域Ck+3との輝度分布の類似の度合が判断される。
At this time, in STEP 406, the
そして、STEP409の判断結果がYESとなり、STEP410で、対象物Tk+1と対象物Tk+3とが同一であると判定されて、対象物Tk+3のラベルが対象物Tk+1のラベルと同じラベルに変更される。このとき、時刻k+2の演算処理周期において、STEP409で部分領域Ck+1,Ck+2の輝度分布の類似の度合が高いと判断され、STEP410で、対象物Tk+1と対象物Tk+2とが同一であると判定され、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更されている。よって、対象物Tk+3のラベルが対象物Tk+2のラベルと同じラベルに変更されることとなり、時刻k+3の対象物Tk+3が時刻k+2の対象物Tk+2と同一であることが認識される。
Then, the determination result in STEP 409 is YES, and in STEP 410, it is determined that the object T k + 1 and the object T k + 3 are the same, and the label of the object T k + 3 is the object T k +. It is changed to the same label as 1 label. At this time, it is determined in STEP 409 that the degree of similarity of the luminance distributions of the partial regions C k + 1 and C k + 2 is high in the calculation processing cycle at
以上が、本実施形態における同一対象物認識処理の詳細である。 The above is the details of the same object recognition process in the present embodiment.
なお、本実施形態の歩行者判定処理では、自車両10のピッチングにより画像上に生じる上下方向の残像が、歩行者であることを示す特徴量(例えば頭部の輝度分布等)に及ぼす影響は少ないと想定して、第1実施形態のSTEP302〜303と同様に、対象物の画像部分の全体的な特徴量に基づいて、該対象物が歩行者であるか否かを判定すればよい。
In the pedestrian determination process according to the present embodiment, the influence of an afterimage in the vertical direction generated on the image due to pitching of the
また、本実施形態では、画像処理ユニット1がその機能として対象物画像記憶手段13を備え、画像処理ユニット1は、ピッチングが検出された状態となる直前に対象物画像記憶手段13により記憶された対象物画像と、対象物の画像部分との類似の度合に基づいて、対象物の同一性を判定するものとがしたが、他の実施形態として、画像処理ユニット1は、対象物画像の代わりに、例えば逐次直前の演算処理周期に抽出された対象物の画像部分を用いて類似の度合を算出し、対象物の同一性を判定してもよい。
In the present embodiment, the
このとき、画像処理ユニット1は、例えば、上述の時刻k+3の場合に、時刻k+2とk+3とで、対象物Tk+2,Tk+3の画像部分のうちの自車両10のピッチング方向と逆側のエッジ寄り部分Ck+2,Ck+3の特徴量を直接比較して類似の度合を算出し、対象物Tk+2と対象物Tk+3との同一性を判定する。この場合に、時刻k+2,k+3は、それぞれ、前記第3発明の時刻Tb,Taに相当する。このようにしても、自車両10のピッチング方向と逆側のエッジ寄りの部分の特徴量は、残像の影響が低減されたものとなるので、自車両10のピッチング時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く判定することができる。
At this time, for example, in the case of the above-mentioned time k + 3, the
また、本実施形態では、画像処理ユニット1は、ピッチングによって変化する状態量の検出値として、上下方向の速度(並進速度)VYを用いて、速度VYの大きさが所定閾値VYth以上のときにピッチングが検出されたと判断し、速度VYの大きさが所定閾値VYth未満のときにピッチングが検出されていないと判断するものとしている。これに対し、他の実施形態として、画像処理ユニット1は、上下方向の速度VYの代わりに、自車両10のピッチング軸周りの角速度PRを用いて、ピッチング軸周りの角速度PRの大きさに応じて自車両10のピッチングを検出し、対象物の同一性を判定する処理を実行するようにしてもよい。
In the present embodiment, the
このとき、ピッチング検出手段として、自車両10の前部(赤外線カメラ2R,2Lの近傍箇所)に取り付けられた上下方向及び前後方向の加速度センサを用い、逐次検出した上下方向及び前後方向の加速度を時間積分することにより、ピッチング軸周りの角速度PRを算出してもよい。または、ピッチング検出手段として、自車両10のピッチング軸周りの角速度PRを逐次検出するレートセンサを用いてもよい。または、自車両10のピッチング角度(ピッチング軸周りの角度)を逐次検出し、所定時間当たりのピッチング角度の変化量(ピッチング軸周りの角速度PR)を算出してもよい。
At this time, as the pitching detection means, vertical and longitudinal acceleration sensors attached to the front part of the host vehicle 10 (in the vicinity of the
また、前記第1及び第2実施形態では、画像処理ユニット1は、距離Zv0k+2,Zv0k+1に基づいて対象物画像Rk+1の大きさを補正し、補正した対象物画像Rk+1’を用いて類似の度合を算出したが(STEP106〜108,STEP406〜408)、画像処理ユニット1は、演算処理周期が十分に短い場合には、時刻k+1とk+2とで、画像上での対象物の大きさの変化が少ないと想定して、補正を行わず対象物画像Rk+1をそのまま用いて類似の度合を算出してもよい。
In the first and second embodiments, the
また、前記第1及び第2実施形態では、画像処理ユニット1は、同一対象物認識処理で同一性判定用の特徴量を算出する際に、2値化画像上での対象物の画像部分を用いたが、第1実施形態の歩行者判定処理のように、グレースケール画像上での対象物の画像部分を用いてもよい。
In the first and second embodiments, when the
また、前記第1及び第2実施形態では、画像処理ユニット1は、同一対象物認識処理で同一性判定用の特徴量を算出する際に、部分領域Ck+1,Ck+2の輝度分布を用いるものとしたが(STEP108,STEP408)、他の実施形態として、例えば、同一性判定用の特徴量を算出する際に、部分領域Ck+1,Ck+2における対象物の輪郭線の形状を用いてもよい。さらに、同一性判定用の特徴量として、部分領域Ck+1,Ck+2の輝度分布、部分領域Ck+1,Ck+2における対象物の輪郭線の形状等の複数の特徴量を組み合わせて用いてもよい。
In the first and second embodiments, the
また、前記第1及び第2実施形態では、画像処理ユニット1は、STEP018で回避対象であると判定された対象物について、自車両10の運転者に注意喚起を行うものとしたが、他の実施形態として、例えば、車両10が、車両のステアリング装置、ブレーキ装置、アクセル装置のいずれかをアクチュエータによって操作可能(ひいては車両10の走行挙動を操作可能)なものである場合には、STEP018で回避対象であると判定された対象物との接触を回避するように、もしくは、回避が容易になるように自車両10のステアリング装置、ブレーキ装置、アクセル装置を制御するようにしてもよい。例えば、運転者によるアクセルペダルの必要踏力が、回避対象の対象物が存在しない場合(通常の場合)よりも大きくなるようにアクセル装置を制御して、加速しにくくする。あるいは、回避対象と車両10との接触を回避するために要求されるステアリング装置の操舵方向側へのステアリングハンドルの要求回転力を、反対側へのステアリングハンドルの要求回転力よりも低くして、当該操舵方向側へのステアリングハンドルの操作を容易に行い得るようにする。あるいは、ブレーキ装置のブレーキペダルの踏み込み量に応じた車両10の制動力の増加速度を、通常の場合よりも高くする。このようにすることで、回避対象との接触を避けるための車両10の運転が容易になる。また、上記のようなステアリング装置の制御と、表示装置7もしくはスピーカ6による注意喚起とは、並行して行うようにしてもよい。
In the first and second embodiments, the
また、前記第1及び第2実施形態では、距離検出手段14は、対象物の自車両10に対する距離を、赤外線カメラ2R,2Lを介して取得された画像に基づいて算出したが、他の実施形態として、距離検出手段14は、対象物の自車両10に対する距離を、ミリ波レーダ等の他のセンサにより検出された対象物の位置情報に基づいて算出するものとしてもよい。
In the first and second embodiments, the
また、前記第1及び第2実施形態では、撮像手段として赤外線カメラを使用したが、例えば通常の可視光線のみ検出可能なCCDカメラ等を使用してもよい。ただし、赤外線カメラを用いることにより、歩行者や走行中の車両等の抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現可能とすることができる。 In the first and second embodiments, an infrared camera is used as the imaging means. However, for example, a CCD camera that can detect only normal visible light may be used. However, by using an infrared camera, it is possible to simplify the extraction process of pedestrians, running vehicles, and the like, and it can be realized even when the calculation capability of the calculation device is relatively low.
2R,2L…赤外線カメラ(撮像手段)、3…ヨーレートセンサ(ヨーレート検出手段)、10…車両、11…対象物抽出手段、14…距離検出手段、15…対象物画像記憶手段、16…同一性判定手段、17…加速度センサ(ピッチング検出手段)。 2R, 2L ... Infrared camera (imaging means), 3 ... Yaw rate sensor (yaw rate detection means), 10 ... Vehicle, 11 ... Object extraction means, 14 ... Distance detection means, 15 ... Object image storage means, 16 ... Identity Determination means, 17... Acceleration sensor (pitching detection means).
Claims (10)
前記車両のヨーレートを逐次検出するヨーレート検出手段を備え、
前記同一性判定手段は、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出装置。 Object extraction means for sequentially extracting objects existing around the vehicle from an image acquired via an imaging means mounted on the vehicle, and object extraction means from an image acquired at an arbitrary time Ta The same determination as to whether or not the extracted first object is the same as the second object extracted by the object extraction means from the image acquired at time Tb prior to the time Ta In the object detection device provided with sex determination means,
Yaw rate detection means for sequentially detecting the yaw rate of the vehicle,
The identity determination unit is configured to detect the left and right side portions of the image portion of the first object in the image acquired at the time Ta when at least the magnitude of the yaw rate at the time Ta is a predetermined threshold value or more. Of the characteristic amount of the portion near the edge opposite to the turning direction of the vehicle and the left and right side portions of the image portion of the second object in the image acquired at the time Tb, the vehicle The object detection is characterized in that it is determined whether or not the first object is the same as the second object based on the feature amount of the portion near the edge on the opposite side to the turning direction of apparatus.
前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ヨーレートの大きさが前記所定値未満から該所定値以上に変化した直後で、且つ、該ヨーレートの大きさが該所定値以上に維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、該ヨーレートの大きさが該所定閾値以上に変化する直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする請求項1記載の対象物検出装置。 A target for sequentially storing, as a target image, an image portion of a target extracted by the target extraction unit from an image acquired when the magnitude of the yaw rate detected by the yaw rate detection unit is less than the predetermined threshold. Comprising object image storage means,
The identity determination unit is configured so that the time Ta and the time Tb are at least immediately after the magnitude of the yaw rate changes from less than the predetermined value to the predetermined value or more, and the magnitude of the yaw rate exceeds the predetermined value. The edge on the opposite side to the turning direction of the vehicle in the left and right side portions of the image portion of the first object in the image acquired at the time Ta when the time is within a predetermined period to be maintained The left and right side portions of the object image stored by the object image storage means from the image acquired at the time Tc immediately before the feature amount of the near portion and the magnitude of the yaw rate change to the predetermined threshold value or more. The degree of similarity between the feature amount of the portion near the edge opposite to the turning direction of the vehicle, and the left and right side portions of the image portion of the second object in the image acquired at the time Tb My car Of the portion closer to the edge opposite to the turning direction of the vehicle and the feature amount of the portion closer to the edge opposite to the turning direction of the vehicle of the left and right side portions of the object image at the time Tc. 2. The object detection device according to claim 1, wherein it is determined whether or not the first object is the same as the second object based on a second similarity degree.
前記車両のピッチングを逐次検出するピッチング検出手段を備え、
前記同一性判定手段は、少なくとも前記時刻Taにおいて前記ピッチング検出手段によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出装置。 Object extraction means for sequentially extracting objects existing around the vehicle from an image acquired via an imaging means mounted on the vehicle, and object extraction means from an image acquired at an arbitrary time Ta The same determination as to whether or not the extracted first object is the same as the second object extracted by the object extraction means from the image acquired at time Tb prior to the time Ta In the object detection device provided with sex determination means,
Pitching detection means for sequentially detecting the pitching of the vehicle,
The identity determination means includes at least upper and lower side portions of the image portion of the first object in the image acquired at the time Ta when pitching is detected by the pitching detection means at least at the time Ta. Of the characteristic amount of the portion near the edge opposite to the pitching direction of the vehicle and both the upper and lower side portions of the image portion of the second object in the image acquired at the time Tb. An object detection device that determines whether or not the first object is the same as the second object based on a feature amount of a portion near the edge opposite to the pitching direction. .
前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ピッチング検出手段によりピッチングが検出されていない状態からピッチングが検出された状態に変化した直後で、且つ、該ピッチングが検出された状態が維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、該ピッチングが検出された状態となる直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする請求項3記載の対象物検出装置。 An object image storage means for sequentially storing, as an object image, an image portion of the object extracted by the object extraction means from an image acquired when no pitching is detected by the pitching detection means;
The identity determination means is a state immediately after the time Ta and the time Tb are changed from a state in which no pitching is detected by the pitching detection means to a state in which pitching is detected, and in which the pitching is detected. Of the left and right side portions of the image portion of the first object in the image acquired at the time Ta, on the opposite side to the pitching direction of the vehicle. Of the left and right side portions of the object image stored by the object image storage means from the feature amount of the portion near the edge and the image acquired at the time Tc immediately before the pitching is detected, The first similarity degree with the feature quantity of the portion near the edge opposite to the pitching direction of the vehicle, and the image of the second object in the image acquired at the time Tb Of the left and right side portions of the minute, and the feature amount of the edge side portion opposite to the pitching direction of the vehicle, and the pitching direction of the vehicle of the left and right side portions of the object image at the time Tc Determining whether or not the first object is the same as the second object based on the second degree of similarity with the feature amount of the portion near the opposite edge. The object detection device according to claim 3.
前記同一性判定手段は、前記時刻Taに取得された画像における前記第1の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第1の類似の度合を算出すると共に、前記時刻Tbに取得された画像における前記第2の対象物の、該距離検出手段により検出された距離と、該時刻Tcにおける該対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第2の類似の度合を算出することを特徴とする請求項2又は請求項4記載の対象物検出装置。 A distance detecting means for detecting a distance of the object extracted by the object extracting means with respect to the vehicle;
The identity determination means includes a distance detected by the distance detection means of the first object in the image acquired at the time Ta, and an object corresponding to the object image at the time Tc. Based on the distance detected by the distance detection means, a means for correcting the size of the object image is calculated, and the first similarity degree is calculated using the corrected object image. The distance detected by the distance detecting means of the second object in the image acquired at the time Tb and the object corresponding to the object image at the time Tc are detected by the distance detecting means. And a means for correcting the size of the object image based on the calculated distance, and calculating the second similarity degree using the corrected object image. 2 or claim 4 The system for detecting the object.
前記車両のヨーレートを逐次検出するヨーレート検出ステップを備え、
前記同一性判定ステップにおいて、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出方法。 By an object extraction step for sequentially extracting objects existing around the vehicle from an image acquired via an imaging means mounted on the vehicle, and an object extraction step from an image acquired at an arbitrary time Ta The same determination as to whether or not the extracted first object is the same as the second object extracted by the object extraction step from the image acquired at time Tb before the time Ta An object detection method comprising a sex determination step,
A yaw rate detection step for sequentially detecting the yaw rate of the vehicle;
In the identity determination step, at least when the magnitude of the yaw rate at the time Ta is equal to or greater than a predetermined threshold, the left and right side portions of the image portion of the first object in the image acquired at the time Ta Of the characteristic amount of the portion near the edge opposite to the turning direction of the vehicle and the left and right side portions of the image portion of the second object in the image acquired at the time Tb, the vehicle The object detection is characterized in that it is determined whether or not the first object is the same as the second object based on the feature amount of the portion near the edge on the opposite side to the turning direction of Method.
前記車両のピッチングを逐次検出するピッチング検出ステップを備え、
前記同一性判定ステップにおいて、少なくとも前記時刻Taにおいて前記ピッチング検出ステップでピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出方法。 By an object extraction step for sequentially extracting objects existing around the vehicle from an image acquired via an imaging means mounted on the vehicle, and an object extraction step from an image acquired at an arbitrary time Ta The same determination as to whether or not the extracted first object is the same as the second object extracted by the object extraction step from the image acquired at time Tb before the time Ta An object detection method comprising a sex determination step,
A pitching detection step for sequentially detecting the pitching of the vehicle;
In the identity determination step, at least when the pitching is detected in the pitching detection step at the time Ta, out of both upper and lower side portions of the image portion of the first object in the image acquired at the time Ta Of the characteristic amount of the portion near the edge opposite to the pitching direction of the vehicle and both the upper and lower side portions of the image portion of the second object in the image acquired at the time Tb. An object detection method for determining whether or not the first object is the same as the second object based on a feature amount of a portion near the edge opposite to the pitching direction. .
前記車両のヨーレートの検出値を逐次取得するヨーレート取得処理をコンピュータに実行させる機能を備え、
前記同一性判定処理として、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする対象物検出用プログラム。 By an object extraction process for sequentially extracting objects existing around the vehicle from an image acquired via an imaging means mounted on the vehicle, and an object extraction process from an image acquired at an arbitrary time Ta The same determination as to whether or not the extracted first object is the same as the second object extracted by the object extraction process from the image acquired at time Tb prior to the time Ta An object detection program for causing a computer to execute sex determination processing,
A function of causing a computer to execute a yaw rate acquisition process for sequentially acquiring a detected value of the yaw rate of the vehicle,
As the identity determination processing, when at least the magnitude of the yaw rate at the time Ta is equal to or greater than a predetermined threshold, the left and right side portions of the image portion of the first object in the image acquired at the time Ta Of the characteristic amount of the portion near the edge opposite to the turning direction of the vehicle and the left and right side portions of the image portion of the second object in the image acquired at the time Tb, the vehicle A function of causing a computer to execute a process of determining whether or not the first object is the same as the second object based on a feature amount of a portion near the edge on the opposite side to the turning direction of A program for detecting an object, characterized by comprising a program.
前記車両のピッチングによって変化する状態量の検出値を逐次取得するピッチング取得処理をコンピュータに実行させる機能を備え、
前記同一性判定処理として、少なくとも前記時刻Taにおいて前記ピッチング取得処理で取得された検出値によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする対象物検出用プログラム。 By an object extraction process for sequentially extracting objects existing around the vehicle from an image acquired via an imaging means mounted on the vehicle, and an object extraction process from an image acquired at an arbitrary time Ta The same determination as to whether or not the extracted first object is the same as the second object extracted by the object extraction means from the image acquired at time Tb prior to the time Ta An object detection program for causing a computer to execute sex determination processing,
A function of causing a computer to execute a pitching acquisition process for sequentially acquiring detection values of state quantities that change due to the pitching of the vehicle,
As the identity determination processing, at least when the pitching is detected by the detection value acquired by the pitching acquisition processing at the time Ta, the image portion of the first object in the image acquired at the time Ta Of the upper and lower side parts, the feature amount of the part near the edge opposite to the pitching direction of the vehicle, and the upper and lower side parts of the image part of the second object in the image acquired at the time Tb A process for determining whether or not the first object is the same as the second object based on the feature amount of the portion near the edge opposite to the pitching direction of the vehicle. A program for detecting an object, which is a program having a function to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006163834A JP2007334511A (en) | 2006-06-13 | 2006-06-13 | Object detection device, vehicle, object detection method and program for object detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006163834A JP2007334511A (en) | 2006-06-13 | 2006-06-13 | Object detection device, vehicle, object detection method and program for object detection |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007334511A true JP2007334511A (en) | 2007-12-27 |
Family
ID=38933950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006163834A Pending JP2007334511A (en) | 2006-06-13 | 2006-06-13 | Object detection device, vehicle, object detection method and program for object detection |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007334511A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009150771A1 (en) * | 2008-06-12 | 2009-12-17 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP2011119917A (en) * | 2009-12-02 | 2011-06-16 | Denso Corp | Display device for vehicle |
US8284253B2 (en) | 2008-04-24 | 2012-10-09 | Honda Motor Co., Ltd. | Vehicle periphery monitoring apparatus |
CN105015469A (en) * | 2014-04-25 | 2015-11-04 | 本田技研工业株式会社 | Object detection apparatus and object detection method |
KR101835409B1 (en) * | 2015-12-03 | 2018-03-09 | 현대오트론 주식회사 | Apparatus for controlling head-up display and method thereof |
WO2018063572A1 (en) * | 2016-10-01 | 2018-04-05 | Intel Corporation | Technologies for motion-compensated virtual reality |
KR20190025698A (en) * | 2016-08-01 | 2019-03-11 | 코너트 일렉트로닉스 리미티드 | A method for predicting the motion of an object and capturing an object in a peripheral region of the vehicle, a camera system and an automobile |
JPWO2021193352A1 (en) * | 2020-03-25 | 2021-09-30 |
-
2006
- 2006-06-13 JP JP2006163834A patent/JP2007334511A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8284253B2 (en) | 2008-04-24 | 2012-10-09 | Honda Motor Co., Ltd. | Vehicle periphery monitoring apparatus |
WO2009150771A1 (en) * | 2008-06-12 | 2009-12-17 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP2009301283A (en) * | 2008-06-12 | 2009-12-24 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
US8189868B2 (en) | 2008-06-12 | 2012-05-29 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
JP2011119917A (en) * | 2009-12-02 | 2011-06-16 | Denso Corp | Display device for vehicle |
CN105015469A (en) * | 2014-04-25 | 2015-11-04 | 本田技研工业株式会社 | Object detection apparatus and object detection method |
KR101835409B1 (en) * | 2015-12-03 | 2018-03-09 | 현대오트론 주식회사 | Apparatus for controlling head-up display and method thereof |
KR20190025698A (en) * | 2016-08-01 | 2019-03-11 | 코너트 일렉트로닉스 리미티드 | A method for predicting the motion of an object and capturing an object in a peripheral region of the vehicle, a camera system and an automobile |
KR102202343B1 (en) * | 2016-08-01 | 2021-01-13 | 코너트 일렉트로닉스 리미티드 | Method for capturing objects in the surrounding area of a vehicle by predicting the motion of an object, a camera system, and a vehicle |
US11170232B2 (en) * | 2016-08-01 | 2021-11-09 | Connaught Electronics Ltd. | Method for capturing an object in an environmental region of a motor vehicle with prediction of the movement of the object, camera system as well as motor vehicle |
WO2018063572A1 (en) * | 2016-10-01 | 2018-04-05 | Intel Corporation | Technologies for motion-compensated virtual reality |
JPWO2021193352A1 (en) * | 2020-03-25 | 2021-09-30 | ||
WO2021193352A1 (en) * | 2020-03-25 | 2021-09-30 | Necソリューションイノベータ株式会社 | Image tracking device, image tracking method, and computer-readable recording medium |
JP7351571B2 (en) | 2020-03-25 | 2023-09-27 | Necソリューションイノベータ株式会社 | Image tracking device, image tracking method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4410292B1 (en) | Vehicle periphery monitoring device | |
JP4470067B2 (en) | Object type determination device, vehicle | |
JP4173896B2 (en) | Vehicle periphery monitoring device | |
JP5706874B2 (en) | Vehicle periphery monitoring device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP5503728B2 (en) | Vehicle periphery monitoring device | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
US7233233B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
US7483549B2 (en) | Vehicle surroundings monitoring apparatus | |
US7969466B2 (en) | Vehicle surroundings monitoring apparatus | |
EP2352136A1 (en) | System for monitoring the area around a vehicle | |
JP4171501B2 (en) | Vehicle periphery monitoring device | |
JP2007193445A (en) | Periphery monitoring device for vehicle | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
JP2010146494A (en) | Vehicle surroundings monitoring device | |
US20060126898A1 (en) | Vehicle surroundings monitoring apparatus | |
US7526104B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4887537B2 (en) | Vehicle periphery monitoring device | |
US7515737B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4823753B2 (en) | Vehicle periphery monitoring device | |
JP4627305B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring method, and vehicle periphery monitoring program | |
JP4629638B2 (en) | Vehicle periphery monitoring device | |
US9030560B2 (en) | Apparatus for monitoring surroundings of a vehicle |