JP5516561B2 - Vehicle driving support device - Google Patents
Vehicle driving support device Download PDFInfo
- Publication number
- JP5516561B2 JP5516561B2 JP2011269220A JP2011269220A JP5516561B2 JP 5516561 B2 JP5516561 B2 JP 5516561B2 JP 2011269220 A JP2011269220 A JP 2011269220A JP 2011269220 A JP2011269220 A JP 2011269220A JP 5516561 B2 JP5516561 B2 JP 5516561B2
- Authority
- JP
- Japan
- Prior art keywords
- likelihood
- image
- frame
- approaching object
- driving support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000013598 vector Substances 0.000 claims description 45
- 238000004364 calculation method Methods 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 33
- 238000009826 distribution Methods 0.000 claims description 29
- 230000003287 optical effect Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 13
- 238000012935 Averaging Methods 0.000 claims description 9
- 238000013459 approach Methods 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 8
- 238000012937 correction Methods 0.000 description 5
- 210000000695 crystalline len Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、例えば停止した状態から車両を発進させる際に、車両の運転者に対して接近物体に関する情報を提供する車両用運転支援装置に関する。 The present invention relates to a vehicle driving support device that provides information about an approaching object to a vehicle driver when the vehicle is started from a stopped state, for example.
従来、車両に接近する物体を検知したり、車両周囲の障害物を検知したりする各種のシステムが知られている。例えば、特許文献1には、接近する物体を検知するシステムが記載されている。このシステムでは、時系列的に前後する複数の画像に基づくオプティカルフロー処理により、それらの画像の内、時系列的に特定の向きに移動した画像部分を抽出し、各検出画像部分に対し、特定の向きとは異なる方向にそって動的計画法に基づく処理を施すことで、時系列的に前の画像におけるその画像部分に対する、時系列的に後の画像におけるその画像部分の拡大率を求める。そして、その拡大率に応じて、その画像部分に対応した移動体が接近しつつあるか否かを判定する。 Conventionally, various systems for detecting an object approaching a vehicle or detecting an obstacle around the vehicle are known. For example, Patent Document 1 describes a system that detects an approaching object. In this system, by using optical flow processing based on multiple images that move back and forth in time series, image parts that have moved in a specific direction in time series are extracted from these images, and each detected image part is specified. By performing processing based on dynamic programming along a direction different from the direction of the image, the enlargement ratio of the image portion in the subsequent image is obtained in a time series with respect to that image portion in the previous image in time series . Then, it is determined whether or not the moving object corresponding to the image portion is approaching according to the enlargement ratio.
また、特許文献2には、駐車スペースから道路に進行する際に、道路上の接近車両を検出する装置が記載されている。この特許文献2の装置では、カメラ撮影画像で道路の消失点を求め、その消失点の縦座標位置を通る水平ラインと、その近傍に配した並行なラインとを含む複数の検査ラインを設定する。そして、検査ラインのそれぞれにおいて、所定フレーム数のライン画像を積み上げた時空間画像を作成し、時空間画像上で移動物体を検出する。 Patent Document 2 describes an apparatus that detects an approaching vehicle on a road when traveling from a parking space to a road. In the apparatus of Patent Document 2, a vanishing point of a road is obtained from a camera-captured image, and a plurality of inspection lines including a horizontal line passing through the ordinate position of the vanishing point and parallel lines arranged in the vicinity thereof are set. . Then, in each inspection line, a spatiotemporal image in which line images of a predetermined number of frames are stacked is created, and a moving object is detected on the spatiotemporal image.
さらに、特許文献3には、車両周辺の障害物(立体物)を検出するとともに、その障害物が静止しているのか、移動しているのかを検出する周辺監視装置が記載されている。この周辺監視装置では、車両に設置されたカメラの撮影画像を鳥瞰図画像に変換し、異なる時刻に得られた鳥瞰図画像の位置合わせを画像データに基づいて行う。その際、高さのある障害物には位置ずれが生じ、差分領域が形成されるので、その差分領域に基づき、障害物を検出する。さらに、障害物が地面に位置している点の移動量から静止物であるか、移動物であるかを分類する。 Furthermore, Patent Document 3 describes a periphery monitoring device that detects an obstacle (a three-dimensional object) around a vehicle and detects whether the obstacle is stationary or moving. In this periphery monitoring device, a captured image of a camera installed in a vehicle is converted into a bird's-eye view image, and alignment of bird's-eye view images obtained at different times is performed based on image data. At that time, the obstacle with the height is displaced and a difference area is formed. Therefore, the obstacle is detected based on the difference area. Furthermore, it classifies whether the obstacle is a stationary object or a moving object based on the movement amount of the point where the obstacle is located on the ground.
例えば駐車されている車両を前方又は後方へ発進させる際、当該車両に対して接近してくる歩行者や車両などの物体との接触事故が発生することがある。この種の事故が発生するのは、車両周囲に死角となる領域があるなどの理由から、車両を発進させようとしている運転者が、接近してくる物体に気づきにくいことが主な原因と考えられる。そのため、上述した特許文献1〜3のように、車両に搭載されたカメラによって撮影された画像に基づいて、車両に接近する物体を検知し、運転者に報知する各種のシステムが提案されている。 For example, when a parked vehicle is started forward or backward, a contact accident with an object such as a pedestrian or a vehicle approaching the vehicle may occur. This type of accident occurs mainly because the driver trying to start the vehicle is less likely to notice an approaching object because there is a blind spot around the vehicle. It is done. Therefore, as in Patent Documents 1 to 3 described above, various systems for detecting an object approaching the vehicle and notifying the driver based on an image taken by a camera mounted on the vehicle have been proposed. .
しかしながら、現在の画像センシング技術では、様々な外乱(ノイズ、オクルージョン、モーションブラー、鏡面ハイライト、環境光の変化など)により、誤検出や未検出などの検出ミスの発生をゼロにすることは不可能である。そのため、特許文献1〜3に記載されたような、接近物体の有無に応じて報知/非報知を切り替える2値化型の装置では、誤検出や未検出による誤った情報の提示によって、運転者を混乱させる虞がある。 However, with current image sensing technology, it is not possible to zero out detection errors such as false detection and non-detection due to various disturbances (noise, occlusion, motion blur, specular highlights, changes in ambient light, etc.). Is possible. Therefore, in the binarization type device that switches between notification / non-notification according to the presence / absence of an approaching object as described in Patent Documents 1 to 3, a driver is presented by erroneous information presented due to erroneous detection or non-detection. May be confusing.
本発明は、上述した点に鑑みてなされたものであり、接近物体の未検出を低減しつつ、誤検出に基づく情報の提供によって運転者に混乱を生じさせることを抑制することが可能な車両用運転支援装置を提供することを目的とする。 The present invention has been made in view of the above-described points, and is a vehicle capable of reducing the undetected approaching object and suppressing the driver from being confused by providing information based on erroneous detection. An object of the present invention is to provide a driving support apparatus.
上記目的を達成するために、請求項1に記載の車両用運転支援装置は、
自車両の周辺を撮影するように、当該自車両に搭載された撮影手段と、
撮影手段によって異なる時刻に撮影された第1画像及び第2画像において、同一の特徴点を抽出するとともに、第1画像における特徴点の第1座標位置、及び第2画像における特徴点の第2座標位置を算出する第1の算出手段と、
第1画像の撮影時刻と第2画像の撮影時刻との間における、自車両の並進方向への移動による撮影手段の移動ベクトルを算出する第2の算出手段と、
第1の算出手段によって算出された第1座標位置及び第2座標位置と、第2の算出手段によって算出された移動ベクトルとに基づいて、特徴点が接近物体を示すものである場合に、第2座標位置が取り得る値の確率分布、移動速度として取り得る確率分布、及び撮影手段の撮影する奥行き方向において、存在すべき位置の確率分布を用いて、特徴点が、現実の空間において、自車両に接近する接近物体を示すものである確からしさを表す尤度を算出する尤度算出手段と、
尤度を算出した特徴点を物体ごとにグループ化しつつ、グループ化された複数の特徴点の尤度に基づき、各物体が接近物体である確からしさを表す尤度の期待値を算出する期待値算出手段と、
接近物体が存在することを自車両の乗員に報知するものであって、期待値算出手段によって算出された尤度の期待値に応じて、接近物体の存在を自車両の乗員に報知する際の報知形態を異ならせる報知手段と、を備えることを特徴とする。
In order to achieve the above object, a vehicle driving support apparatus according to claim 1 is provided.
Photographing means mounted on the subject vehicle so as to photograph the periphery of the subject vehicle;
In the first image and the second image taken at different times by the photographing means, the same feature point is extracted, the first coordinate position of the feature point in the first image, and the second coordinate of the feature point in the second image First calculating means for calculating a position;
Second calculating means for calculating a movement vector of the photographing means by movement of the host vehicle in the translational direction between the photographing time of the first image and the photographing time of the second image;
When the feature point indicates an approaching object based on the first coordinate position and the second coordinate position calculated by the first calculation unit and the movement vector calculated by the second calculation unit , Using the probability distribution of the values that can be taken by the two coordinate positions, the probability distribution that can be taken as the moving speed, and the probability distribution of the positions that should be present in the depth direction taken by the photographing means , A likelihood calculating means for calculating a likelihood representing a probability indicating an approaching object approaching the vehicle;
Expected value for calculating the expected value of likelihood that represents the likelihood that each object is an approaching object based on the likelihood of multiple grouped feature points while grouping the feature points for which likelihood is calculated A calculation means;
When notifying an occupant of the own vehicle that there is an approaching object, and informing the occupant of the own vehicle of the presence of the approaching object according to the expected value of the likelihood calculated by the expected value calculating means. And a notification means for changing a notification form.
上記のように、請求項1に記載の車両用運転支援装置では、尤度算出手段により、画像における特徴点が接近物体を示すものである確からしさを表す尤度が算出され、さらに期待値算出手段により、尤度を算出した特徴点が物体ごとにグループ化され、グループ化された複数の特徴点の尤度から、各物体が接近物体である確からしさを表す尤度の期待値が算出される。すなわち、グループ化された複数の特徴点に対応する各物体が、接近物体であるか否かを二値的に判定するのではなく、接近物体である確からしさを、尤度の期待値により連続的な値として算出する。従って、接近物体である可能性が低い物体が存在した場合、それを接近物体として検出しないのではなく、低い尤度の期待値を持った接近物体として検出することが可能となる。このため、接近物体が存在しながら、未検出となることを低減することができる。 As described above, in the vehicle driving support device according to claim 1, the likelihood calculating unit calculates the likelihood indicating the probability that the feature point in the image indicates the approaching object, and further calculates the expected value. The likelihood-calculated feature points are grouped for each object, and the expected likelihood value representing the likelihood that each object is an approaching object is calculated from the likelihood of the grouped feature points. The That is, instead of binaryly determining whether or not each object corresponding to a plurality of grouped feature points is an approaching object, the probability of being an approaching object is continuously determined by the expected value of likelihood. As a typical value. Therefore, if there is an object that is unlikely to be an approaching object, it is not detected as an approaching object, but can be detected as an approaching object having an expected value with a low likelihood. For this reason, it can reduce that it does not detect while an approaching object exists.
一方、尤度の期待値が低いほど、その物体は、必ずしも接近物体ではない可能性が高まる。そのため、報知手段は、尤度の期待値に応じて、接近物体の存在を報知する際の報知形態を異ならせる。これにより、運転者は、接近物体の報知が行われる際に、その確からしさを認識できるので、実際には接近物体ではなかった場合であっても、それによって混乱を生じることを抑制することができる。 On the other hand, the lower the expected likelihood value, the higher the possibility that the object is not necessarily an approaching object. For this reason, the notification means changes the notification form when notifying the presence of the approaching object according to the expected value of likelihood. As a result, the driver can recognize the certainty when the approaching object is notified, so that even if it is not actually the approaching object, it can suppress the occurrence of confusion. it can.
請求項2に記載したように、期待値算出手段は、所定の閾値以上の尤度を持つ特徴点を対象として、グループ化を行うようにしても良い。これにより、期待値算出手段において、処理対象となる特徴点を絞り込むことができるので、処理負荷を低減し、処理を迅速に実行することができる。この場合、接近物体の未検出を極力抑制するために、尤度の閾値は、未検出率が極めて小さくなるように設定される。 As described in claim 2, the expected value calculation means may perform grouping on feature points having a likelihood equal to or greater than a predetermined threshold. Thereby, since the expected value calculation means can narrow down the feature points to be processed, the processing load can be reduced and the processing can be executed quickly. In this case, in order to suppress the non-detection of the approaching object as much as possible, the likelihood threshold is set so that the non-detection rate becomes extremely small.
請求項3に記載したように、期待値算出手段は、グループ化された複数の特徴点の尤度を平均化処理して、尤度の期待値を算出しても良い。このような平均化処理により、グループ化された複数の特徴点の尤度を総合的に勘案して、尤度の期待値を算出することができる。 According to a third aspect of the present invention, the expected value calculation means may calculate the expected value of likelihood by averaging the likelihoods of a plurality of grouped feature points. By such an averaging process, the expected value of likelihood can be calculated by comprehensively considering the likelihood of a plurality of grouped feature points.
複数の特徴点の尤度を平均化処理して尤度の期待値を算出する場合、請求項4に記載したように、期待値算出手段は、同じグループに属する信頼性が高いほど、大きな重みを付与する重み付け平均処理を行うようにしても良い。グループ化は、特徴点同士が近接している、特徴点の動きベクトルが共通の消失点を共有している、自車両と各特徴点が指し示す3次元点と画像平面との距離がゼロとなるまでの衝突時間が類似している、などの種々の観点で行われる。ただし、後に詳述するように、ここで言う特徴点の動きベクトルとは、車両の回転運動によって生じる動きベクトルの成分を除去したものである。このため、各特徴点で、同一グループに属する信頼性には差が生じる場合がある。この場合、グループに属する信頼性が高い特徴点の尤度ほど大きな重みを付与して平均化処理を行うことにより、各物体の尤度の期待値をより精度良く算出することができる。 In the case of calculating the likelihood expectation value by averaging the likelihoods of a plurality of feature points, as described in claim 4, the expectation value calculation means has a higher weight as the reliability belonging to the same group is higher. A weighted average process for assigning In grouping, feature points are close to each other, motion vectors of feature points share a common vanishing point, and the distance between the vehicle and the three-dimensional point indicated by each feature point is zero. It is performed from various viewpoints such as a similar collision time. However, as will be described in detail later, the feature point motion vector referred to here is obtained by removing the motion vector component generated by the rotational motion of the vehicle. For this reason, there may be a difference in the reliability belonging to the same group at each feature point. In this case, it is possible to calculate the expected value of the likelihood of each object with higher accuracy by assigning a greater weight to the likelihood of the feature point having higher reliability belonging to the group and performing the averaging process.
請求項5に記載したように、期待値算出手段は、グループ化された特徴点の数が所定数未満であった場合、そのグループ化された特徴点の集合が物体に対応したものとはみなさず、尤度の期待値の算出を行わないようにしても良い。これにより、偶々、ノイズなどで特徴点が抽出されてしまった場合などに、接近物体として誤検出することを防止することができる。 As described in claim 5, when the number of grouped feature points is less than a predetermined number, the expectation value calculating means regards that the set of grouped feature points corresponds to the object. Alternatively, the expected value of likelihood may not be calculated. This can prevent erroneous detection as an approaching object when a feature point is accidentally extracted due to noise or the like.
請求項6に記載したように、尤度算出手段は、少なくとも歩行者、自転車、自動車を接近物体の属性とし、その接近物体の属性ごとに、特徴点の尤度をそれぞれ算出し、期待値算出手段は、接近物体の属性ごとに、尤度の期待値を算出し、最も高い尤度の期待値を示す属性を、接近物体の属性として決定するようにしても良い。このようにすれば、接近物体が存在することを検出できるだけなく、その接近物体の属性情報も得ることができる。 As described in claim 6, the likelihood calculating means calculates at least a pedestrian, a bicycle, and a car as attributes of an approaching object, calculates the likelihood of a feature point for each attribute of the approaching object, and calculates an expected value. The means may calculate an expected value of likelihood for each attribute of the approaching object, and determine an attribute indicating the highest expected value of likelihood as the attribute of the approaching object. In this way, not only the presence of an approaching object can be detected, but also attribute information of the approaching object can be obtained.
あるいは、請求項7に記載したように、尤度算出手段は、少なくとも歩行者、自転車、自動車を接近物体の属性とし、その接近物体の属性ごとに、特徴点の尤度をそれぞれ算出し、期待値算出手段は、接近物体の属性ごとに、尤度の期待値を算出するとともに、接近物体に関して、それが歩行者である確率、自転車である確率、車両である確率を、それぞれの事前確率分布として予め定めておき、接近物体の属性ごとに、前記尤度の期待値と前記確率とをかけ合わせて事後確率を算出し、最も高い事後確率を有する属性を、前記接近物体の属性として決定しても良い。このように事前確率を用いることにより、例えば車両を停車させた場所に応じて、異なる事前確率分布を設定することも可能となり、接近物体の属性の決定をより一層精度良く行うことが可能となる。例えば、車両専用の駐車場においては、接近物体は歩行者、車両である確率が高く、自転車である確率は低いといえる。一方、道路から歩道を挟んで設けられた駐車スペースに車両を停車した場合、接近物体は歩行者又は自転車である確率が高く、車両である確率は低いといえる。従って、尤度の期待値だけではなく、このような事前確率分布を考慮することで、接近物体の属性を判別する精度をより向上することが可能となる。 Alternatively, as described in claim 7, the likelihood calculating means calculates at least the likelihood of the feature point for each attribute of the approaching object by setting at least a pedestrian, a bicycle, and a car as the attributes of the approaching object. The value calculating means calculates the expected value of likelihood for each attribute of the approaching object, and also calculates the probability that the approaching object is a pedestrian, the probability of being a bicycle, and the probability of being a vehicle for each prior probability distribution. The posterior probability is calculated by multiplying the expected value of the likelihood and the probability for each attribute of the approaching object, and the attribute having the highest posterior probability is determined as the attribute of the approaching object. May be. By using prior probabilities in this way, it is possible to set different prior probability distributions, for example, depending on the location where the vehicle is stopped, and it is possible to determine the attributes of approaching objects with higher accuracy. . For example, in a vehicle-dedicated parking lot, it can be said that the approaching object has a high probability of being a pedestrian and a vehicle, and the probability of being a bicycle is low. On the other hand, when the vehicle is stopped in a parking space provided across the sidewalk from the road, the approaching object is likely to be a pedestrian or a bicycle, and the probability of being a vehicle is low. Therefore, by considering not only the expected likelihood value but also such a prior probability distribution, it is possible to further improve the accuracy of determining the attribute of the approaching object.
請求項8に記載したように、第1の算出手段は、第1画像の撮影時刻と第2画像の撮影時刻との間に、自車両が回転方向に移動した場合、第2画像において、撮影手段の回転移動の影響を除去した第2座標位置を算出することが望ましい。第1画像の撮影時刻と第2画像の撮影時刻との間に、自車両が回転方向に移動すると、第2画像における特徴点の座標位置には、自車両とともにその回転方向へ移動する撮影手段の回転運動成分の影響が含まれてしまうためである。 According to the eighth aspect of the present invention, when the host vehicle moves in the rotation direction between the shooting time of the first image and the shooting time of the second image, the first calculation unit performs shooting on the second image. It is desirable to calculate the second coordinate position from which the influence of the rotational movement of the means is removed. When the host vehicle moves in the rotation direction between the shooting time of the first image and the shooting time of the second image, the shooting means moves in the rotation direction together with the host vehicle at the coordinate position of the feature point in the second image. This is because the influence of the rotational motion component of is included.
請求項9に記載したように、報知手段は、撮影手段によって撮影された画像を表示する表示器を有し、当該表示器に表示された画像上に、接近物体を取り囲む枠を重畳表示するとともに、尤度の期待値に対応した拡大率で、時間の経過とともに枠を拡大させることが好ましい。これにより、自車両に接近する接近物体が存在することを、自車両の運転者に視覚を通じて分かりやすく報知することができる。特に、尤度の期待値に対応した拡大率で枠を拡大させることにより、尤度の期待値が大きいほど、時間の経過とともに枠が大きく拡大されるので、尤度の期待値の大きさの違いが一目瞭然であるとともに、より尤度の期待値の高い接近物体に対して一層の注意を払うように、運転者に注意喚起を促すことができる。 According to a ninth aspect of the present invention, the notifying unit has a display that displays an image captured by the capturing unit, and superimposes and displays a frame surrounding the approaching object on the image displayed on the display. It is preferable to enlarge the frame with the passage of time at an enlargement rate corresponding to the expected value of likelihood. Accordingly, it is possible to notify the driver of the host vehicle in an easy-to-understand manner visually that there is an approaching object approaching the host vehicle. In particular, by enlarging the frame with an enlargement rate corresponding to the expected likelihood value, the larger the expected likelihood value, the larger the frame is enlarged over time. The difference is obvious, and the driver can be alerted to pay more attention to an approaching object with a higher likelihood expectation.
請求項10に記載したように、報知手段は、尤度の期待値が大きくなるほど、小さくなるように光学情報τの値を定め、(1+τ−1)で定められる拡大率に従って、枠を拡大させるようにしても良い。ここで、光学情報τは、接近物体が網膜(を含む平面)まで到達する時間と相関する値として定義されるものである。そして、接近物体に対応する枠が、光学情報τに従って接近するように画面上に表示するには、単に(1+τ−1)を拡大率として枠を時間の経過とともに拡大させれば良い。これにより、尤度の期待値が大きく、そのため、光学情報τとして小さな値が設定される接近物体に対応する枠ほど、時間の経過とともに大きく拡大されるように表示することができる。
As described in
請求項11に記載したように、報知手段は、拡大率に応じて、前記枠の線の太さを変化させても良い。すなわち、時間の経過とともに枠が拡大表示されるとき、拡大される大きさが大きくなるほど、枠の線の太さを太くしても良い。これにより、枠が大きく拡大されるほど、より枠の表示が目立つように表示することができる。 As described in claim 11, the notifying means may change the thickness of the line of the frame according to the enlargement ratio. That is, when the frame is enlarged and displayed with the passage of time, the thickness of the line of the frame may be increased as the size of the enlargement increases. As a result, the larger the frame is enlarged, the more clearly the frame can be displayed.
請求項12に記載したように、報知手段は、枠を、その背景部分が視認できるように、半透明にて表示しても良い。これにより、枠を重畳表示しながら、車両周辺の画像全体を運転者が視認できるようになる。 As described in claim 12, the notification means may display the frame in a translucent manner so that the background portion can be visually recognized. As a result, the driver can visually recognize the entire image around the vehicle while displaying the frame superimposed.
請求項13に記載したように、報知手段は、枠の影を、枠の奥側に表示するようにしても良い。これにより、枠を拡大させる際に、立体感を与えることができ、枠が運転者に近づいているような感覚を与えることができる。なお、請求項14に記載したように、枠の場合と同様に、報知手段は、枠の影を、その背景部分が視認できるように、半透明にて表示するようにしても良い。 As described in claim 13, the notification means may display the shadow of the frame on the back side of the frame. Thereby, when enlarging a frame, a three-dimensional effect can be given and the feeling that the frame is approaching a driver can be given. As in the case of the frame, the notification means may display the shadow of the frame in a translucent manner so that the background portion can be visually recognized.
請求項15に記載したように、表示器は、立体的な表示を行うことが可能なものであり、報知手段は、枠を立体的に表示させつつ、拡大させても良い。このような立体的な表示を行うことにより、枠が運転者に近づいているような感覚をより一層鮮明に与えることができる。 As described in the fifteenth aspect, the display device can perform a three-dimensional display, and the notification unit may enlarge the frame while displaying the frame three-dimensionally. By performing such a three-dimensional display, a feeling that the frame is approaching the driver can be given more clearly.
請求項16に記載したように、報知手段は、枠の拡大を所定時間だけ実行すると、枠の大きさを拡大しない状態に戻すようにして、枠の拡大を繰り返し実行することが望ましい。枠の拡大を繰り返し実行することにより、注意喚起の効果を高めることができるためである。また、表示装置の表示範囲の制約から、枠の大きさを拡大するにも限界があるためである。 According to a sixteenth aspect of the present invention, it is desirable that the notification means repeatedly executes the enlargement of the frame so as to return to the state in which the size of the frame is not enlarged when the enlargement of the frame is performed for a predetermined time. This is because the effect of alerting can be enhanced by repeatedly executing the enlargement of the frame. In addition, there is a limit in enlarging the size of the frame due to restrictions on the display range of the display device.
請求項17に記載したように、報知手段は、複数の接近物体に対応する枠を同時に画像上に重畳表示する場合であって、当該複数の接近物体に対応する枠が重なる場合には、尤度の期待値が大きい接近物体に対応する枠を手前に表示することが好ましい。これにより、車両に対して接近する複数の接近物体が有る場合に、運転者が注意を払うべき優先度合に応じた表示を行うことができる。 According to a seventeenth aspect of the present invention, the notifying means is a case where frames corresponding to a plurality of approaching objects are superimposed and displayed on the image at the same time, and the frames corresponding to the plurality of approaching objects overlap. It is preferable to display a frame corresponding to an approaching object with a high degree of expected value in front. Thereby, when there are a plurality of approaching objects approaching the vehicle, it is possible to perform display according to the priority that the driver should pay attention to.
請求項18に記載したように、報知手段は、期待値算出手段により接近物体の属性が決定されている場合には、枠の形態を、その決定された接近物体の属性に応じたものとしても良い。例えば、枠の形状を、歩行者、自転車、あるいは車両を形どったものにしたり、枠の色を接近物体の属性に応じた色にしたりする。これにより、運転者に対して、枠の表示形態を用いて、接近物体の属性も報知することが可能になる。 As described in claim 18, when the attribute of the approaching object is determined by the expected value calculation means, the notifying unit may change the form of the frame according to the determined attribute of the approaching object. good. For example, the shape of the frame may be a shape of a pedestrian, bicycle, or vehicle, or the color of the frame may be a color corresponding to the attribute of the approaching object. Accordingly, it is possible to notify the driver of the attribute of the approaching object using the frame display form.
請求項19に記載したように、報知手段は、撮影手段によって撮影された画像を表示する表示器を有し、その画像における接近物体を示す部分画像を、尤度の期待値に対応した拡大率で、時間の経過とともに拡大するように表示させても良い。つまり、枠とともに、あるいは枠の表示に代えて、接近物体を示す部分画像を拡大させても良い。 According to a nineteenth aspect of the present invention, the notifying means has a display for displaying an image taken by the photographing means, and a partial image showing an approaching object in the image is enlarged according to an expected value of likelihood. Thus, it may be displayed so as to expand with the passage of time. That is, the partial image showing the approaching object may be enlarged together with the frame or instead of displaying the frame.
請求項20〜請求項23は、拡大する対象が接近物体を示す部分画像である点を除き、請求項10,15〜17と同様であるため、説明を省略する。
以下、本発明の実施形態による車両用運転支援装置について、図面に基づいて詳細に説明する。 Hereinafter, a vehicle driving support apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
図1に示すように、本実施形態における車両用運転支援装置100は、自車両に搭載された撮影手段としてのカメラ10、自車両の移動方向及び移動量に関連する情報を検出するための車両情報検出部20、カメラ10によって撮影された画像を処理する画像処理ECU30、画像処理ECU30によって処理された画像を表示する表示器40とを備えている。
As shown in FIG. 1, a vehicle driving
カメラ10は、例えば、CCDカメラによって構成され、車両の車室内の天井付近や車両の先端(フロントバンパー)および/または後端(リヤバンパー)に設置される。また、車両の側方を撮影できるように、カメラ10を設置しても良い。この車両への設置に際して、カメラ10の光軸(Z軸)が地面と平行となり、かつカメラ10によって撮影される画像の横軸も地面と平行になるように、カメラ10の設置角度等が調整される。この結果、画像の縦軸は、地面に対して垂直な方向に一致する。そして、カメラ10は、少なくとも、車両が停止した状態から発進しようとする間、定期的に車両周辺の画像を撮影して、その撮影した画像を画像処理ECU30に出力する。
The
車両情報検出部20は、例えば、車両の走行速度を検出する速度センサ、自車両の旋回方向への回転角の変化速度を検出するヨーレートセンサ、ステアリングの操舵角度を検出する操舵角センサなどを有し、自車両の移動方向及び移動量に関する情報を検出して、画像処理ECU30に出力するものである。画像処理ECU30では、車両情報検出部20によって検出された情報に基づき、2枚の画像の撮影時刻間における、自車両の旋回方向運動によるカメラ10の回転方向の移動量、及び自車両の並進方向の移動によるカメラ10の移動ベクトルを算出する。これらカメラ10の回転方向の移動量及びカメラ10の移動ベクトルは、画像処理に利用されるが、詳しくは後述する。
The vehicle
画像処理ECU30は、図示しないCPU、ROM、RAM等からなるマイクロコンピュータの他、カメラ10から出力された画像をデジタル画像に変換するためのA/D変換器や、変換されたデジタル画像を保存する画像メモリ等を備えている。なお、画像メモリは、複数の画像を保存可能な記憶容量を有している。
The
この画像処理ECU30は、予め記憶されているプログラムに従って各種の処理を実行することにより、図1に示すような各機能を発揮する。すなわち、図1は、画像処理ECU30が備える機能を機能ブロックによって示している。以下、画像処理ECU30が有する各機能について説明する
まず、動きベクトル算出部31は、異なる時刻に撮影され、画像メモリに保存された2つのデジタル画像において、それぞれ特徴点を抽出する。この特徴点抽出には、例えばJ.Shi and C.Tomasi, “Good Features to Track”, IEEE CVPR, pp.593-600, 1994に記載された技術を用いることができる。そして、2つのデジタル画像における、同一の特徴点を対応付けることにより、その特徴点の動きベクトル(オプティカルフロー)を算出する。すなわち、ある特徴点が、先に撮影されたデジタル画像の2次元座標i0で観測され、同じ特徴点が、後に撮影されたデジタル画像の2次元座標i1’に移動したとする。この場合、i1’−i0が、その特徴点の動きベクトルとなる。なお、動きベクトルの算出には、例えばLK法(B.D.Lucas and T.kanade, “An iterative Image Registration Technique with an Application to Stereo Vision”, IJCAI, pp674-679,1981)などを用いることができる。
This
デジタル画像にレンズ歪が有る場合には、動きベクトル算出部31は、歪補正を行う必要がある。この歪補正として、デジタル画像に対して補正を行う場合と、デジタル画像には補正を行わず、特徴点の座標(i0とi1’)に対して補正を行う場合とが考えられる。レンズ歪に関するパラメータが与えられていれば、歪のある画像の座標と、歪のない画像の座標との対応関係を予め定めておくことができる。この対応関係を使って、デジタル画像そのものを歪みのない画像に変換することが可能である。さらに、歪のあるデジタル画像から特徴点を抽出し、その特徴点の座標を、歪みのない画像における座標に変換することも可能である。
When the digital image has lens distortion, the motion
次に、回転成分除去部32について説明する。自車両が旋回方向に回転運動を行った場合、動きベクトル算出部31によって算出される動きベクトルi1’−i0=(vx,vy)Tには、カメラ10の回転運動によって生じた成分が含まれることになる。動きベクトル(vx,vy)Tに、このようなカメラ10の回転運動成分が含まれていると、後に説明する接近物体に関する判定精度が低下する要因となる。そのため、回転成分除去部32は、動きベクトル(vx,vy)Tから、カメラ10の回転運動成分を除去する。
Next, the rotation
ここで、ある画像座標(x,y)Tに対して、カメラ10の焦点を中心とした任意の回転を与えたときの座標変化量(rx,ry)Tは、下記の数式1によって求めることができることが知られている。
ただし、Ω=(Ωx, Ωy, Ωz)Tは、2つのデジタル画像の撮影時刻間におけるカメラ10の回転移動量であり、fはカメラ10の焦点距離である。
However, Ω = (Ω x , Ω y , Ω z ) T is the rotational movement amount of the
回転成分除去部32は、車両情報検出部20から得た情報に基づいて、2つのデジタル画像の撮影時刻間における、カメラ10の回転移動量を算出する。例えば、Y軸まわりの回転移動量をヨーレートセンサから得られる値Ωyとし、X軸及びZ軸回りの回転を無視すると、カメラ10の回転移動量は、Ω=(0, Ωy, 0)Tと設定することができる。そして、後に撮影されたデジタル画像における特徴点の座標i1’に関して、数式1を用いて、カメラ10の回転運動による座標変化量(rx,ry)Tを算出する。さらに、回転成分除去部32は、下記の数式2に示すように、動きベクトル算出部31から出力された動きベクトル(vx,vy)Tから、座標変化量(rx,ry)Tを減じることにより、カメラ10の回転運動成分の影響が除去された動きベクトル(ux,uy)Tを求める。
また、回転成分除去部32は、このようにして算出された動きベクトル(ux,uy)Tと、先に撮影されたデジタル画像における特徴点の座標i0とに基づいて、後のデジタル画像における、カメラ10の回転運動成分の影響を排除した特徴点の座標i1を算出する。なお、カメラ10の回転運動成分の影響を排除した特徴点の座標i1は、その影響が排除される前の特徴点の座標i1’と、上記の座標変化量(rx,ry)Tとから算出することもできる。
Further, the rotation
次に、尤度算出部33について説明する。図2は、尤度算出部33において実行される尤度算出処理を示したフローチャートである。
Next, the
ステップS100では、動きベクトル算出部31にて抽出されたすべての特徴点の中から、1つの特徴点を選択する。そして、ステップS110において、選択した特徴点が実際の空間において指し示す点が、自車両に接近しつつある接近物体を示す確からしさを表す尤度を算出する。この尤度の算出について、以下に詳細に説明する。
In step S100, one feature point is selected from all the feature points extracted by the motion
まず、前提として、図3に示すように、カメラ10の焦点を原点、カメラ10の光軸をZ軸、Z軸と直交し、かつ地面と平行な軸をX軸、Z軸及びX軸と直交し、かつ地面に向かう軸をY軸とする。この際、ZX平面は地面と平行であり、Y軸は地面に垂直である。そして、Y軸は地面に向かう方向を正とする。さらに、レンズ歪は補正済みで、いわゆるピンホールカメラモデルが適応可能であるとする。また、地面は平面であり、カメラ10は地面と平行に動くものとする。従って、地平線(無限遠の地面上の点の集合)は、デジタル画像における2次元座標上のy=0の直線に透視投影されることになる。なお、透視投影は、以下の数式3によって与えられる。
尤度算出部33は、まず、車両情報検出部20ら得た情報に基づいて、2つのデジタル画像の撮影時刻間の自車両の並進運動によるカメラ10の移動ベクトルVOを求める。カメラ10は地面と平行に動くため、この移動ベクトルVOは、ZX平面におけるX成分とZ成分とからなる(VO=(VOX,VOZ))。従って、移動ベクトルVOは、主として操舵角センサやヨーレートセンサによる検出結果から算出される自車両の移動方向と、速度センサによる検出結果から算出される移動距離とから算出することができる。なお、回転成分除去部32により、カメラの回転運動成分が除去された動きベクトル(ux,uy)T、さらにはその動きベクトル(ux,uy)Tを用いて特徴点座標i1を算出済みであり、それぞれのデジタル画像の撮影時刻でのカメラ10の向き(光軸)は平行と考える。
The
画像における特徴点の座標i0,i1が、それぞれ現実の空間において指し示す点同士の差分を、それらの点の地面からの高さに変化はないので、X成分とZ成分とからなる2次元のベクトルVT=(VTX,VTZ)で表す。このベクトルVTは、特徴点が指し示す点の移動速度を示すものであり、未知の変数である。また、特徴点の座標i0が指し示す点の3次元座標を(X0,Y,Z0)とし、特徴点の座標i1が指し示す点の3次元座標を(X1,Y,Z1)とする。特徴点に対応する、現実の空間における点は、歩行者や車両などの移動物体、または静止物体の表面上にあり、2つのデジタル画像の撮影時刻間において、Y座標の変化量は無視できるものとしている。 Since the coordinates i 0 and i 1 of the feature point in the image indicate the difference between the points indicated in the real space, the height of the point from the ground does not change, so that the two-dimensional structure is composed of the X component and the Z component. Vector V T = (V TX , V TZ ). The vector V T is for indicating the moving speed of the point indicated by the feature point, is an unknown variable. Further, the three-dimensional coordinates of the point indicated by the feature point coordinate i 0 are (X 0 , Y, Z 0 ), and the three-dimensional coordinates of the point indicated by the feature point coordinate i 1 are (X 1 , Y, Z 1 ). And The point in the real space corresponding to the feature point is on the surface of a moving object such as a pedestrian or a vehicle, or a stationary object, and the amount of change in the Y coordinate can be ignored between two digital image capturing times It is said.
以下の説明においては、地平線よりも地面側にある、つまりY>0である点を指し示す特徴点のみを考える。Y>0であれば、図3に示すように、その特徴点に対応する点のZ軸方向の座標を、Z<ZGの範囲に存在するものとして取り扱うことができるためである。なお、特徴点i0,i1が指し示す点の座標成分X0,Y,Z0,X1,Z1は未知であるが、透視投影の関係から、1つの座標成分が定まれば、残り4つの座標成分も定まる。 In the following description, only feature points pointing to points on the ground side of the horizon, that is, Y> 0 are considered. If Y> 0, as shown in FIG. 3, the Z-axis direction of the coordinates of a point corresponding to the feature point is because it can be handled as existing in the range of Z <Z G. Note that the coordinate components X 0 , Y, Z 0 , X 1 , and Z 1 of the point indicated by the feature points i 0 and i 1 are unknown, but if one coordinate component is determined due to the perspective projection, the remainder is left. Four coordinate components are also determined.
尤度算出部33は、先に撮影されたデジタル画像における特徴点の座標i0と、後に撮影されたデジタル画像における特徴点の座標i1、カメラ10の移動ベクトルVOに基づき、その特徴点が指し示す点が接近物体を示すものである確からしさを表す尤度を、各特徴点ごとに、以下の数式4により算出する。なお、数式4において、接近物体である状態をH1と表している。また、数式4では、求めるべき尤度が、未知の変数である、特徴点の座標i0が指し示す点のZ軸方向の座標(奥行き)Z0と、特徴点が指し示す点の移動速度を示すベクトルVTにより周辺化された形で示されている。
数式4の右辺の積分の中の1つ目の確率分布は、特徴点i0が指し示す点の奥行きZ0と、その点の移動速度を示すベクトルVTが与えられたとき、その点が接近物体を示すものである場合に、特徴点の座標i1が取り得る値の確率分布を示すものである。これは透視投影の関係から、以下の数式5に示すように、ディラックのデルタ関数で表現される。
数式4の右辺の積分の中の2つ目の確率分布は、図3に示すように、特徴点i0が指し示す点が接近物体である場合に取り得る移動速度の確率分布を示すものである。この確率分布は、数式6に示すように、ガウス分布としてモデル化し、そのガウス分布の平均μTと共分散行列ΣTとを予め定めておく。
なお、数式6におけるガウス分布、すなわちガウス分布を定める平均μTと共分散行列ΣTは、接近物体の属性ごとに定めることが好ましい。接近物体の属性が異なれば、移動速度も異なるためである。接近物体の属性には、少なくとも歩行者、自転車、車両(自動車やオートバイなど)を含む。そして、数式6におけるガウス分布を接近物体の属性ごとに定めた場合には、後述する数式9により、特徴点の尤度が、接近物体のそれぞれの属性ごとに算出される。この場合、算出した尤度の中で最も高い尤度を示す属性を、その接近物体の属性と決定することができる。 Note that Gaussian distribution in equation 6, i.e. the average mu T and covariance matrix sigma T defining the Gaussian distribution is preferably determined for each attribute of the approaching object. This is because the moving speed varies depending on the attribute of the approaching object. The attributes of the approaching object include at least a pedestrian, a bicycle, and a vehicle (such as an automobile and a motorcycle). When the Gaussian distribution in Equation 6 is determined for each attribute of the approaching object, the likelihood of the feature point is calculated for each attribute of the approaching object by Equation 9 described later. In this case, the attribute indicating the highest likelihood among the calculated likelihoods can be determined as the attribute of the approaching object.
数式4の右辺の積分の中の3つ目の確率分布は、図3に示すように、特徴点i0が指し示す点が接近物体である場合に取り得る奥行きの確率分布を示すものである。この確率分布は、以下の数式7によって表すことができる。
上記の数式7において、変数ZGは、図3における、特徴点の座標i0が指し示す点を結んだ線分と地面との交点のZ座標である。簡単な計算で、ZG=f/i0(2)*Hとなる。ただし、i0(k)はi0の第k成分、Hはカメラ10から地面までの距離である。Ziは、接近物体が存在する下限距離として予め設定する定数である。例えば、Zi=0に設定される。すると、p(Z0|H1)は、対象とする点が、Z座標が正となる方向にあり、かつ地面よりも上に存在するときのみ非零の確率を取ることになる。また、数式7におけるガウス分布の平均μZと分散σZ 2は、予め定めておく定数である。例えば車両が駐車場から発進するケースを考えた場合、一例として、μZは2m、σZ 2は1.5mに設定することができる。さらに、数式7において、erfは、ガウスの誤差関数を表す。
In Equation 7 above, the variable Z G is the Z coordinate of the intersection of the FIG. 3, connecting points indicated by the coordinates i 0 of the feature points between the line segment and the earth surface. With a simple calculation, Z G = f / i 0 (2) * H. Here, i 0 (k) is the k-th component of i 0 , and H is the distance from the
以上の数式4から数式7をまとめることにより、以下の数式8を得る。
上記の数式8に、特徴点の座標i0,i1、及びカメラ10の移動ベクトルVOを代入することにより、特徴点毎に、各特徴点が現実の空間で指し示す点が接近物体を示すものである確からしさを表す尤度を算出することができる。
By substituting the coordinates i 0 and i 1 of the feature points and the movement vector V O of the
このようにして、選択した特徴点の尤度が算出されると、図2のフローチャートのステップS120において、抽出された全特徴点について、それぞれ尤度の算出が完了したか否か判定される。この判定処理において、全特徴点の尤度の算出が完了したと判定されると、ステップS130の処理に進み、まだ全特徴点の尤度の算出が完了していないと判定されると、ステップS100からの処理を繰り返す。 When the likelihood of the selected feature point is calculated in this way, it is determined in step S120 of the flowchart of FIG. 2 whether or not the calculation of the likelihood has been completed for all the extracted feature points. In this determination process, if it is determined that the calculation of the likelihood of all feature points has been completed, the process proceeds to step S130, and if it is determined that the calculation of the likelihood of all feature points has not yet been completed, the step The processing from S100 is repeated.
ステップS130では、算出した尤度の中で、閾値以上の尤度があるか否かを判定する。ここで、従来技術では、図4に示すように、ある指標が閾値を上回った場合に、接近物体や移動物体などの検出対象が存在すると判定し、閾値を下回れば、検出対象は存在しないと判定する。しかしながら、指標と閾値との大小関係で検出対象の存在の有無を二値的に判定する場合、一般的に、閾値の近傍において、未検出や誤検出などの検出ミスが多く発生する。 In step S130, it is determined whether or not there is a likelihood equal to or greater than a threshold among the calculated likelihoods. Here, in the prior art, as shown in FIG. 4, when a certain index exceeds a threshold, it is determined that a detection target such as an approaching object or a moving object exists, and if it falls below the threshold, there is no detection target. judge. However, when the presence / absence of the detection target is determined in a binary manner based on the magnitude relationship between the index and the threshold value, in general, many detection errors such as non-detection and erroneous detection occur in the vicinity of the threshold value.
それに対して、本実施形態では、上述したように、各特徴点が指し示す点が接近物体を示す確からしさを表す尤度を算出している。このため、従来技術のように、検出対象の存在の有無を判定するという意味で、閾値との大小関係の判定を行う必要はない。本実施形態において、尤度を閾値と比較する目的は、検出対象である接近物体を明らかに示すものではない尤度を排除することで、その後の処理負荷を軽減して、処理を迅速に実行できるようにするためである。そのため、本実施形態では、図5に概念的に示すように、閾値は、接近物体の未検出率が極めて小さくなるように設定される。この閾値は、例えば、実際に計測を行った実験結果に基づいて設定される。 On the other hand, in this embodiment, as described above, the likelihood representing the probability that the point indicated by each feature point indicates the approaching object is calculated. Therefore, unlike the prior art, it is not necessary to determine the magnitude relationship with the threshold in the sense of determining the presence or absence of the detection target. In this embodiment, the purpose of comparing the likelihood with the threshold is to eliminate the likelihood that does not clearly indicate the approaching object that is the detection target, thereby reducing the subsequent processing load and executing the processing quickly. This is to make it possible. Therefore, in the present embodiment, as conceptually shown in FIG. 5, the threshold is set so that the undetected rate of the approaching object is extremely small. This threshold value is set based on, for example, an experimental result of actual measurement.
ただし、このようにすると、接近物体を誤検出する比率が高くなるが、そのような誤検出が生じた場合の特徴点の尤度は、通常、低く算出される。このため、詳しくは後述するが、本実施形態では、接近物体の報知形態を工夫することで、誤検出した接近物体に関する報知を行った場合であっても、運転者に混乱を生じることを抑制するようにしている。 However, if this is done, the ratio of erroneously detecting an approaching object increases, but the likelihood of feature points when such erroneous detection occurs is usually calculated low. For this reason, as will be described in detail later, in this embodiment, by contriving a notification form of an approaching object, it is possible to prevent the driver from being confused even when notification regarding an erroneously detected approaching object is performed. Like to do.
ステップS130において、閾値以上の大きさの尤度があると判定された場合には、ステップS140に進み、閾値以上の尤度を対象として、接近物体ごとにグループ化するグルーピング処理を行う。一方、閾値以上の大きさの尤度がないと判定された場合には、ステップS160の処理に進み、後続のτ算出部34に対して、接近物体は存在しない旨を出力する。この場合、後に説明する、接近物体の存在を報知するための枠や部分画像の拡大表示は行われず、表示器40には、単に車両の周辺画像が表示されることになる。
In step S130, when it is determined that there is a likelihood greater than or equal to the threshold value, the process proceeds to step S140, and a grouping process for grouping the approaching objects for the likelihood equal to or greater than the threshold value is performed. On the other hand, if it is determined that there is no likelihood greater than or equal to the threshold value, the process proceeds to step S160, and the subsequent
ここで、ステップS140のグルーピング処理について詳しく説明する。このグルーピング処理では、閾値以上の大きさの尤度を持つ特徴点を対象として、種々の条件で同一の接近物体を示すとみなし得る特徴点を抽出して、グルーピングする。特徴点は、ただの点を示すものに過ぎないため、そのままでは、接近物体に関する情報(個数、接近物体が複数あった場合の尤度の大小など)が分かりづらいためである。また、種々の外乱により、特徴点自体が誤って抽出される可能性があり、特徴点を接近物体ごとにまとめることで、そのような外乱による特徴点を排除することができるためである。 Here, the grouping process in step S140 will be described in detail. In this grouping process, feature points that have a likelihood greater than or equal to a threshold are extracted, and feature points that can be regarded as indicating the same approaching object under various conditions are extracted and grouped. This is because the feature point is merely a point, and as it is, it is difficult to understand information on the approaching object (the number, the magnitude of the likelihood when there are a plurality of approaching objects, etc.). Also, feature points themselves may be erroneously extracted due to various disturbances, and feature points due to such disturbances can be eliminated by collecting the feature points for each approaching object.
グルーピングを行う第1の条件は、特徴点が互いに近傍に存在することである。この近傍判定は、図6(a)に示すように、特徴点ごとに、各特徴点を中心とする正方などの領域を与え、これらの領域の重なりが生じる特徴点は、互いに近傍にあるとみなし、同じラベル(第1ラベル)を与えることでグループ化する。一方、領域が他の特徴点の領域と重なりを持たない孤立点は、外乱によるものとみなし、グループ化の対象から除外する。 The first condition for performing grouping is that feature points exist in the vicinity of each other. In this neighborhood determination, as shown in FIG. 6A, for each feature point, a square area or the like centering around each feature point is given, and the feature points where these regions overlap are in the vicinity of each other. Group by giving the same label (first label). On the other hand, isolated points whose regions do not overlap with other feature point regions are considered to be due to disturbance and are excluded from grouping targets.
グルーピングを行う第2の条件は、カメラの回転運動成分を除去した動きベクトル(ux,uy)Tの消失点が一致することである。そのため、同じ第1ラベルを持つ特徴点の集合のうち、消失点が一致する動きベクトル(ux,uy)Tを持つ特徴点に対して同じラベル(第2ラベル)を与える。この処理を行う理由は、図6(b)に示すように、同一接近物体の特徴点は、互いに平行に並進移動するため、それらの動きベクトルは、消失点を共有するという事実に基づいている。なお、物体が地面に対して平行に並進移動する場合、消失点は地平線上に存在することになる。 The second condition for performing the grouping is that the vanishing points of the motion vectors (u x , u y ) T from which the rotational motion components of the cameras are removed match. Therefore, the same label (second label) is given to the feature point having the motion vector (u x , u y ) T having the same vanishing point in the set of feature points having the same first label. The reason for this processing is based on the fact that, as shown in FIG. 6B, the feature points of the same approaching object translate in parallel with each other, so that their motion vectors share a vanishing point. . When the object moves in parallel with the ground, the vanishing point exists on the horizon.
ただし、対象とする接近物体は、カメラ10に近づく(Z1<Z0)ものに限定する。これは、図6(b)に示すように、各特徴点の動きベクトル(ux,uy)Tが、消失点から特徴点に向って放射状に拡散する方向を持つことに相当する。換言すれば、動きベクトル(ux,uy)Tが、特徴点から消失点に向かう方向をもつ特徴点については、グループ化の対象から除外し、ラベルを消去する。対象とする物体が、Z座標が変化しないような運動を持つ場合は、各特徴点の動きベクトル(ux,uy)Tは平行となるため、消失点は無限遠に損剤することになる。この状態が観測された場合は、これらの特徴点を同一物体としてグルーピングするようにしても良い。換言すれば、消失点座標に上限と下限を設けなくても良い。 However, the target approaching object is limited to that approaching the camera 10 (Z 1 <Z 0 ). As shown in FIG. 6B, this corresponds to the motion vector (u x , u y ) T of each feature point having a direction of radially diffusing from the vanishing point toward the feature point. In other words, the feature point having the direction from the feature point toward the vanishing point with the motion vector (u x , u y ) T is excluded from the grouping target and the label is deleted. When the target object has a motion such that the Z coordinate does not change, the motion vectors (u x , u y ) T of the feature points are parallel to each other, so that the vanishing point is damaged at infinity. Become. When this state is observed, these feature points may be grouped as the same object. In other words, it is not necessary to provide an upper limit and a lower limit for the vanishing point coordinates.
上記消失点の一致判定では、図6(b)に示すように、第1ラベルが付与されたグループごとに消失点座標の分布状態を求め、その分布状態から、同一の消失点を共有するとみなされる特徴点と、同一の消失点を共有するとはみなされない特徴点とを統計的に区分けする。あるいは、消失点を共有するか否かは、分布の中心から予め定めた閾値以内に属するか否かによって判別しても良い。さらに、動きベクトル(ux,uy)Tの誤差を考慮し、この誤差の下での、各消失点の変動範囲を求め、その変動範囲が互いに重複するものに同じ第2ラベルを付与しても良い。 In the vanishing point coincidence determination, as shown in FIG. 6B, the distribution state of the vanishing point coordinates is obtained for each group to which the first label is assigned, and it is considered that the same vanishing point is shared from the distribution state. And feature points that are not considered to share the same vanishing point. Alternatively, whether or not the vanishing point is shared may be determined by whether or not the vanishing point is within a predetermined threshold from the center of the distribution. Furthermore, considering the error of the motion vector (u x , u y ) T , the fluctuation range of each vanishing point under this error is obtained, and the same second label is assigned to those whose fluctuation ranges overlap each other. May be.
グルーピング処理の別の例として、物体が地面に対して必ずしも平行に並進移動していない場合を考える。この場合、消失点は、地平線上に存在するとは限らないので、2次元の消失点座標(x∞、y∞)を求めることが必要となる。 As another example of the grouping process, consider a case where an object does not necessarily translate in parallel with the ground. In this case, since the vanishing point does not necessarily exist on the horizon, it is necessary to obtain the two-dimensional vanishing point coordinates (x ∞ , y ∞ ).
ここで、特徴点kの、画像平面上で動きベクトル(ux,uy)Tを延長した直線の傾きをak、切片をbkとし、その直線と消失点とのy方向の距離をrkとおくと、y−akx−bk=rkが成立する。この式は特徴点の個数分だけ成立する。そして、第1ラベルが付与されたグループ毎に、rkの二乗和を最小化する消失点の値を、最小二乗法を用いて算出する。その算出した消失点に対して、絶対値として大きなrkの値をもつ特徴点は、消失点を共有していないと考えられるため、外れ値(アウトライア)として、閾値処理などで除外する。残った特徴点に対して、再度最小二乗法を適用することで、消失点座標を推定することができる。 Here, the inclination of the straight line obtained by extending the motion vector (u x , u y ) T on the image plane of the feature point k is a k , the intercept is b k, and the distance in the y direction between the straight line and the vanishing point is If r k is set, y−a k x−b k = r k holds. This equation holds for the number of feature points. Then, for each group of the first label has been applied, the value of the vanishing point that minimizes the square sum of r k, is calculated using the least squares method. Against vanishing point and the calculated feature point having a value larger r k as an absolute value, it is considered as not sharing vanishing point, as outliers (outliers), excluded the like thresholding. The vanishing point coordinates can be estimated by applying the least square method again to the remaining feature points.
なお、最小二乗法とアウトライア除去を組み合わせた方法として、RANSAC(RANdom SAmple Consensus)法を用いることも可能である。RANSAC法については、一般によく使われる手法であり、また、D.A.Forsyth, J.Ponce著“Computer Vision: A Modern Approach” Prentice Hallなどに詳しいため、ここでの説明は省略する。また、上述した例では、誤差rkをy方向の距離と置いたが、直線に対して垂直方向の距離として記述し、線形最小二乗問題として定式化することも可能である。これは、Total Least Squaresと呼ばれる方法である。なお、Total Least Squaresについても、一般によく使われる手法であり、またhttp://en.wikipedia.org/wiki/Total least squaresなどに詳しいため、ここでの説明は省略する。 Note that a RANSAC (RANdom SAmple Consensus) method can also be used as a method combining the least square method and outlier removal. The RANSAC method is a commonly used method, and DA. Forsyth, J. Ponce, “Computer Vision: A Modern Approach” Detailed explanation on Prentice Hall, etc. Further, in the above example, the error r k was placed with a distance in the y direction, described as the distance in the direction perpendicular to the straight line, it can be formulated as a linear least squares problem. This is a method called Total Least Squares. Note that Total Least Squares is also a commonly used technique, and is detailed in http://en.wikipedia.org/wiki/Total least squares, so a description thereof is omitted here.
グルーピングを行う第3の条件は、各特徴点の衝突時間TTCが類似していることである。そのため、同じ第2ラベルを持つ特徴点の集合のうち、衝突時間TTCが類似している特徴点に同じラベル(グループラベル)を与える。なお、衝突時間TTCは、カメラ10の前方(Z>0)に存在する物体が、画像平面に到達するまでの時間(実質的に、自車両と衝突するまでの時間)として定義される。 A third condition for performing grouping is that the collision times TTC of the feature points are similar. Therefore, the same label (group label) is given to the feature points having the same collision time TTC in the set of feature points having the same second label. The collision time TTC is defined as the time until an object existing in front of the camera 10 (Z> 0) reaches the image plane (substantially, the time until it collides with the host vehicle).
衝突時間TTCをΔTとおくと、衝突時間ΔTは、カメラ10の回転運動成分が除去された動きベクトル(ux,uy)T及び消失点座標(x∞, y∞)を用いて、下記の数式9により算出することができる。
数式9を用いて、特徴点ごとに衝突時間ΔTを求める。具体的には、特徴点ごとに、消失点座標(x∞, y∞)、動きベクトル(ux,uy)Tを数式9に代入して、衝突時間ΔTを算出する。なお、衝突時間ΔTは、動きベクトルの算出誤差を考慮し、ある範囲を持った時間として算出される。そして、同じ第2のラベルが付与されて、グループ化された特徴点の中で、衝突時間ΔTが互いに近いもの同士に同じグループラベルを与える。さらに、消失点の取り得る誤差をも考慮し、それらの誤差の下での衝突時間ΔTの範囲を定めても良い。 Using Equation 9, the collision time ΔT is obtained for each feature point. Specifically, for each feature point, vanishing point coordinates (x ∞ , y ∞ ) and motion vector (u x , u y ) T are substituted into Equation 9 to calculate the collision time ΔT. The collision time ΔT is calculated as a time having a certain range in consideration of a motion vector calculation error. Then, the same second label is assigned, and among the grouped feature points, those having the same collision time ΔT are given the same group label. Further, in consideration of possible errors of vanishing points, the range of the collision time ΔT under these errors may be determined.
ここで、同一の接近物体の衝突時間ΔTは、その物体の部位により多少のずれはあるものの、一般的な検出対象(人、自転車、車両など)を考慮する限り、類似していると考えるのが自然である。従って、条件1,2により同じラベルが付与され、グループ化された特徴点を対象として、各特徴点ごとに求めた衝突時間ΔTに関して、図6(c)に示すように、衝突時間ΔTの類似判定を行うのである。すなわち、あらかじめ設定した時間幅のエラーバーを与え、エラーバーの範囲で衝突時間ΔTが一致すれば衝突時間ΔTが類似すると判定し、エラーバーの範囲で衝突時間ΔTが一致しない特徴点があれば、グループから除外する。 Here, the collision time ΔT of the same approaching object is considered to be similar as long as general detection targets (people, bicycles, vehicles, etc.) are taken into consideration, although there are some deviations depending on the part of the object. Is natural. Accordingly, with respect to the collision time ΔT obtained for each feature point with the same label assigned under the conditions 1 and 2 as a target, the similarity of the collision time ΔT as shown in FIG. 6C. Judgment is made. That is, if an error bar having a preset time width is given and the collision time ΔT matches within the error bar range, it is determined that the collision time ΔT is similar, and if there is a feature point where the collision time ΔT does not match within the error bar range , Exclude from group.
なお、特徴点のグルーピングにおいては、同じグループラベルを持つ特徴点の数に下限を設けることが好ましい。そして、グループ化された特徴点の数が、下限に相当する所定数未満であった場合、そのグループ化された特徴点の集合が物体に対応したものとはみなさず、そのグループラベルを消去するようにしても良い。すると、特徴点の各グループは、少なくとも下限に相当する所定数以上の特徴点を含むことになるので、同一物体として信頼のおける判定を行うことができる。例えば、偶々、ノイズなどで特徴点が抽出されてしまった場合などに、それを接近物体として誤検出することを防止することができる。 In the grouping of feature points, it is preferable to set a lower limit on the number of feature points having the same group label. If the number of grouped feature points is less than a predetermined number corresponding to the lower limit, the set of grouped feature points is not regarded as corresponding to the object, and the group label is deleted. You may do it. Then, since each group of feature points includes at least a predetermined number of feature points corresponding to the lower limit, it is possible to make a reliable determination as the same object. For example, when a feature point is accidentally extracted due to noise or the like, it can be prevented from erroneously detecting it as an approaching object.
ただし、所定数が大き過ぎると、例えば遠方にあるため、画像に示す面積が少ないなどの理由から、特徴点の数が少なくなってしまった接近物体を未検出にする虞がある。そのため、所定数は、適切な値に設定する必要がある。例えば、実用上、所定数を2〜4に設定することが好ましいが、それ以外の数値でも良い。 However, if the predetermined number is too large, for example, because it is far away, there is a possibility that an approaching object having a small number of feature points may be undetected because the area shown in the image is small. Therefore, the predetermined number needs to be set to an appropriate value. For example, in practice, the predetermined number is preferably set to 2 to 4, but other numerical values may be used.
また、ステップS110の処理において、特徴点ごとに、尤度の算出に加えて、接近物体の属性が決定されている場合、ステップS140のグルーピング処理において、その属性情報も考慮して、グルーピングを行なっても良い。すなわち、接近物体の属性として同じ属性情報を持つ特徴点を、同一接近物体を示すものとして同じラベルを付与してグループ化しても良い。 In addition, in the process of step S110, when the attribute of the approaching object is determined for each feature point in addition to the calculation of the likelihood, the grouping process in step S140 performs grouping in consideration of the attribute information. May be. That is, feature points having the same attribute information as attributes of approaching objects may be grouped by giving the same label as indicating the same approaching object.
上述したグルーピング処理が終了すると、尤度算出部33は、図2のフローチャートのステップS150に進み、グループ化された特徴点により表される物体に関して、そのグループ化された複数の特徴点の尤度に基づき、物体が接近物体である確からしさを表す尤度の期待値を算出する。この尤度の期待値が、尤度算出部33の出力となる。
When the above-described grouping process is completed, the
この尤度の期待値は、例えば、グループ化された複数の特徴点の尤度を平均化処理することにより算出することができる。このような平均化処理により、グループ化された複数の特徴点の尤度を総合的に勘案して、尤度の期待値を算出することができるためである。この平均化処理は、単純平均でも良いが、特徴点毎に重みを付けた重み付け平均でも良い。この重みの取り方の一例を以下に説明する。 The expected value of likelihood can be calculated by, for example, averaging the likelihood of a plurality of grouped feature points. This is because the expected value of likelihood can be calculated by comprehensively considering the likelihood of a plurality of grouped feature points by such averaging processing. This averaging process may be a simple average, or may be a weighted average in which a feature point is weighted. An example of how to obtain this weight will be described below.
上述した消失点座標や衝突時間TTCは、比較的小さな誤差であっても、地平線に近い位置にある特徴点ほど、その誤差の影響を大きく受ける。そのため、地平線に近い特徴点ほど、グルーピング結果に誤りが生じる可能性が高くなる。従って、地平線からの距離などに応じて、各特徴点のグルーピングの信頼性を数値化することができる。そして、同じグループラベルを持つ特徴点の集合の中で、各特徴点の信頼性を示す値を正規化し、上記の重みとすることができる。また、グルーピングの信頼性の数値化のため、各特徴点の消失点範囲の逆数を取ることも可能である。 Even if the vanishing point coordinates and the collision time TTC described above are relatively small errors, the characteristic points closer to the horizon are more affected by the error. For this reason, the feature points closer to the horizon are more likely to have errors in the grouping result. Therefore, the reliability of the grouping of each feature point can be quantified according to the distance from the horizon. Then, in the set of feature points having the same group label, the value indicating the reliability of each feature point can be normalized and used as the above weight. In addition, in order to quantify the reliability of grouping, it is possible to take the reciprocal of the vanishing point range of each feature point.
なお、特徴点の尤度が、接近物体のそれぞれの属性ごとに算出されている場合には、接近物体の属性ごとに、尤度の期待値を算出し、最も高い尤度の期待値を示す属性を、接近物体の属性として決定することが好ましい。このようにすれば、接近物体が存在することを検出できるだけなく、その接近物体の属性を定めることも可能になる。 In addition, when the likelihood of the feature point is calculated for each attribute of the approaching object, the expected value of likelihood is calculated for each attribute of the approaching object, and the expected value of the highest likelihood is indicated. The attribute is preferably determined as the attribute of the approaching object. In this way, it is possible not only to detect the presence of an approaching object, but also to determine the attributes of the approaching object.
次に、画像処理ECU30のτ算出部34について説明する。まず、本実施形態では、図7に示すように、自車両への接近物体を運転者に報知するために、接近物体を取り囲む枠を、車両周辺画像に重畳表示するとともに、その枠及び枠で囲まれた接近物体を含む部分画像を時間の経過とともに拡大させて、接近物体について運転者の注意を喚起する。その際、各物体が接近物体である確からしさを表す尤度の期待値に応じて、当該接近物体の存在を運転者に報知する報知形態を異ならせるべく、上記枠及び部分画像を、尤度の期待値に応じた拡大率で拡大する。具体的には、尤度の期待値が大きくなるほど、枠及び部分画像が大きく拡大されるように、拡大率を定める。
Next, the
このように、尤度の期待値に応じた拡大率を定めるべく、本実施形態では、光学情報τを利用する。光学情報τは、図8に示すように、目の水晶体中の一点から物体上の輪郭部分の2点に向かう2直線の成す角度をθとしたとき、τ=θ/(dθ/dt)と定義される。なお、dθ/dtは、角度θの時間微分を表す。 In this way, the optical information τ is used in the present embodiment in order to determine the enlargement ratio according to the expected value of likelihood. As shown in FIG. 8, the optical information τ is τ = θ / (dθ / dt), where θ is an angle formed by two straight lines from one point in the crystalline lens of the eye to two points on the contour portion on the object. Defined. Note that dθ / dt represents time differentiation of the angle θ.
この光学情報τは、物体が接近物体である場合、その接近物体が網膜(を含む平面)まで到達する時間とほぼ等しいことが分かっている。このため、光学情報τは、接近物体が網膜(を含む平面)まで到達する時間と相関する値としても定義されるものである。 This optical information τ is known to be approximately equal to the time for the approaching object to reach the retina (including the plane) when the object is an approaching object. For this reason, the optical information τ is also defined as a value that correlates with the time for the approaching object to reach the retina (including the plane).
人間(やその他の動物)にはτニューロンと呼ばれる、τの値を持つ物体を視覚したときに発火する神経細胞の存在が知られており、その働きにより他の運動に関する情報(距離、速度、加速度など)と比べて、上述の到達時間がより直感的に知覚できることが知られている。例えば、自分に向かってくるボールを見たとき、ボールまでの距離やボールの速度、加速度は、(少なくとも瞬時のうちに)認知できないが、ボールが自分に到達するまでの時間の程度は、瞬時に認知することが可能である。このように、光学情報τは、人間にとって非常に認知することが容易な情報であり、それ故、光学情報τと、人間において注意が喚起される度合とは密接な関係があると言える。例えば、人間は、光学情報τが小さく、より短時間で自分に到達する物体、換言すれば、より早い速度で自分に向かってくる物体に、より強く注意が喚起される。 Humans (and other animals) are known to have neurons, called τ neurons, that ignite when an object with a value of τ is viewed. Information on other movements (distance, speed, It is known that the above-mentioned arrival time can be perceived more intuitively than the acceleration). For example, when you look at a ball that is facing you, you cannot recognize the distance to the ball, the speed or acceleration of the ball (at least in an instant), but the amount of time it takes for the ball to reach you It is possible to recognize. Thus, the optical information τ is information that is very easy for humans to recognize. Therefore, it can be said that the optical information τ is closely related to the degree of attention drawn by humans. For example, human beings are more strongly alerted to objects that have small optical information τ and that reach themselves in a shorter period of time, in other words, objects that come toward themselves at a faster speed.
そのため、τ算出部34では、尤度算出部33から出力された尤度の期待値が大きくなるほど、小さくなる光学情報τを算出する。すなわち、光学情報τは、尤度の期待値に対して減少関数となる。例えば、光学情報τは、尤度の期待値の逆数から算出することができる。この場合、係数は予め実験的に定めておく。また、光学情報τを、尤度の期待値に対して傾きを負とする一次関数により算出しても良い。この場合、傾きや切片は予め実験的に定めておく。逆数や一次関数以外の、より複雑な関数によって光学情報τを算出しても良いことはいうまでもない。
For this reason, the
枠/部分画像描画部35は、τ算出部34によって算出された光学情報τを用いて、枠及び部分画像の拡大率を定め、時間の経過とともに、その拡大率に従った大きさの枠及び部分画像を生成する。ここで、光学情報τを用いて拡大率を定める場合、拡大率を(1+τ−1)とする。このように拡大率を定めることにより、接近物体に対応する枠及び部分画像が、光学情報τに従って接近するように画面上に表示することができる。従って、尤度の期待値が大きく、そのため、光学情報τとして小さな値が設定される接近物体に対応する枠及び部分画像ほど、時間の経過とともに大きく拡大されるようになる。
The frame / partial
また、枠/部分画像描画部35は、図7に示すように、枠及び部分画像の拡大を所定時間だけ実行すると、枠及び部分画像の大きさを拡大しない状態に戻す。そして、その状態から、再び、枠及び部分画像を、τ算出部34にて算出された光学情報τに応じた拡大率で拡大させる。すなわち、枠/部分画像描画部35は、所定時間毎に、枠及び部分画像の拡大を繰り返し実行する。このように、枠及び部分画像の拡大を繰り返し実行することにより、枠及び部分画像の拡大表示を継続的に行うことができ、注意喚起の効果を高めることができる。また、表示器40の表示範囲の制約から、枠及び部分画像の大きさを拡大するにも限界があるが、上述したように所定時間毎に、拡大しない状態に戻すことにより、表示範囲の制約もクリアすることができる。
Further, as illustrated in FIG. 7, the frame / partial
画像描画部36は、カメラ10によって撮影された画像情報に基づいて、表示器40に表示するための画像を生成するものである。また、合成部37は、画像描画部36にて生成された画像上に、枠/部分画像描画部35にて生成された枠及び部分画像を重畳することにより、それらの画像を合成するものである。そして、表示器40は、車室内に設けられ、合成部37によって合成された画像を表示する。
The
本実施形態では、上述したように、車両周辺に接近物体が存在する場合、その接近物体を取り囲む枠、及び枠によって囲まれた部分画像を時間の経過とともに拡大するように表示する。このため、接近物体の存在を、自車両の運転者に視覚を通じて分かりやすく報知することができる。特に、枠及び部分画像は、尤度の期待値に対応した拡大率で拡大されるので、尤度の期待値が大きいほど、枠及び部分画像が大きく拡大されることになる。このため、尤度の期待値の大きさの違いが一目瞭然であるとともに、より尤度の期待値の高い接近物体に対して一層の注意を払うように、運転者に注意喚起を促すことができる。 In the present embodiment, as described above, when an approaching object is present around the vehicle, a frame surrounding the approaching object and a partial image surrounded by the frame are displayed so as to be enlarged with the passage of time. For this reason, the presence of an approaching object can be reported to the driver of the host vehicle in an easy-to-understand manner visually. Particularly, since the frame and the partial image are enlarged at an enlargement rate corresponding to the expected value of likelihood, the frame and the partial image are greatly enlarged as the expected value of likelihood is larger. For this reason, the difference in the magnitude of the expected value of likelihood is obvious at a glance, and the driver can be alerted to pay more attention to an approaching object with a higher expected value of likelihood. .
なお、上述した実施形態において、枠/部分画像描画部35は、枠の表示に関して、以下に示すような表示を行なっても良い。
In the above-described embodiment, the frame / partial
まず、枠/部分画像描画部35は、枠及び部分画像が拡大される拡大率に応じて、枠の線の太さを変化させても良い。すなわち、時間の経過とともに枠が徐々に拡大表示されるとき、拡大される大きさが大きくなるほど、枠の線の太さを太くしても良い。これにより、枠が大きく拡大されるほど、より枠の表示が目立つように表示することができ、運転者の注意をより強く喚起することができる。
First, the frame / partial
また、枠/部分画像描画部35は、枠を、その背景部分が視認できるように、半透明にて表示しても良い。これにより、枠を重畳表示しながら、車両周辺の画像全体を運転者が視認できるようになる。
Further, the frame / partial
また、枠/部分画像描画部35は、枠の影を、枠の奥側に表示するようにしても良い。これにより、枠を拡大させる際に、立体感を与えることができ、枠が運転者に近づいているような感覚を与えることができる。なお、枠の影は、枠の場合と同様に、その背景部分が視認できるように、半透明にて表示するようにしても良い。
Further, the frame / partial
また、枠/部分画像描画部35あるいは合成部37は、複数の接近物体に対応する枠を同時に車両周辺画像に重畳表示する必要がある場合であって、複数の接近物体に対応する枠が重なる場合には、尤度の期待値が大きい接近物体に対応する枠が手前に表示されるように、枠を示す画像を生成したり、枠を示す画像を合成したりすることが好ましい。これにより、車両に対して接近する複数の接近物体が有る場合に、運転者が注意を払うべき優先度合に応じた表示を行うことができる。
Also, the frame / partial
また、枠/部分画像描画部35は、尤度算出部33により、接近物体の属性が決定されている場合には、枠の形態を、その決定された接近物体の属性に応じたものとしても良い。例えば、枠の形状を、歩行者、自転車、あるいは車両を形どったものにしたり、枠の色を接近物体の属性に応じた色にしたりする。これにより、運転者に対して、枠の表示形態を用いて、接近物体の属性も報知することが可能になる。
Further, the frame / partial
さらに、画像処理ECU30は、表示器40が立体的な表示を行うことが可能なものである場合、枠を立体的に表示させつつ、拡大させても良い。このような立体的な表示を行うことにより、枠が運転者に近づいているような感覚をより一層鮮明に与えることができる。
Further, the
以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することが可能である。 The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.
例えば、上述した実施形態では、尤度算出部33は、特徴点の尤度を、接近物体のそれぞれの属性ごとに算出した場合、算出した尤度の期待値の中で最も高い値を示す属性を、その接近物体の属性と決定した。
For example, in the above-described embodiment, when the
しかしながら、例えば、少なくとも歩行者、自転車、自動車を接近物体の属性とし、接近物体が、歩行者である確率、自転車である確率、車両である確率を、それぞれの事前確率分布として予め定めておき、接近物体の属性ごとに、尤度の期待値と事前確率とをかけ合わせて事後確率を算出し、最も高い事後確率を有する属性を、接近物体の属性として決定しても良い。このように事前確率を用いることにより、例えば車両を停車させた場所に応じて、異なる事前確率分布を設定することも可能となり、接近物体の属性の決定をより一層精度良く行うことが可能となる。例えば、車両専用の駐車場においては、接近物体は歩行者、車両である確率が高く、自転車である確率は低いといえる。一方、道路から歩道を挟んで設けられた駐車スペースに車両を停車した場合、接近物体は歩行者又は自転車である確率が高く、車両である確率は低いといえる。従って、尤度の期待値だけではなく、このような事前確率分布を考慮することで、接近物体の属性を判別する精度をより向上することが可能となる。 However, for example, at least pedestrians, bicycles, and automobiles are attributes of approaching objects, the probability that the approaching object is a pedestrian, the probability of being a bicycle, the probability of being a vehicle is determined in advance as respective prior probability distributions, For each attribute of the approaching object, the posterior probability may be calculated by multiplying the expected value of the likelihood and the prior probability, and the attribute having the highest posterior probability may be determined as the attribute of the approaching object. By using prior probabilities in this way, it is possible to set different prior probability distributions, for example, depending on the location where the vehicle is stopped, and it is possible to determine the attributes of approaching objects with higher accuracy. . For example, in a vehicle-dedicated parking lot, it can be said that the approaching object has a high probability of being a pedestrian and a vehicle, and the probability of being a bicycle is low. On the other hand, when the vehicle is stopped in a parking space provided across the sidewalk from the road, the approaching object is likely to be a pedestrian or a bicycle, and the probability of being a vehicle is low. Therefore, by considering not only the expected likelihood value but also such a prior probability distribution, it is possible to further improve the accuracy of determining the attribute of the approaching object.
また、上述した実施形態では、接近物体である確からしさを表す尤度の期待値に応じた拡大率で、接近物体を取り囲む枠、及びその枠に囲まれた接近物体を含む部分画像を時間の経過とともに拡大表示するものであった。 In the above-described embodiment, the frame surrounding the approaching object and the partial image including the approaching object surrounded by the frame at the enlargement rate according to the expected value of the likelihood representing the probability of being the approaching object The display was enlarged with the passage of time.
しかしながら、拡大表示するのは、枠のみでも良いし、あるいは、枠の表示は行わず、部分画像のみを拡大表示するようにしても良い。 However, only the frame may be displayed in an enlarged manner, or only the partial image may be displayed in an enlarged manner without displaying the frame.
10 カメラ
20 車両情報検出部
30 画像処理ECU
40 表示器
10
40 indicator
Claims (23)
前記撮影手段によって異なる時刻に撮影された第1画像及び第2画像において、同一の特徴点を抽出するとともに、前記第1画像における前記特徴点の第1座標位置、及び前記第2画像における前記特徴点の第2座標位置を算出する第1の算出手段と、
前記第1画像の撮影時刻と前記第2画像の撮影時刻との間における、前記自車両の並進方向への移動による前記撮影手段の移動ベクトルを算出する第2の算出手段と、
前記第1の算出手段によって算出された第1座標位置及び第2座標位置と、前記第2の算出手段によって算出された移動ベクトルとに基づいて、前記特徴点が接近物体を示すものである場合に、前記第2座標位置が取り得る値の確率分布、移動速度として取り得る確率分布、及び前記撮影手段の撮影する奥行き方向において、存在すべき位置の確率分布を用いて、前記特徴点が、現実の空間において、前記自車両に接近する接近物体を示すものである確からしさを表す尤度を算出する尤度算出手段と、
前記尤度を算出した特徴点を物体ごとにグループ化しつつ、グループ化された複数の特徴点の尤度に基づき、各物体が接近物体である確からしさを表す尤度の期待値を算出する期待値算出手段と、
接近物体が存在することを前記自車両の乗員に報知するものであって、前記期待値算出手段によって算出された尤度の期待値に応じて、接近物体の存在を前記自車両の乗員に報知する際の報知形態を異ならせる報知手段と、を備えることを特徴とする車両用運転支援装置。 Photographing means mounted on the subject vehicle so as to photograph the periphery of the subject vehicle;
In the first image and the second image taken at different times by the photographing means, the same feature point is extracted, the first coordinate position of the feature point in the first image, and the feature in the second image. First calculating means for calculating a second coordinate position of the point;
Second calculating means for calculating a movement vector of the photographing means by movement of the host vehicle in a translational direction between the photographing time of the first image and the photographing time of the second image;
The feature point indicates an approaching object based on the first coordinate position and the second coordinate position calculated by the first calculation unit and the movement vector calculated by the second calculation unit. In addition, using the probability distribution of values that can be taken by the second coordinate position, the probability distribution that can be taken as a moving speed, and the probability distribution of positions that should be present in the depth direction to be photographed by the photographing means, the feature points are: A likelihood calculating means for calculating a likelihood representing a probability that indicates an approaching object approaching the host vehicle in a real space;
Expectation to calculate the expected value of likelihood indicating the likelihood that each object is an approaching object based on the likelihood of the plurality of feature points grouped while grouping the feature points for which the likelihood is calculated A value calculating means;
Informing the occupant of the host vehicle of the presence of an approaching object, and informing the occupant of the host vehicle of the presence of an approaching object according to the expected value of likelihood calculated by the expected value calculation means. A vehicle driving support device, comprising: a notification unit configured to change a notification mode when performing the operation.
前記期待値算出手段は、前記接近物体の属性ごとに、前記尤度の期待値を算出し、最も高い尤度の期待値を示す属性を、前記接近物体の属性として決定することを特徴とする請求項1乃至5のいずれかに記載の車両用運転支援装置。 The likelihood calculating means sets at least a pedestrian, a bicycle, and a car as an attribute of an approaching object, and calculates the likelihood of the feature point for each attribute of the approaching object,
The expected value calculation means calculates the expected value of the likelihood for each attribute of the approaching object, and determines an attribute indicating the expected value of the highest likelihood as the attribute of the approaching object. The vehicle driving support device according to any one of claims 1 to 5.
前記期待値算出手段は、前記接近物体の属性ごとに、前記尤度の期待値を算出するとともに、接近物体に関して、それが歩行者である確率、自転車である確率、車両である確率を、それぞれの事前確率分布として予め定めておき、前記接近物体の属性ごとに、前記尤度の期待値と前記確率とをかけ合わせて事後確率を算出し、最も高い事後確率を有する属性を、前記接近物体の属性として決定することを特徴とする請求項1乃至5のいずれかに記載の車両用運転支援装置。 The likelihood calculating means sets at least a pedestrian, a bicycle, and a car as an attribute of an approaching object, and calculates the likelihood of the feature point for each attribute of the approaching object,
The expected value calculation means calculates the expected value of the likelihood for each attribute of the approaching object, and regarding the approaching object, the probability that it is a pedestrian, the probability that it is a bicycle, and the probability that it is a vehicle, respectively. For each attribute of the approaching object, the posterior probability is calculated by multiplying the expected value of the likelihood and the probability, and the attribute having the highest posterior probability is determined as the approaching object. The vehicle driving support apparatus according to claim 1, wherein the driving support apparatus is determined as an attribute of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011269220A JP5516561B2 (en) | 2011-12-08 | 2011-12-08 | Vehicle driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011269220A JP5516561B2 (en) | 2011-12-08 | 2011-12-08 | Vehicle driving support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013120551A JP2013120551A (en) | 2013-06-17 |
JP5516561B2 true JP5516561B2 (en) | 2014-06-11 |
Family
ID=48773154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011269220A Expired - Fee Related JP5516561B2 (en) | 2011-12-08 | 2011-12-08 | Vehicle driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5516561B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6572411B2 (en) * | 2014-11-11 | 2019-09-11 | 株式会社明電舎 | Rail detector |
JP6835065B2 (en) | 2016-03-18 | 2021-02-24 | 日本電気株式会社 | Information processing equipment, control methods, and programs |
JP6699323B2 (en) * | 2016-04-26 | 2020-05-27 | 株式会社明電舎 | Three-dimensional measuring device and three-dimensional measuring method for train equipment |
JP6278091B1 (en) * | 2016-10-14 | 2018-02-14 | マツダ株式会社 | Driving assistance device |
KR101982298B1 (en) * | 2016-11-24 | 2019-05-24 | 고려대학교 산학협력단 | Method and apparatus for detecting sudden moving objecj appearance at vehicle |
JP2019174892A (en) * | 2018-03-27 | 2019-10-10 | クラリオン株式会社 | Resting three-dimensional object detection device and resting three-dimensional object detection method |
JP7156195B2 (en) * | 2019-07-17 | 2022-10-19 | トヨタ自動車株式会社 | object recognition device |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3729933B2 (en) * | 1996-05-31 | 2005-12-21 | 松下電器産業株式会社 | Automatic monitoring device |
JP2002298299A (en) * | 2001-03-30 | 2002-10-11 | Toshiba Corp | Driving support device for vehicle |
JP2002314989A (en) * | 2001-04-10 | 2002-10-25 | Yazaki Corp | Peripheral monitor for vehicle |
JP3763279B2 (en) * | 2002-02-26 | 2006-04-05 | 日本電気株式会社 | Object extraction system, object extraction method, and object extraction program |
JP2005250645A (en) * | 2004-03-02 | 2005-09-15 | Murakami Corp | Vehicle peripheral monitoring device and vehicle peripheral monitoring method |
JP2006318345A (en) * | 2005-05-16 | 2006-11-24 | Sony Corp | Object tracking method, program for object tracking method, recording medium where program for object tracking method is recorded, and object tracking device |
JP2007128460A (en) * | 2005-11-07 | 2007-05-24 | Sumitomo Electric Ind Ltd | Collision determination system, collision determination method, computer program, and determination device |
JP2008172441A (en) * | 2007-01-10 | 2008-07-24 | Omron Corp | Detection device, method, and program |
JP4919036B2 (en) * | 2007-01-30 | 2012-04-18 | アイシン精機株式会社 | Moving object recognition device |
JP4885793B2 (en) * | 2007-05-22 | 2012-02-29 | 富士通テン株式会社 | Obstacle monitoring device |
JP2009042824A (en) * | 2007-08-06 | 2009-02-26 | Toyota Motor Corp | Drunken driving preventing device |
JP5636609B2 (en) * | 2008-05-08 | 2014-12-10 | アイシン精機株式会社 | Vehicle periphery display device |
WO2011108218A1 (en) * | 2010-03-01 | 2011-09-09 | 本田技研工業株式会社 | Surrounding area monitoring device for vehicle |
-
2011
- 2011-12-08 JP JP2011269220A patent/JP5516561B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013120551A (en) | 2013-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5516561B2 (en) | Vehicle driving support device | |
CN112292711B (en) | Associating LIDAR data and image data | |
JP7025912B2 (en) | In-vehicle environment recognition device | |
US20170297488A1 (en) | Surround view camera system for object detection and tracking | |
EP2924653B1 (en) | Image processing apparatus and image processing method | |
WO2016117200A1 (en) | Outside environment recognition device for vehicles and vehicle behavior control device using same | |
JP4480083B2 (en) | Object recognition device | |
CN112349144B (en) | Monocular vision-based vehicle collision early warning method and system | |
JP5922866B2 (en) | System and method for providing guidance information to a vehicle driver | |
JP6328327B2 (en) | Image processing apparatus and image processing method | |
US9177196B2 (en) | Vehicle periphery monitoring system | |
JP6163453B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
JP4943034B2 (en) | Stereo image processing device | |
CN107845290B (en) | Intersection warning method, processing system, intersection warning system and vehicle | |
JP2009037622A (en) | Method and device for evaluating image | |
US20110228981A1 (en) | Method and system for processing image data | |
JP5834810B2 (en) | Camera calibration apparatus, occupant support apparatus, and distortion coefficient generation method for camera calibration | |
JP4609603B2 (en) | 3D information display device and 3D information display method | |
KR102082254B1 (en) | a vehicle recognizing system | |
KR102349979B1 (en) | Method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens | |
JP2019511780A (en) | Method for detecting an object near a road of a motor vehicle, computer device, driver assistance system, and motor vehicle | |
JP2020508501A (en) | Method and apparatus for estimating the range of a moving object | |
EP3082069A1 (en) | Stereoscopic object detection device and stereoscopic object detection method | |
US20180012368A1 (en) | Moving object detection device, image processing device, moving object detection method, and integrated circuit | |
WO2010113253A1 (en) | Three-dimensional information display device and three-dimensional information display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5516561 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |