JP5516561B2 - Vehicle driving support device - Google Patents

Vehicle driving support device Download PDF

Info

Publication number
JP5516561B2
JP5516561B2 JP2011269220A JP2011269220A JP5516561B2 JP 5516561 B2 JP5516561 B2 JP 5516561B2 JP 2011269220 A JP2011269220 A JP 2011269220A JP 2011269220 A JP2011269220 A JP 2011269220A JP 5516561 B2 JP5516561 B2 JP 5516561B2
Authority
JP
Japan
Prior art keywords
likelihood
image
frame
approaching object
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011269220A
Other languages
Japanese (ja)
Other versions
JP2013120551A (en
Inventor
育郎 佐藤
千晴 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2011269220A priority Critical patent/JP5516561B2/en
Publication of JP2013120551A publication Critical patent/JP2013120551A/en
Application granted granted Critical
Publication of JP5516561B2 publication Critical patent/JP5516561B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、例えば停止した状態から車両を発進させる際に、車両の運転者に対して接近物体に関する情報を提供する車両用運転支援装置に関する。   The present invention relates to a vehicle driving support device that provides information about an approaching object to a vehicle driver when the vehicle is started from a stopped state, for example.

従来、車両に接近する物体を検知したり、車両周囲の障害物を検知したりする各種のシステムが知られている。例えば、特許文献1には、接近する物体を検知するシステムが記載されている。このシステムでは、時系列的に前後する複数の画像に基づくオプティカルフロー処理により、それらの画像の内、時系列的に特定の向きに移動した画像部分を抽出し、各検出画像部分に対し、特定の向きとは異なる方向にそって動的計画法に基づく処理を施すことで、時系列的に前の画像におけるその画像部分に対する、時系列的に後の画像におけるその画像部分の拡大率を求める。そして、その拡大率に応じて、その画像部分に対応した移動体が接近しつつあるか否かを判定する。   Conventionally, various systems for detecting an object approaching a vehicle or detecting an obstacle around the vehicle are known. For example, Patent Document 1 describes a system that detects an approaching object. In this system, by using optical flow processing based on multiple images that move back and forth in time series, image parts that have moved in a specific direction in time series are extracted from these images, and each detected image part is specified. By performing processing based on dynamic programming along a direction different from the direction of the image, the enlargement ratio of the image portion in the subsequent image is obtained in a time series with respect to that image portion in the previous image in time series . Then, it is determined whether or not the moving object corresponding to the image portion is approaching according to the enlargement ratio.

また、特許文献2には、駐車スペースから道路に進行する際に、道路上の接近車両を検出する装置が記載されている。この特許文献2の装置では、カメラ撮影画像で道路の消失点を求め、その消失点の縦座標位置を通る水平ラインと、その近傍に配した並行なラインとを含む複数の検査ラインを設定する。そして、検査ラインのそれぞれにおいて、所定フレーム数のライン画像を積み上げた時空間画像を作成し、時空間画像上で移動物体を検出する。   Patent Document 2 describes an apparatus that detects an approaching vehicle on a road when traveling from a parking space to a road. In the apparatus of Patent Document 2, a vanishing point of a road is obtained from a camera-captured image, and a plurality of inspection lines including a horizontal line passing through the ordinate position of the vanishing point and parallel lines arranged in the vicinity thereof are set. . Then, in each inspection line, a spatiotemporal image in which line images of a predetermined number of frames are stacked is created, and a moving object is detected on the spatiotemporal image.

さらに、特許文献3には、車両周辺の障害物(立体物)を検出するとともに、その障害物が静止しているのか、移動しているのかを検出する周辺監視装置が記載されている。この周辺監視装置では、車両に設置されたカメラの撮影画像を鳥瞰図画像に変換し、異なる時刻に得られた鳥瞰図画像の位置合わせを画像データに基づいて行う。その際、高さのある障害物には位置ずれが生じ、差分領域が形成されるので、その差分領域に基づき、障害物を検出する。さらに、障害物が地面に位置している点の移動量から静止物であるか、移動物であるかを分類する。   Furthermore, Patent Document 3 describes a periphery monitoring device that detects an obstacle (a three-dimensional object) around a vehicle and detects whether the obstacle is stationary or moving. In this periphery monitoring device, a captured image of a camera installed in a vehicle is converted into a bird's-eye view image, and alignment of bird's-eye view images obtained at different times is performed based on image data. At that time, the obstacle with the height is displaced and a difference area is formed. Therefore, the obstacle is detected based on the difference area. Furthermore, it classifies whether the obstacle is a stationary object or a moving object based on the movement amount of the point where the obstacle is located on the ground.

特開2010−152873号公報JP 2010-152873 A 特開2005―217482号公報JP 2005-217482 A 特開2008−219063号公報JP 2008-219063 A

例えば駐車されている車両を前方又は後方へ発進させる際、当該車両に対して接近してくる歩行者や車両などの物体との接触事故が発生することがある。この種の事故が発生するのは、車両周囲に死角となる領域があるなどの理由から、車両を発進させようとしている運転者が、接近してくる物体に気づきにくいことが主な原因と考えられる。そのため、上述した特許文献1〜3のように、車両に搭載されたカメラによって撮影された画像に基づいて、車両に接近する物体を検知し、運転者に報知する各種のシステムが提案されている。   For example, when a parked vehicle is started forward or backward, a contact accident with an object such as a pedestrian or a vehicle approaching the vehicle may occur. This type of accident occurs mainly because the driver trying to start the vehicle is less likely to notice an approaching object because there is a blind spot around the vehicle. It is done. Therefore, as in Patent Documents 1 to 3 described above, various systems for detecting an object approaching the vehicle and notifying the driver based on an image taken by a camera mounted on the vehicle have been proposed. .

しかしながら、現在の画像センシング技術では、様々な外乱(ノイズ、オクルージョン、モーションブラー、鏡面ハイライト、環境光の変化など)により、誤検出や未検出などの検出ミスの発生をゼロにすることは不可能である。そのため、特許文献1〜3に記載されたような、接近物体の有無に応じて報知/非報知を切り替える2値化型の装置では、誤検出や未検出による誤った情報の提示によって、運転者を混乱させる虞がある。   However, with current image sensing technology, it is not possible to zero out detection errors such as false detection and non-detection due to various disturbances (noise, occlusion, motion blur, specular highlights, changes in ambient light, etc.). Is possible. Therefore, in the binarization type device that switches between notification / non-notification according to the presence / absence of an approaching object as described in Patent Documents 1 to 3, a driver is presented by erroneous information presented due to erroneous detection or non-detection. May be confusing.

本発明は、上述した点に鑑みてなされたものであり、接近物体の未検出を低減しつつ、誤検出に基づく情報の提供によって運転者に混乱を生じさせることを抑制することが可能な車両用運転支援装置を提供することを目的とする。   The present invention has been made in view of the above-described points, and is a vehicle capable of reducing the undetected approaching object and suppressing the driver from being confused by providing information based on erroneous detection. An object of the present invention is to provide a driving support apparatus.

上記目的を達成するために、請求項1に記載の車両用運転支援装置は、
自車両の周辺を撮影するように、当該自車両に搭載された撮影手段と、
撮影手段によって異なる時刻に撮影された第1画像及び第2画像において、同一の特徴点を抽出するとともに、第1画像における特徴点の第1座標位置、及び第2画像における特徴点の第2座標位置を算出する第1の算出手段と、
第1画像の撮影時刻と第2画像の撮影時刻との間における、自車両の並進方向への移動による撮影手段の移動ベクトルを算出する第2の算出手段と、
第1の算出手段によって算出された第1座標位置及び第2座標位置と、第2の算出手段によって算出された移動ベクトルとに基づいて、特徴点が接近物体を示すものである場合に、第2座標位置が取り得る値の確率分布、移動速度として取り得る確率分布、及び撮影手段の撮影する奥行き方向において、存在すべき位置の確率分布を用いて、特徴点が、現実の空間において、自車両に接近する接近物体を示すものである確からしさを表す尤度を算出する尤度算出手段と、
尤度を算出した特徴点を物体ごとにグループ化しつつ、グループ化された複数の特徴点の尤度に基づき、各物体が接近物体である確からしさを表す尤度の期待値を算出する期待値算出手段と、
接近物体が存在することを自車両の乗員に報知するものであって、期待値算出手段によって算出された尤度の期待値に応じて、接近物体の存在を自車両の乗員に報知する際の報知形態を異ならせる報知手段と、を備えることを特徴とする。
In order to achieve the above object, a vehicle driving support apparatus according to claim 1 is provided.
Photographing means mounted on the subject vehicle so as to photograph the periphery of the subject vehicle;
In the first image and the second image taken at different times by the photographing means, the same feature point is extracted, the first coordinate position of the feature point in the first image, and the second coordinate of the feature point in the second image First calculating means for calculating a position;
Second calculating means for calculating a movement vector of the photographing means by movement of the host vehicle in the translational direction between the photographing time of the first image and the photographing time of the second image;
When the feature point indicates an approaching object based on the first coordinate position and the second coordinate position calculated by the first calculation unit and the movement vector calculated by the second calculation unit , Using the probability distribution of the values that can be taken by the two coordinate positions, the probability distribution that can be taken as the moving speed, and the probability distribution of the positions that should be present in the depth direction taken by the photographing means , A likelihood calculating means for calculating a likelihood representing a probability indicating an approaching object approaching the vehicle;
Expected value for calculating the expected value of likelihood that represents the likelihood that each object is an approaching object based on the likelihood of multiple grouped feature points while grouping the feature points for which likelihood is calculated A calculation means;
When notifying an occupant of the own vehicle that there is an approaching object, and informing the occupant of the own vehicle of the presence of the approaching object according to the expected value of the likelihood calculated by the expected value calculating means. And a notification means for changing a notification form.

上記のように、請求項1に記載の車両用運転支援装置では、尤度算出手段により、画像における特徴点が接近物体を示すものである確からしさを表す尤度が算出され、さらに期待値算出手段により、尤度を算出した特徴点が物体ごとにグループ化され、グループ化された複数の特徴点の尤度から、各物体が接近物体である確からしさを表す尤度の期待値が算出される。すなわち、グループ化された複数の特徴点に対応する各物体が、接近物体であるか否かを二値的に判定するのではなく、接近物体である確からしさを、尤度の期待値により連続的な値として算出する。従って、接近物体である可能性が低い物体が存在した場合、それを接近物体として検出しないのではなく、低い尤度の期待値を持った接近物体として検出することが可能となる。このため、接近物体が存在しながら、未検出となることを低減することができる。   As described above, in the vehicle driving support device according to claim 1, the likelihood calculating unit calculates the likelihood indicating the probability that the feature point in the image indicates the approaching object, and further calculates the expected value. The likelihood-calculated feature points are grouped for each object, and the expected likelihood value representing the likelihood that each object is an approaching object is calculated from the likelihood of the grouped feature points. The That is, instead of binaryly determining whether or not each object corresponding to a plurality of grouped feature points is an approaching object, the probability of being an approaching object is continuously determined by the expected value of likelihood. As a typical value. Therefore, if there is an object that is unlikely to be an approaching object, it is not detected as an approaching object, but can be detected as an approaching object having an expected value with a low likelihood. For this reason, it can reduce that it does not detect while an approaching object exists.

一方、尤度の期待値が低いほど、その物体は、必ずしも接近物体ではない可能性が高まる。そのため、報知手段は、尤度の期待値に応じて、接近物体の存在を報知する際の報知形態を異ならせる。これにより、運転者は、接近物体の報知が行われる際に、その確からしさを認識できるので、実際には接近物体ではなかった場合であっても、それによって混乱を生じることを抑制することができる。   On the other hand, the lower the expected likelihood value, the higher the possibility that the object is not necessarily an approaching object. For this reason, the notification means changes the notification form when notifying the presence of the approaching object according to the expected value of likelihood. As a result, the driver can recognize the certainty when the approaching object is notified, so that even if it is not actually the approaching object, it can suppress the occurrence of confusion. it can.

請求項2に記載したように、期待値算出手段は、所定の閾値以上の尤度を持つ特徴点を対象として、グループ化を行うようにしても良い。これにより、期待値算出手段において、処理対象となる特徴点を絞り込むことができるので、処理負荷を低減し、処理を迅速に実行することができる。この場合、接近物体の未検出を極力抑制するために、尤度の閾値は、未検出率が極めて小さくなるように設定される。   As described in claim 2, the expected value calculation means may perform grouping on feature points having a likelihood equal to or greater than a predetermined threshold. Thereby, since the expected value calculation means can narrow down the feature points to be processed, the processing load can be reduced and the processing can be executed quickly. In this case, in order to suppress the non-detection of the approaching object as much as possible, the likelihood threshold is set so that the non-detection rate becomes extremely small.

請求項3に記載したように、期待値算出手段は、グループ化された複数の特徴点の尤度を平均化処理して、尤度の期待値を算出しても良い。このような平均化処理により、グループ化された複数の特徴点の尤度を総合的に勘案して、尤度の期待値を算出することができる。   According to a third aspect of the present invention, the expected value calculation means may calculate the expected value of likelihood by averaging the likelihoods of a plurality of grouped feature points. By such an averaging process, the expected value of likelihood can be calculated by comprehensively considering the likelihood of a plurality of grouped feature points.

複数の特徴点の尤度を平均化処理して尤度の期待値を算出する場合、請求項4に記載したように、期待値算出手段は、同じグループに属する信頼性が高いほど、大きな重みを付与する重み付け平均処理を行うようにしても良い。グループ化は、特徴点同士が近接している、特徴点の動きベクトルが共通の消失点を共有している、自車両と各特徴点が指し示す3次元点と画像平面との距離がゼロとなるまでの衝突時間が類似している、などの種々の観点で行われる。ただし、後に詳述するように、ここで言う特徴点の動きベクトルとは、車両の回転運動によって生じる動きベクトルの成分を除去したものである。このため、各特徴点で、同一グループに属する信頼性には差が生じる場合がある。この場合、グループに属する信頼性が高い特徴点の尤度ほど大きな重みを付与して平均化処理を行うことにより、各物体の尤度の期待値をより精度良く算出することができる。   In the case of calculating the likelihood expectation value by averaging the likelihoods of a plurality of feature points, as described in claim 4, the expectation value calculation means has a higher weight as the reliability belonging to the same group is higher. A weighted average process for assigning In grouping, feature points are close to each other, motion vectors of feature points share a common vanishing point, and the distance between the vehicle and the three-dimensional point indicated by each feature point is zero. It is performed from various viewpoints such as a similar collision time. However, as will be described in detail later, the feature point motion vector referred to here is obtained by removing the motion vector component generated by the rotational motion of the vehicle. For this reason, there may be a difference in the reliability belonging to the same group at each feature point. In this case, it is possible to calculate the expected value of the likelihood of each object with higher accuracy by assigning a greater weight to the likelihood of the feature point having higher reliability belonging to the group and performing the averaging process.

請求項5に記載したように、期待値算出手段は、グループ化された特徴点の数が所定数未満であった場合、そのグループ化された特徴点の集合が物体に対応したものとはみなさず、尤度の期待値の算出を行わないようにしても良い。これにより、偶々、ノイズなどで特徴点が抽出されてしまった場合などに、接近物体として誤検出することを防止することができる。   As described in claim 5, when the number of grouped feature points is less than a predetermined number, the expectation value calculating means regards that the set of grouped feature points corresponds to the object. Alternatively, the expected value of likelihood may not be calculated. This can prevent erroneous detection as an approaching object when a feature point is accidentally extracted due to noise or the like.

請求項6に記載したように、尤度算出手段は、少なくとも歩行者、自転車、自動車を接近物体の属性とし、その接近物体の属性ごとに、特徴点の尤度をそれぞれ算出し、期待値算出手段は、接近物体の属性ごとに、尤度の期待値を算出し、最も高い尤度の期待値を示す属性を、接近物体の属性として決定するようにしても良い。このようにすれば、接近物体が存在することを検出できるだけなく、その接近物体の属性情報も得ることができる。   As described in claim 6, the likelihood calculating means calculates at least a pedestrian, a bicycle, and a car as attributes of an approaching object, calculates the likelihood of a feature point for each attribute of the approaching object, and calculates an expected value. The means may calculate an expected value of likelihood for each attribute of the approaching object, and determine an attribute indicating the highest expected value of likelihood as the attribute of the approaching object. In this way, not only the presence of an approaching object can be detected, but also attribute information of the approaching object can be obtained.

あるいは、請求項7に記載したように、尤度算出手段は、少なくとも歩行者、自転車、自動車を接近物体の属性とし、その接近物体の属性ごとに、特徴点の尤度をそれぞれ算出し、期待値算出手段は、接近物体の属性ごとに、尤度の期待値を算出するとともに、接近物体に関して、それが歩行者である確率、自転車である確率、車両である確率を、それぞれの事前確率分布として予め定めておき、接近物体の属性ごとに、前記尤度の期待値と前記確率とをかけ合わせて事後確率を算出し、最も高い事後確率を有する属性を、前記接近物体の属性として決定しても良い。このように事前確率を用いることにより、例えば車両を停車させた場所に応じて、異なる事前確率分布を設定することも可能となり、接近物体の属性の決定をより一層精度良く行うことが可能となる。例えば、車両専用の駐車場においては、接近物体は歩行者、車両である確率が高く、自転車である確率は低いといえる。一方、道路から歩道を挟んで設けられた駐車スペースに車両を停車した場合、接近物体は歩行者又は自転車である確率が高く、車両である確率は低いといえる。従って、尤度の期待値だけではなく、このような事前確率分布を考慮することで、接近物体の属性を判別する精度をより向上することが可能となる。   Alternatively, as described in claim 7, the likelihood calculating means calculates at least the likelihood of the feature point for each attribute of the approaching object by setting at least a pedestrian, a bicycle, and a car as the attributes of the approaching object. The value calculating means calculates the expected value of likelihood for each attribute of the approaching object, and also calculates the probability that the approaching object is a pedestrian, the probability of being a bicycle, and the probability of being a vehicle for each prior probability distribution. The posterior probability is calculated by multiplying the expected value of the likelihood and the probability for each attribute of the approaching object, and the attribute having the highest posterior probability is determined as the attribute of the approaching object. May be. By using prior probabilities in this way, it is possible to set different prior probability distributions, for example, depending on the location where the vehicle is stopped, and it is possible to determine the attributes of approaching objects with higher accuracy. . For example, in a vehicle-dedicated parking lot, it can be said that the approaching object has a high probability of being a pedestrian and a vehicle, and the probability of being a bicycle is low. On the other hand, when the vehicle is stopped in a parking space provided across the sidewalk from the road, the approaching object is likely to be a pedestrian or a bicycle, and the probability of being a vehicle is low. Therefore, by considering not only the expected likelihood value but also such a prior probability distribution, it is possible to further improve the accuracy of determining the attribute of the approaching object.

請求項8に記載したように、第1の算出手段は、第1画像の撮影時刻と第2画像の撮影時刻との間に、自車両が回転方向に移動した場合、第2画像において、撮影手段の回転移動の影響を除去した第2座標位置を算出することが望ましい。第1画像の撮影時刻と第2画像の撮影時刻との間に、自車両が回転方向に移動すると、第2画像における特徴点の座標位置には、自車両とともにその回転方向へ移動する撮影手段の回転運動成分の影響が含まれてしまうためである。   According to the eighth aspect of the present invention, when the host vehicle moves in the rotation direction between the shooting time of the first image and the shooting time of the second image, the first calculation unit performs shooting on the second image. It is desirable to calculate the second coordinate position from which the influence of the rotational movement of the means is removed. When the host vehicle moves in the rotation direction between the shooting time of the first image and the shooting time of the second image, the shooting means moves in the rotation direction together with the host vehicle at the coordinate position of the feature point in the second image. This is because the influence of the rotational motion component of is included.

請求項9に記載したように、報知手段は、撮影手段によって撮影された画像を表示する表示器を有し、当該表示器に表示された画像上に、接近物体を取り囲む枠を重畳表示するとともに、尤度の期待値に対応した拡大率で、時間の経過とともに枠を拡大させることが好ましい。これにより、自車両に接近する接近物体が存在することを、自車両の運転者に視覚を通じて分かりやすく報知することができる。特に、尤度の期待値に対応した拡大率で枠を拡大させることにより、尤度の期待値が大きいほど、時間の経過とともに枠が大きく拡大されるので、尤度の期待値の大きさの違いが一目瞭然であるとともに、より尤度の期待値の高い接近物体に対して一層の注意を払うように、運転者に注意喚起を促すことができる。   According to a ninth aspect of the present invention, the notifying unit has a display that displays an image captured by the capturing unit, and superimposes and displays a frame surrounding the approaching object on the image displayed on the display. It is preferable to enlarge the frame with the passage of time at an enlargement rate corresponding to the expected value of likelihood. Accordingly, it is possible to notify the driver of the host vehicle in an easy-to-understand manner visually that there is an approaching object approaching the host vehicle. In particular, by enlarging the frame with an enlargement rate corresponding to the expected likelihood value, the larger the expected likelihood value, the larger the frame is enlarged over time. The difference is obvious, and the driver can be alerted to pay more attention to an approaching object with a higher likelihood expectation.

請求項10に記載したように、報知手段は、尤度の期待値が大きくなるほど、小さくなるように光学情報τの値を定め、(1+τ−1)で定められる拡大率に従って、枠を拡大させるようにしても良い。ここで、光学情報τは、接近物体が網膜(を含む平面)まで到達する時間と相関する値として定義されるものである。そして、接近物体に対応する枠が、光学情報τに従って接近するように画面上に表示するには、単に(1+τ−1)を拡大率として枠を時間の経過とともに拡大させれば良い。これにより、尤度の期待値が大きく、そのため、光学情報τとして小さな値が設定される接近物体に対応する枠ほど、時間の経過とともに大きく拡大されるように表示することができる。 As described in claim 10, the notifying means determines the value of the optical information τ so as to decrease as the expected value of likelihood increases, and expands the frame in accordance with an enlargement ratio determined by (1 + τ −1 ). You may do it. Here, the optical information τ is defined as a value that correlates with the time for the approaching object to reach the retina (including the plane). Then, in order to display the frame corresponding to the approaching object on the screen so as to approach according to the optical information τ, it is only necessary to enlarge the frame with the passage of time using (1 + τ −1 ) as an enlargement ratio. As a result, the expected value of likelihood is large, and therefore a frame corresponding to an approaching object for which a small value is set as the optical information τ can be displayed so as to be greatly enlarged as time passes.

請求項11に記載したように、報知手段は、拡大率に応じて、前記枠の線の太さを変化させても良い。すなわち、時間の経過とともに枠が拡大表示されるとき、拡大される大きさが大きくなるほど、枠の線の太さを太くしても良い。これにより、枠が大きく拡大されるほど、より枠の表示が目立つように表示することができる。   As described in claim 11, the notifying means may change the thickness of the line of the frame according to the enlargement ratio. That is, when the frame is enlarged and displayed with the passage of time, the thickness of the line of the frame may be increased as the size of the enlargement increases. As a result, the larger the frame is enlarged, the more clearly the frame can be displayed.

請求項12に記載したように、報知手段は、枠を、その背景部分が視認できるように、半透明にて表示しても良い。これにより、枠を重畳表示しながら、車両周辺の画像全体を運転者が視認できるようになる。   As described in claim 12, the notification means may display the frame in a translucent manner so that the background portion can be visually recognized. As a result, the driver can visually recognize the entire image around the vehicle while displaying the frame superimposed.

請求項13に記載したように、報知手段は、枠の影を、枠の奥側に表示するようにしても良い。これにより、枠を拡大させる際に、立体感を与えることができ、枠が運転者に近づいているような感覚を与えることができる。なお、請求項14に記載したように、枠の場合と同様に、報知手段は、枠の影を、その背景部分が視認できるように、半透明にて表示するようにしても良い。   As described in claim 13, the notification means may display the shadow of the frame on the back side of the frame. Thereby, when enlarging a frame, a three-dimensional effect can be given and the feeling that the frame is approaching a driver can be given. As in the case of the frame, the notification means may display the shadow of the frame in a translucent manner so that the background portion can be visually recognized.

請求項15に記載したように、表示器は、立体的な表示を行うことが可能なものであり、報知手段は、枠を立体的に表示させつつ、拡大させても良い。このような立体的な表示を行うことにより、枠が運転者に近づいているような感覚をより一層鮮明に与えることができる。   As described in the fifteenth aspect, the display device can perform a three-dimensional display, and the notification unit may enlarge the frame while displaying the frame three-dimensionally. By performing such a three-dimensional display, a feeling that the frame is approaching the driver can be given more clearly.

請求項16に記載したように、報知手段は、枠の拡大を所定時間だけ実行すると、枠の大きさを拡大しない状態に戻すようにして、枠の拡大を繰り返し実行することが望ましい。枠の拡大を繰り返し実行することにより、注意喚起の効果を高めることができるためである。また、表示装置の表示範囲の制約から、枠の大きさを拡大するにも限界があるためである。   According to a sixteenth aspect of the present invention, it is desirable that the notification means repeatedly executes the enlargement of the frame so as to return to the state in which the size of the frame is not enlarged when the enlargement of the frame is performed for a predetermined time. This is because the effect of alerting can be enhanced by repeatedly executing the enlargement of the frame. In addition, there is a limit in enlarging the size of the frame due to restrictions on the display range of the display device.

請求項17に記載したように、報知手段は、複数の接近物体に対応する枠を同時に画像上に重畳表示する場合であって、当該複数の接近物体に対応する枠が重なる場合には、尤度の期待値が大きい接近物体に対応する枠を手前に表示することが好ましい。これにより、車両に対して接近する複数の接近物体が有る場合に、運転者が注意を払うべき優先度合に応じた表示を行うことができる。   According to a seventeenth aspect of the present invention, the notifying means is a case where frames corresponding to a plurality of approaching objects are superimposed and displayed on the image at the same time, and the frames corresponding to the plurality of approaching objects overlap. It is preferable to display a frame corresponding to an approaching object with a high degree of expected value in front. Thereby, when there are a plurality of approaching objects approaching the vehicle, it is possible to perform display according to the priority that the driver should pay attention to.

請求項18に記載したように、報知手段は、期待値算出手段により接近物体の属性が決定されている場合には、枠の形態を、その決定された接近物体の属性に応じたものとしても良い。例えば、枠の形状を、歩行者、自転車、あるいは車両を形どったものにしたり、枠の色を接近物体の属性に応じた色にしたりする。これにより、運転者に対して、枠の表示形態を用いて、接近物体の属性も報知することが可能になる。   As described in claim 18, when the attribute of the approaching object is determined by the expected value calculation means, the notifying unit may change the form of the frame according to the determined attribute of the approaching object. good. For example, the shape of the frame may be a shape of a pedestrian, bicycle, or vehicle, or the color of the frame may be a color corresponding to the attribute of the approaching object. Accordingly, it is possible to notify the driver of the attribute of the approaching object using the frame display form.

請求項19に記載したように、報知手段は、撮影手段によって撮影された画像を表示する表示器を有し、その画像における接近物体を示す部分画像を、尤度の期待値に対応した拡大率で、時間の経過とともに拡大するように表示させても良い。つまり、枠とともに、あるいは枠の表示に代えて、接近物体を示す部分画像を拡大させても良い。   According to a nineteenth aspect of the present invention, the notifying means has a display for displaying an image taken by the photographing means, and a partial image showing an approaching object in the image is enlarged according to an expected value of likelihood. Thus, it may be displayed so as to expand with the passage of time. That is, the partial image showing the approaching object may be enlarged together with the frame or instead of displaying the frame.

請求項20〜請求項23は、拡大する対象が接近物体を示す部分画像である点を除き、請求項10,15〜17と同様であるため、説明を省略する。   Claims 20 to 23 are the same as claims 10 and 15 to 17 except that the object to be enlarged is a partial image showing an approaching object, and thus the description thereof is omitted.

実施形態における車両用運転支援装置の全体構成を示す構成図である。1 is a configuration diagram illustrating an overall configuration of a vehicle driving support apparatus according to an embodiment. 尤度算出処理を示したフローチャートである。It is the flowchart which showed the likelihood calculation process. 尤度算出処理を説明するための説明図である。It is explanatory drawing for demonstrating likelihood calculation processing. 従来技術における課題を説明するための説明図である。It is explanatory drawing for demonstrating the subject in a prior art. 特徴点毎に算出された尤度と対比される閾値について説明するための説明図である。It is explanatory drawing for demonstrating the threshold value contrasted with the likelihood calculated for every feature point. グルーピング処理について説明するための説明図である。It is explanatory drawing for demonstrating a grouping process. 接近物体の報知形態の一例を示す図である。It is a figure which shows an example of the alerting | reporting form of an approaching object. 光学情報τについて説明するための図である。It is a figure for demonstrating optical information (tau).

以下、本発明の実施形態による車両用運転支援装置について、図面に基づいて詳細に説明する。   Hereinafter, a vehicle driving support apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1に示すように、本実施形態における車両用運転支援装置100は、自車両に搭載された撮影手段としてのカメラ10、自車両の移動方向及び移動量に関連する情報を検出するための車両情報検出部20、カメラ10によって撮影された画像を処理する画像処理ECU30、画像処理ECU30によって処理された画像を表示する表示器40とを備えている。   As shown in FIG. 1, a vehicle driving support apparatus 100 according to this embodiment includes a camera 10 as a photographing unit mounted on the own vehicle, a vehicle for detecting information related to the moving direction and the moving amount of the own vehicle. An information detection unit 20, an image processing ECU 30 that processes an image captured by the camera 10, and a display 40 that displays an image processed by the image processing ECU 30 are provided.

カメラ10は、例えば、CCDカメラによって構成され、車両の車室内の天井付近や車両の先端(フロントバンパー)および/または後端(リヤバンパー)に設置される。また、車両の側方を撮影できるように、カメラ10を設置しても良い。この車両への設置に際して、カメラ10の光軸(Z軸)が地面と平行となり、かつカメラ10によって撮影される画像の横軸も地面と平行になるように、カメラ10の設置角度等が調整される。この結果、画像の縦軸は、地面に対して垂直な方向に一致する。そして、カメラ10は、少なくとも、車両が停止した状態から発進しようとする間、定期的に車両周辺の画像を撮影して、その撮影した画像を画像処理ECU30に出力する。   The camera 10 is constituted by, for example, a CCD camera, and is installed in the vicinity of the ceiling in the vehicle interior of the vehicle or at the front end (front bumper) and / or the rear end (rear bumper) of the vehicle. Moreover, you may install the camera 10 so that the side of a vehicle can be image | photographed. During installation on the vehicle, the installation angle of the camera 10 is adjusted so that the optical axis (Z axis) of the camera 10 is parallel to the ground and the horizontal axis of the image taken by the camera 10 is also parallel to the ground. Is done. As a result, the vertical axis of the image coincides with the direction perpendicular to the ground. The camera 10 periodically captures images around the vehicle at least while attempting to start from a state where the vehicle is stopped, and outputs the captured images to the image processing ECU 30.

車両情報検出部20は、例えば、車両の走行速度を検出する速度センサ、自車両の旋回方向への回転角の変化速度を検出するヨーレートセンサ、ステアリングの操舵角度を検出する操舵角センサなどを有し、自車両の移動方向及び移動量に関する情報を検出して、画像処理ECU30に出力するものである。画像処理ECU30では、車両情報検出部20によって検出された情報に基づき、2枚の画像の撮影時刻間における、自車両の旋回方向運動によるカメラ10の回転方向の移動量、及び自車両の並進方向の移動によるカメラ10の移動ベクトルを算出する。これらカメラ10の回転方向の移動量及びカメラ10の移動ベクトルは、画像処理に利用されるが、詳しくは後述する。   The vehicle information detection unit 20 includes, for example, a speed sensor that detects the traveling speed of the vehicle, a yaw rate sensor that detects the change speed of the rotation angle of the host vehicle in the turning direction, and a steering angle sensor that detects the steering angle of the steering. Then, information relating to the moving direction and moving amount of the host vehicle is detected and output to the image processing ECU 30. In the image processing ECU 30, based on the information detected by the vehicle information detection unit 20, the amount of movement in the rotational direction of the camera 10 due to the movement of the host vehicle in the turning direction and the translation direction of the host vehicle between the shooting times of the two images. The movement vector of the camera 10 by the movement of is calculated. The amount of movement of the camera 10 in the rotation direction and the movement vector of the camera 10 are used for image processing, which will be described in detail later.

画像処理ECU30は、図示しないCPU、ROM、RAM等からなるマイクロコンピュータの他、カメラ10から出力された画像をデジタル画像に変換するためのA/D変換器や、変換されたデジタル画像を保存する画像メモリ等を備えている。なお、画像メモリは、複数の画像を保存可能な記憶容量を有している。   The image processing ECU 30 stores an A / D converter for converting an image output from the camera 10 into a digital image, and a converted digital image, in addition to a microcomputer including a CPU, ROM, RAM, etc. (not shown). An image memory is provided. Note that the image memory has a storage capacity capable of storing a plurality of images.

この画像処理ECU30は、予め記憶されているプログラムに従って各種の処理を実行することにより、図1に示すような各機能を発揮する。すなわち、図1は、画像処理ECU30が備える機能を機能ブロックによって示している。以下、画像処理ECU30が有する各機能について説明する
まず、動きベクトル算出部31は、異なる時刻に撮影され、画像メモリに保存された2つのデジタル画像において、それぞれ特徴点を抽出する。この特徴点抽出には、例えばJ.Shi and C.Tomasi, “Good Features to Track”, IEEE CVPR, pp.593-600, 1994に記載された技術を用いることができる。そして、2つのデジタル画像における、同一の特徴点を対応付けることにより、その特徴点の動きベクトル(オプティカルフロー)を算出する。すなわち、ある特徴点が、先に撮影されたデジタル画像の2次元座標iで観測され、同じ特徴点が、後に撮影されたデジタル画像の2次元座標i1’に移動したとする。この場合、i1’−iが、その特徴点の動きベクトルとなる。なお、動きベクトルの算出には、例えばLK法(B.D.Lucas and T.kanade, “An iterative Image Registration Technique with an Application to Stereo Vision”, IJCAI, pp674-679,1981)などを用いることができる。
This image processing ECU 30 exhibits various functions as shown in FIG. 1 by executing various processes according to a program stored in advance. That is, FIG. 1 shows functions provided in the image processing ECU 30 by function blocks. In the following, each function of the image processing ECU 30 will be described. First, the motion vector calculation unit 31 extracts feature points from two digital images taken at different times and stored in an image memory. For this feature point extraction, for example, a technique described in J. Shi and C. Tomasi, “Good Features to Track”, IEEE CVPR, pp. 593-600, 1994 can be used. Then, by associating the same feature points in the two digital images, a motion vector (optical flow) of the feature points is calculated. That is, it is assumed that a certain feature point is observed at the two-dimensional coordinate i 0 of the previously captured digital image, and the same feature point is moved to the two-dimensional coordinate i 1 ′ of the later-captured digital image. In this case, i 1 ′ -i 0 is the motion vector of the feature point. For example, the LK method (BDLucas and T. kanade, “An iterative Image Registration Technique with an Application to Stereo Vision”, IJCAI, pp674-679, 1981) can be used to calculate the motion vector.

デジタル画像にレンズ歪が有る場合には、動きベクトル算出部31は、歪補正を行う必要がある。この歪補正として、デジタル画像に対して補正を行う場合と、デジタル画像には補正を行わず、特徴点の座標(iとi1’)に対して補正を行う場合とが考えられる。レンズ歪に関するパラメータが与えられていれば、歪のある画像の座標と、歪のない画像の座標との対応関係を予め定めておくことができる。この対応関係を使って、デジタル画像そのものを歪みのない画像に変換することが可能である。さらに、歪のあるデジタル画像から特徴点を抽出し、その特徴点の座標を、歪みのない画像における座標に変換することも可能である。 When the digital image has lens distortion, the motion vector calculation unit 31 needs to perform distortion correction. As the distortion correction, there are a case where correction is performed on a digital image and a case where correction is performed on the coordinates (i 0 and i 1 ′ ) of feature points without performing correction on the digital image. If parameters relating to lens distortion are given, the correspondence between the coordinates of the image with distortion and the coordinates of the image without distortion can be determined in advance. Using this correspondence, it is possible to convert the digital image itself into an image without distortion. Furthermore, it is also possible to extract feature points from a distorted digital image and convert the feature point coordinates to coordinates in an image without distortion.

次に、回転成分除去部32について説明する。自車両が旋回方向に回転運動を行った場合、動きベクトル算出部31によって算出される動きベクトルi1’−i=(v,vには、カメラ10の回転運動によって生じた成分が含まれることになる。動きベクトル(v,vに、このようなカメラ10の回転運動成分が含まれていると、後に説明する接近物体に関する判定精度が低下する要因となる。そのため、回転成分除去部32は、動きベクトル(v,vから、カメラ10の回転運動成分を除去する。 Next, the rotation component removal unit 32 will be described. When the host vehicle performs a rotational motion in the turning direction, the motion vector i 1 ′ −i 0 = (v x , v y ) T calculated by the motion vector calculation unit 31 is generated by the rotational motion of the camera 10. Ingredients will be included. If such a rotational motion component of the camera 10 is included in the motion vector (v x , v y ) T , it becomes a factor that the determination accuracy regarding the approaching object described later is lowered. Therefore, the rotational component removal unit 32 removes the rotational motion component of the camera 10 from the motion vector (v x , v y ) T.

ここで、ある画像座標(x,y)に対して、カメラ10の焦点を中心とした任意の回転を与えたときの座標変化量(r,rは、下記の数式1によって求めることができることが知られている。

Figure 0005516561
Here, with respect to an image coordinate (x, y) T, the coordinate change amount when given any rotation about the focus of the camera 10 (r x, r y) T is the formula 1 below It is known that it can be sought.
Figure 0005516561

ただし、Ω=(Ωx, Ωy, Ωz)は、2つのデジタル画像の撮影時刻間におけるカメラ10の回転移動量であり、fはカメラ10の焦点距離である。 However, Ω = (Ω x , Ω y , Ω z ) T is the rotational movement amount of the camera 10 between the shooting times of two digital images, and f is the focal length of the camera 10.

回転成分除去部32は、車両情報検出部20から得た情報に基づいて、2つのデジタル画像の撮影時刻間における、カメラ10の回転移動量を算出する。例えば、Y軸まわりの回転移動量をヨーレートセンサから得られる値Ωとし、X軸及びZ軸回りの回転を無視すると、カメラ10の回転移動量は、Ω=(0, Ωy, 0)と設定することができる。そして、後に撮影されたデジタル画像における特徴点の座標i1’に関して、数式1を用いて、カメラ10の回転運動による座標変化量(r,rを算出する。さらに、回転成分除去部32は、下記の数式2に示すように、動きベクトル算出部31から出力された動きベクトル(v,vから、座標変化量(r,rを減じることにより、カメラ10の回転運動成分の影響が除去された動きベクトル(u,uを求める。

Figure 0005516561
The rotation component removal unit 32 calculates the amount of rotational movement of the camera 10 between the shooting times of two digital images based on the information obtained from the vehicle information detection unit 20. For example, if the rotational movement amount about the Y axis is a value Ω y obtained from the yaw rate sensor and the rotations about the X axis and Z axis are ignored, the rotational movement amount of the camera 10 is Ω = (0, Ω y , 0). T can be set. Then, the coordinate change amount (r x , r y ) T due to the rotational movement of the camera 10 is calculated using Equation 1 for the coordinate i 1 ′ of the feature point in the digital image taken later. Further, as shown in the following Equation 2, the rotation component removal unit 32 uses the coordinate change amount (r x , r y ) T from the motion vector (v x , v y ) T output from the motion vector calculation unit 31. To obtain a motion vector (u x , u y ) T from which the influence of the rotational motion component of the camera 10 is removed.
Figure 0005516561

また、回転成分除去部32は、このようにして算出された動きベクトル(u,uと、先に撮影されたデジタル画像における特徴点の座標iとに基づいて、後のデジタル画像における、カメラ10の回転運動成分の影響を排除した特徴点の座標iを算出する。なお、カメラ10の回転運動成分の影響を排除した特徴点の座標iは、その影響が排除される前の特徴点の座標i1’と、上記の座標変化量(r,rとから算出することもできる。 Further, the rotation component removing unit 32 performs the subsequent digital processing based on the motion vector (u x , u y ) T calculated in this way and the coordinate i 0 of the feature point in the previously captured digital image. The coordinates i 1 of the feature point in the image excluding the influence of the rotational motion component of the camera 10 are calculated. Note that the coordinate i 1 of the feature point excluding the influence of the rotational motion component of the camera 10 is the coordinate i 1 ′ of the feature point before the influence is eliminated and the coordinate change amount (r x , r y ). It can also be calculated from T.

次に、尤度算出部33について説明する。図2は、尤度算出部33において実行される尤度算出処理を示したフローチャートである。   Next, the likelihood calculating unit 33 will be described. FIG. 2 is a flowchart showing a likelihood calculation process executed in the likelihood calculation unit 33.

ステップS100では、動きベクトル算出部31にて抽出されたすべての特徴点の中から、1つの特徴点を選択する。そして、ステップS110において、選択した特徴点が実際の空間において指し示す点が、自車両に接近しつつある接近物体を示す確からしさを表す尤度を算出する。この尤度の算出について、以下に詳細に説明する。   In step S100, one feature point is selected from all the feature points extracted by the motion vector calculation unit 31. In step S110, a likelihood representing the probability that the point indicated by the selected feature point in the actual space indicates an approaching object approaching the host vehicle is calculated. This likelihood calculation will be described in detail below.

まず、前提として、図3に示すように、カメラ10の焦点を原点、カメラ10の光軸をZ軸、Z軸と直交し、かつ地面と平行な軸をX軸、Z軸及びX軸と直交し、かつ地面に向かう軸をY軸とする。この際、ZX平面は地面と平行であり、Y軸は地面に垂直である。そして、Y軸は地面に向かう方向を正とする。さらに、レンズ歪は補正済みで、いわゆるピンホールカメラモデルが適応可能であるとする。また、地面は平面であり、カメラ10は地面と平行に動くものとする。従って、地平線(無限遠の地面上の点の集合)は、デジタル画像における2次元座標上のy=0の直線に透視投影されることになる。なお、透視投影は、以下の数式3によって与えられる。

Figure 0005516561
First, as shown in FIG. 3, the focal point of the camera 10 is the origin, the optical axis of the camera 10 is the Z axis, the axes orthogonal to the Z axis and parallel to the ground are the X axis, the Z axis, and the X axis. The axis that is orthogonal and that faces the ground is taken as the Y axis. At this time, the ZX plane is parallel to the ground, and the Y axis is perpendicular to the ground. The Y axis is positive in the direction toward the ground. Further, it is assumed that the lens distortion has been corrected and a so-called pinhole camera model can be applied. Further, it is assumed that the ground is a plane and the camera 10 moves in parallel with the ground. Therefore, the horizon (a set of points on the ground at infinity) is projected onto a straight line of y = 0 on the two-dimensional coordinates in the digital image. The perspective projection is given by Equation 3 below.
Figure 0005516561

尤度算出部33は、まず、車両情報検出部20ら得た情報に基づいて、2つのデジタル画像の撮影時刻間の自車両の並進運動によるカメラ10の移動ベクトルVを求める。カメラ10は地面と平行に動くため、この移動ベクトルVは、ZX平面におけるX成分とZ成分とからなる(V=(VOX,VOZ))。従って、移動ベクトルVは、主として操舵角センサやヨーレートセンサによる検出結果から算出される自車両の移動方向と、速度センサによる検出結果から算出される移動距離とから算出することができる。なお、回転成分除去部32により、カメラの回転運動成分が除去された動きベクトル(u,u、さらにはその動きベクトル(u,uを用いて特徴点座標iを算出済みであり、それぞれのデジタル画像の撮影時刻でのカメラ10の向き(光軸)は平行と考える。 The likelihood calculating unit 33 first obtains the movement vector V O of the camera 10 based on the translational movement of the host vehicle between the shooting times of the two digital images based on the information obtained from the vehicle information detecting unit 20. Since the camera 10 moves in parallel with the ground, this movement vector V O is composed of an X component and a Z component in the ZX plane (V O = (V OX , V OZ )). Therefore, the movement vector V O can be calculated mainly from the moving direction of the host vehicle calculated from the detection result by the steering angle sensor or the yaw rate sensor and the movement distance calculated from the detection result by the speed sensor. Incidentally, the rotation component removing unit 32, a motion rotational movement component of the camera has been removed vectors (u x, u y) T, more motion vector (u x, u y) using T feature coordinates i 1 And the direction (optical axis) of the camera 10 at the time of capturing each digital image is considered to be parallel.

画像における特徴点の座標i,iが、それぞれ現実の空間において指し示す点同士の差分を、それらの点の地面からの高さに変化はないので、X成分とZ成分とからなる2次元のベクトルV=(VTX,VTZ)で表す。このベクトルVは、特徴点が指し示す点の移動速度を示すものであり、未知の変数である。また、特徴点の座標iが指し示す点の3次元座標を(X,Y,Z)とし、特徴点の座標iが指し示す点の3次元座標を(X,Y,Z)とする。特徴点に対応する、現実の空間における点は、歩行者や車両などの移動物体、または静止物体の表面上にあり、2つのデジタル画像の撮影時刻間において、Y座標の変化量は無視できるものとしている。 Since the coordinates i 0 and i 1 of the feature point in the image indicate the difference between the points indicated in the real space, the height of the point from the ground does not change, so that the two-dimensional structure is composed of the X component and the Z component. Vector V T = (V TX , V TZ ). The vector V T is for indicating the moving speed of the point indicated by the feature point, is an unknown variable. Further, the three-dimensional coordinates of the point indicated by the feature point coordinate i 0 are (X 0 , Y, Z 0 ), and the three-dimensional coordinates of the point indicated by the feature point coordinate i 1 are (X 1 , Y, Z 1 ). And The point in the real space corresponding to the feature point is on the surface of a moving object such as a pedestrian or a vehicle, or a stationary object, and the amount of change in the Y coordinate can be ignored between two digital image capturing times It is said.

以下の説明においては、地平線よりも地面側にある、つまりY>0である点を指し示す特徴点のみを考える。Y>0であれば、図3に示すように、その特徴点に対応する点のZ軸方向の座標を、Z<Zの範囲に存在するものとして取り扱うことができるためである。なお、特徴点i,iが指し示す点の座標成分X,Y,Z,X,Zは未知であるが、透視投影の関係から、1つの座標成分が定まれば、残り4つの座標成分も定まる。 In the following description, only feature points pointing to points on the ground side of the horizon, that is, Y> 0 are considered. If Y> 0, as shown in FIG. 3, the Z-axis direction of the coordinates of a point corresponding to the feature point is because it can be handled as existing in the range of Z <Z G. Note that the coordinate components X 0 , Y, Z 0 , X 1 , and Z 1 of the point indicated by the feature points i 0 and i 1 are unknown, but if one coordinate component is determined due to the perspective projection, the remainder is left. Four coordinate components are also determined.

尤度算出部33は、先に撮影されたデジタル画像における特徴点の座標iと、後に撮影されたデジタル画像における特徴点の座標i、カメラ10の移動ベクトルVに基づき、その特徴点が指し示す点が接近物体を示すものである確からしさを表す尤度を、各特徴点ごとに、以下の数式4により算出する。なお、数式4において、接近物体である状態をHと表している。また、数式4では、求めるべき尤度が、未知の変数である、特徴点の座標iが指し示す点のZ軸方向の座標(奥行き)Zと、特徴点が指し示す点の移動速度を示すベクトルVにより周辺化された形で示されている。

Figure 0005516561
Likelihood calculation unit 33, based on the movement vector V O of the coordinate i 1, the camera 10 of the feature point in the digital image coordinate i 0 of the feature points, was taken after the digital images taken previously, the feature point The likelihood representing the probability that the point indicated by indicates the approaching object is calculated for each feature point by the following Equation 4. Incidentally, represents in Equation 4, the state is approaching object and H 1. Further, in Equation 4, the likelihood to be obtained indicates the unknown variable, the coordinate (depth) Z 0 in the Z-axis direction of the point indicated by the coordinate i 0 of the feature point, and the moving speed of the point indicated by the feature point. It is shown in marginalized form by the vector V T.
Figure 0005516561

数式4の右辺の積分の中の1つ目の確率分布は、特徴点iが指し示す点の奥行きZと、その点の移動速度を示すベクトルVが与えられたとき、その点が接近物体を示すものである場合に、特徴点の座標iが取り得る値の確率分布を示すものである。これは透視投影の関係から、以下の数式5に示すように、ディラックのデルタ関数で表現される。

Figure 0005516561
The first probability distribution in the integral of the right-hand side of Equation 4, the depth Z 0 point indicated by the feature point i 0, when the vector V T which indicates the moving speed of the point is given, the point is approaching In the case of an object, the probability distribution of values that can be taken by the coordinate i 1 of the feature point is shown. This is expressed by a Dirac delta function as shown in Equation 5 below from the perspective projection perspective.
Figure 0005516561

数式4の右辺の積分の中の2つ目の確率分布は、図3に示すように、特徴点iが指し示す点が接近物体である場合に取り得る移動速度の確率分布を示すものである。この確率分布は、数式6に示すように、ガウス分布としてモデル化し、そのガウス分布の平均μと共分散行列Σとを予め定めておく。

Figure 0005516561
As shown in FIG. 3, the second probability distribution in the integral on the right side of Equation 4 shows the probability distribution of the moving speed that can be taken when the point indicated by the feature point i 0 is an approaching object. . This probability distribution is as shown in Equation 6, modeled as a Gaussian distribution, previously determined and average mu T and covariance matrix sigma T of the Gaussian distribution in advance.
Figure 0005516561

なお、数式6におけるガウス分布、すなわちガウス分布を定める平均μと共分散行列Σは、接近物体の属性ごとに定めることが好ましい。接近物体の属性が異なれば、移動速度も異なるためである。接近物体の属性には、少なくとも歩行者、自転車、車両(自動車やオートバイなど)を含む。そして、数式6におけるガウス分布を接近物体の属性ごとに定めた場合には、後述する数式9により、特徴点の尤度が、接近物体のそれぞれの属性ごとに算出される。この場合、算出した尤度の中で最も高い尤度を示す属性を、その接近物体の属性と決定することができる。 Note that Gaussian distribution in equation 6, i.e. the average mu T and covariance matrix sigma T defining the Gaussian distribution is preferably determined for each attribute of the approaching object. This is because the moving speed varies depending on the attribute of the approaching object. The attributes of the approaching object include at least a pedestrian, a bicycle, and a vehicle (such as an automobile and a motorcycle). When the Gaussian distribution in Equation 6 is determined for each attribute of the approaching object, the likelihood of the feature point is calculated for each attribute of the approaching object by Equation 9 described later. In this case, the attribute indicating the highest likelihood among the calculated likelihoods can be determined as the attribute of the approaching object.

数式4の右辺の積分の中の3つ目の確率分布は、図3に示すように、特徴点iが指し示す点が接近物体である場合に取り得る奥行きの確率分布を示すものである。この確率分布は、以下の数式7によって表すことができる。

Figure 0005516561
The probability distribution of the third in the integration of the right-hand side of Equation 4, as shown in FIG. 3, the point indicated by the feature point i 0 shows the probability distribution of the depth that can be taken in the case of an approaching object. This probability distribution can be expressed by Equation 7 below.
Figure 0005516561

上記の数式7において、変数Zは、図3における、特徴点の座標iが指し示す点を結んだ線分と面との交点のZ座標である。簡単な計算で、Z=f/i(2)*Hとなる。ただし、i(k)はiの第k成分、Hはカメラ10から地面までの距離である。Zは、接近物体が存在する下限距離として予め設定する定数である。例えば、Zi=0に設定される。すると、p(Z|H)は、対象とする点が、Z座標が正となる方向にあり、かつ地面よりも上に存在するときのみ非零の確を取ることになる。また、数式7におけるガウス分布の平均μと分散σ は、予め定めておく定数である。例えば車両が駐車場から発進するケースを考えた場合、一例として、μは2m、σ は1.5mに設定することができる。さらに、数式7において、erfは、ガウスの誤差関数を表す。 In Equation 7 above, the variable Z G is the Z coordinate of the intersection of the FIG. 3, connecting points indicated by the coordinates i 0 of the feature points between the line segment and the earth surface. With a simple calculation, Z G = f / i 0 (2) * H. Here, i 0 (k) is the k-th component of i 0 , and H is the distance from the camera 10 to the ground. Z i is a constant set in advance as a lower limit distance where an approaching object exists. For example, Zi = 0 is set. Then, p (Z 0 | H 1 ) is a point of interest is in the direction in which the Z-coordinate is positive, and takes a probability of only non-zero when present above the ground. In addition, the average μ Z and variance σ Z 2 of the Gaussian distribution in Expression 7 are constants that are determined in advance. For example, when considering the case where the vehicle is starting from a parking lot, for example, mu Z is 2m, sigma Z 2 may be set to 1.5 m. Further, in Equation 7, erf represents a Gaussian error function.

以上の数式4から数式7をまとめることにより、以下の数式8を得る。

Figure 0005516561
By combining the above formulas 4 to 7, the following formula 8 is obtained.
Figure 0005516561

上記の数式8に、特徴点の座標i,i、及びカメラ10の移動ベクトルVを代入することにより、特徴点毎に、各特徴点が現実の空間で指し示す点が接近物体を示すものである確からしさを表す尤度を算出することができる。 By substituting the coordinates i 0 and i 1 of the feature points and the movement vector V O of the camera 10 into the above equation 8, for each feature point, the point indicated by each feature point in the real space indicates an approaching object. It is possible to calculate a likelihood representing the certainty that is a thing.

このようにして、選択した特徴点の尤度が算出されると、図2のフローチャートのステップS120において、抽出された全特徴点について、それぞれ尤度の算出が完了したか否か判定される。この判定処理において、全特徴点の尤度の算出が完了したと判定されると、ステップS130の処理に進み、まだ全特徴点の尤度の算出が完了していないと判定されると、ステップS100からの処理を繰り返す。   When the likelihood of the selected feature point is calculated in this way, it is determined in step S120 of the flowchart of FIG. 2 whether or not the calculation of the likelihood has been completed for all the extracted feature points. In this determination process, if it is determined that the calculation of the likelihood of all feature points has been completed, the process proceeds to step S130, and if it is determined that the calculation of the likelihood of all feature points has not yet been completed, the step The processing from S100 is repeated.

ステップS130では、算出した尤度の中で、閾値以上の尤度があるか否かを判定する。ここで、従来技術では、図4に示すように、ある指標が閾値を上回った場合に、接近物体や移動物体などの検出対象が存在すると判定し、閾値を下回れば、検出対象は存在しないと判定する。しかしながら、指標と閾値との大小関係で検出対象の存在の有無を二値的に判定する場合、一般的に、閾値の近傍において、未検出や誤検出などの検出ミスが多く発生する。   In step S130, it is determined whether or not there is a likelihood equal to or greater than a threshold among the calculated likelihoods. Here, in the prior art, as shown in FIG. 4, when a certain index exceeds a threshold, it is determined that a detection target such as an approaching object or a moving object exists, and if it falls below the threshold, there is no detection target. judge. However, when the presence / absence of the detection target is determined in a binary manner based on the magnitude relationship between the index and the threshold value, in general, many detection errors such as non-detection and erroneous detection occur in the vicinity of the threshold value.

それに対して、本実施形態では、上述したように、各特徴点が指し示す点が接近物体を示す確からしさを表す尤度を算出している。このため、従来技術のように、検出対象の存在の有無を判定するという意味で、閾値との大小関係の判定を行う必要はない。本実施形態において、尤度を閾値と比較する目的は、検出対象である接近物体を明らかに示すものではない尤度を排除することで、その後の処理負荷を軽減して、処理を迅速に実行できるようにするためである。そのため、本実施形態では、図5に概念的に示すように、閾値は、接近物体の未検出率が極めて小さくなるように設定される。この閾値は、例えば、実際に計測を行った実験結果に基づいて設定される。   On the other hand, in this embodiment, as described above, the likelihood representing the probability that the point indicated by each feature point indicates the approaching object is calculated. Therefore, unlike the prior art, it is not necessary to determine the magnitude relationship with the threshold in the sense of determining the presence or absence of the detection target. In this embodiment, the purpose of comparing the likelihood with the threshold is to eliminate the likelihood that does not clearly indicate the approaching object that is the detection target, thereby reducing the subsequent processing load and executing the processing quickly. This is to make it possible. Therefore, in the present embodiment, as conceptually shown in FIG. 5, the threshold is set so that the undetected rate of the approaching object is extremely small. This threshold value is set based on, for example, an experimental result of actual measurement.

ただし、このようにすると、接近物体を誤検出する比率が高くなるが、そのような誤検出が生じた場合の特徴点の尤度は、通常、低く算出される。このため、詳しくは後述するが、本実施形態では、接近物体の報知形態を工夫することで、誤検出した接近物体に関する報知を行った場合であっても、運転者に混乱を生じることを抑制するようにしている。   However, if this is done, the ratio of erroneously detecting an approaching object increases, but the likelihood of feature points when such erroneous detection occurs is usually calculated low. For this reason, as will be described in detail later, in this embodiment, by contriving a notification form of an approaching object, it is possible to prevent the driver from being confused even when notification regarding an erroneously detected approaching object is performed. Like to do.

ステップS130において、閾値以上の大きさの尤度があると判定された場合には、ステップS140に進み、閾値以上の尤度を対象として、接近物体ごとにグループ化するグルーピング処理を行う。一方、閾値以上の大きさの尤度がないと判定された場合には、ステップS160の処理に進み、後続のτ算出部34に対して、接近物体は存在しない旨を出力する。この場合、後に説明する、接近物体の存在を報知するための枠や部分画像の拡大表示は行われず、表示器40には、単に車両の周辺画像が表示されることになる。   In step S130, when it is determined that there is a likelihood greater than or equal to the threshold value, the process proceeds to step S140, and a grouping process for grouping the approaching objects for the likelihood equal to or greater than the threshold value is performed. On the other hand, if it is determined that there is no likelihood greater than or equal to the threshold value, the process proceeds to step S160, and the subsequent τ calculation unit 34 is output that there is no approaching object. In this case, an enlarged display of a frame or a partial image for notifying the presence of an approaching object, which will be described later, is not performed, and the display device 40 simply displays a surrounding image of the vehicle.

ここで、ステップS140のグルーピング処理について詳しく説明する。このグルーピング処理では、閾値以上の大きさの尤度を持つ特徴点を対象として、種々の条件で同一の接近物体を示すとみなし得る特徴点を抽出して、グルーピングする。特徴点は、ただの点を示すものに過ぎないため、そのままでは、接近物体に関する情報(個数、接近物体が複数あった場合の尤度の大小など)が分かりづらいためである。また、種々の外乱により、特徴点自体が誤って抽出される可能性があり、特徴点を接近物体ごとにまとめることで、そのような外乱による特徴点を排除することができるためである。   Here, the grouping process in step S140 will be described in detail. In this grouping process, feature points that have a likelihood greater than or equal to a threshold are extracted, and feature points that can be regarded as indicating the same approaching object under various conditions are extracted and grouped. This is because the feature point is merely a point, and as it is, it is difficult to understand information on the approaching object (the number, the magnitude of the likelihood when there are a plurality of approaching objects, etc.). Also, feature points themselves may be erroneously extracted due to various disturbances, and feature points due to such disturbances can be eliminated by collecting the feature points for each approaching object.

グルーピングを行う第1の条件は、特徴点が互いに近傍に存在することである。この近傍判定は、図6(a)に示すように、特徴点ごとに、各特徴点を中心とする正方などの領域を与え、これらの領域の重なりが生じる特徴点は、互いに近傍にあるとみなし、同じラベル(第1ラベル)を与えることでグループ化する。一方、領域が他の特徴点の領域と重なりを持たない孤立点は、外乱によるものとみなし、グループ化の対象から除外する。   The first condition for performing grouping is that feature points exist in the vicinity of each other. In this neighborhood determination, as shown in FIG. 6A, for each feature point, a square area or the like centering around each feature point is given, and the feature points where these regions overlap are in the vicinity of each other. Group by giving the same label (first label). On the other hand, isolated points whose regions do not overlap with other feature point regions are considered to be due to disturbance and are excluded from grouping targets.

グルーピングを行う第2の条件は、カメラの回転運動成分を除去した動きベクトル(u,uの消失点が一致することである。そのため、同じ第1ラベルを持つ特徴点の集合のうち、消失点が一致する動きベクトル(u,uを持つ特徴点に対して同じラベル(第2ラベル)を与える。この処理を行う理由は、図6(b)に示すように、同一接近物体の特徴点は、互いに平行に並進移動するため、それらの動きベクトルは、消失点を共有するという事実に基づいている。なお、物体が地面に対して平行に並進移動する場合、消失点は地平線上に存在することになる。 The second condition for performing the grouping is that the vanishing points of the motion vectors (u x , u y ) T from which the rotational motion components of the cameras are removed match. Therefore, the same label (second label) is given to the feature point having the motion vector (u x , u y ) T having the same vanishing point in the set of feature points having the same first label. The reason for this processing is based on the fact that, as shown in FIG. 6B, the feature points of the same approaching object translate in parallel with each other, so that their motion vectors share a vanishing point. . When the object moves in parallel with the ground, the vanishing point exists on the horizon.

ただし、対象とする接近物体は、カメラ10に近づく(Z<Z)ものに限定する。これは、図6(b)に示すように、各特徴点の動きベクトル(u,uが、消失点から特徴点に向って放射状に拡散する方向を持つことに相当する。換言すれば、動きベクトル(u,uが、特徴点から消失点に向かう方向をもつ特徴点については、グループ化の対象から除外し、ラベルを消去する。対象とする物体が、Z座標が変化しないような運動を持つ場合は、各特徴点の動きベクトル(u,uは平行となるため、消失点は無限遠に損剤することになる。この状態が観測された場合は、これらの特徴点を同一物体としてグルーピングするようにしても良い。換言すれば、消失点座標に上限と下限を設けなくても良い。 However, the target approaching object is limited to that approaching the camera 10 (Z 1 <Z 0 ). As shown in FIG. 6B, this corresponds to the motion vector (u x , u y ) T of each feature point having a direction of radially diffusing from the vanishing point toward the feature point. In other words, the feature point having the direction from the feature point toward the vanishing point with the motion vector (u x , u y ) T is excluded from the grouping target and the label is deleted. When the target object has a motion such that the Z coordinate does not change, the motion vectors (u x , u y ) T of the feature points are parallel to each other, so that the vanishing point is damaged at infinity. Become. When this state is observed, these feature points may be grouped as the same object. In other words, it is not necessary to provide an upper limit and a lower limit for the vanishing point coordinates.

上記消失点の一致判定では、図6(b)に示すように、第1ラベルが付与されたグループごとに消失点座標の分布状態を求め、その分布状態から、同一の消失点を共有するとみなされる特徴点と、同一の消失点を共有するとはみなされない特徴点とを統計的に区分けする。あるいは、消失点を共有するか否かは、分布の中心から予め定めた閾値以内に属するか否かによって判別しても良い。さらに、動きベクトル(u,uの誤差を考慮し、この誤差の下での、各消失点の変動範囲を求め、その変動範囲が互いに重複するものに同じ第2ラベルを付与しても良い。 In the vanishing point coincidence determination, as shown in FIG. 6B, the distribution state of the vanishing point coordinates is obtained for each group to which the first label is assigned, and it is considered that the same vanishing point is shared from the distribution state. And feature points that are not considered to share the same vanishing point. Alternatively, whether or not the vanishing point is shared may be determined by whether or not the vanishing point is within a predetermined threshold from the center of the distribution. Furthermore, considering the error of the motion vector (u x , u y ) T , the fluctuation range of each vanishing point under this error is obtained, and the same second label is assigned to those whose fluctuation ranges overlap each other. May be.

グルーピング処理の別の例として、物体が地面に対して必ずしも平行に並進移動していない場合を考える。この場合、消失点は、地平線上に存在するとは限らないので、2次元の消失点座標(x、y)を求めることが必要となる。 As another example of the grouping process, consider a case where an object does not necessarily translate in parallel with the ground. In this case, since the vanishing point does not necessarily exist on the horizon, it is necessary to obtain the two-dimensional vanishing point coordinates (x , y ).

ここで、特徴点kの、画像平面上で動きベクトル(u,uを延長した直線の傾きをa、切片をbとし、その直線と消失点とのy方向の距離をrとおくと、y−ax−b=rが成立する。この式は特徴点の個数分だけ成立する。そして、第1ラベルが付与されたグループ毎に、rの二乗和を最小化する消失点の値を、最小二乗法を用いて算出する。その算出した消失点に対して、絶対値として大きなrの値をもつ特徴点は、消失点を共有していないと考えられるため、外れ値(アウトライア)として、閾値処理などで除外する。残った特徴点に対して、再度最小二乗法を適用することで、消失点座標を推定することができる。 Here, the inclination of the straight line obtained by extending the motion vector (u x , u y ) T on the image plane of the feature point k is a k , the intercept is b k, and the distance in the y direction between the straight line and the vanishing point is If r k is set, y−a k x−b k = r k holds. This equation holds for the number of feature points. Then, for each group of the first label has been applied, the value of the vanishing point that minimizes the square sum of r k, is calculated using the least squares method. Against vanishing point and the calculated feature point having a value larger r k as an absolute value, it is considered as not sharing vanishing point, as outliers (outliers), excluded the like thresholding. The vanishing point coordinates can be estimated by applying the least square method again to the remaining feature points.

なお、最小二乗法とアウトライア除去を組み合わせた方法として、RANSAC(RANdom SAmple Consensus)法を用いることも可能である。RANSAC法については、一般によく使われる手法であり、また、D.A.Forsyth, J.Ponce著“Computer Vision: A Modern Approach” Prentice Hallなどに詳しいため、ここでの説明は省略する。また、上述した例では、誤差rをy方向の距離と置いたが、直線に対して垂直方向の距離として記述し、線形最小二乗問題として定式化することも可能である。これは、Total Least Squaresと呼ばれる方法である。なお、Total Least Squaresについても、一般によく使われる手法であり、またhttp://en.wikipedia.org/wiki/Total least squaresなどに詳しいため、ここでの説明は省略する。 Note that a RANSAC (RANdom SAmple Consensus) method can also be used as a method combining the least square method and outlier removal. The RANSAC method is a commonly used method, and DA. Forsyth, J. Ponce, “Computer Vision: A Modern Approach” Detailed explanation on Prentice Hall, etc. Further, in the above example, the error r k was placed with a distance in the y direction, described as the distance in the direction perpendicular to the straight line, it can be formulated as a linear least squares problem. This is a method called Total Least Squares. Note that Total Least Squares is also a commonly used technique, and is detailed in http://en.wikipedia.org/wiki/Total least squares, so a description thereof is omitted here.

グルーピングを行う第3の条件は、各特徴点の衝突時間TTCが類似していることである。そのため、同じ第2ラベルを持つ特徴点の集合のうち、衝突時間TTCが類似している特徴点に同じラベル(グループラベル)を与える。なお、衝突時間TTCは、カメラ10の前方(Z>0)に存在する物体が、画像平面に到達するまでの時間(実質的に、自車両と衝突するまでの時間)として定義される。   A third condition for performing grouping is that the collision times TTC of the feature points are similar. Therefore, the same label (group label) is given to the feature points having the same collision time TTC in the set of feature points having the same second label. The collision time TTC is defined as the time until an object existing in front of the camera 10 (Z> 0) reaches the image plane (substantially, the time until it collides with the host vehicle).

衝突時間TTCをΔTとおくと、衝突時間ΔTは、カメラ10の回転運動成分が除去された動きベクトル(u,u及び消失点座標(x, y)を用いて、下記の数式9により算出することができる。

Figure 0005516561
Assuming that the collision time TTC is ΔT, the collision time ΔT is expressed as follows using the motion vector (u x , u y ) T from which the rotational motion component of the camera 10 is removed and the vanishing point coordinates (x , y ). It can be calculated by the following formula 9.
Figure 0005516561

数式9を用いて、特徴点ごとに衝突時間ΔTを求める。具体的には、特徴点ごとに、消失点座標(x, y)、動きベクトル(u,uを数式9に代入して、衝突時間ΔTを算出する。なお、衝突時間ΔTは、動きベクトルの算出誤差を考慮し、ある範囲を持った時間として算出される。そして、同じ第2のラベルが付与されて、グループ化された特徴点の中で、衝突時間ΔTが互いに近いもの同士に同じグループラベルを与える。さらに、消失点の取り得る誤差をも考慮し、それらの誤差の下での衝突時間ΔTの範囲を定めても良い。 Using Equation 9, the collision time ΔT is obtained for each feature point. Specifically, for each feature point, vanishing point coordinates (x , y ) and motion vector (u x , u y ) T are substituted into Equation 9 to calculate the collision time ΔT. The collision time ΔT is calculated as a time having a certain range in consideration of a motion vector calculation error. Then, the same second label is assigned, and among the grouped feature points, those having the same collision time ΔT are given the same group label. Further, in consideration of possible errors of vanishing points, the range of the collision time ΔT under these errors may be determined.

ここで、同一の接近物体の衝突時間ΔTは、その物体の部位により多少のずれはあるものの、一般的な検出対象(人、自転車、車両など)を考慮する限り、類似していると考えるのが自然である。従って、条件1,2により同じラベルが付与され、グループ化された特徴点を対象として、各特徴点ごとに求めた衝突時間ΔTに関して、図6(c)に示すように、衝突時間ΔTの類似判定を行うのである。すなわち、あらかじめ設定した時間幅のエラーバーを与え、エラーバーの範囲で衝突時間ΔTが一致すれば衝突時間ΔTが類似すると判定し、エラーバーの範囲で衝突時間ΔTが一致しない特徴点があれば、グループから除外する。   Here, the collision time ΔT of the same approaching object is considered to be similar as long as general detection targets (people, bicycles, vehicles, etc.) are taken into consideration, although there are some deviations depending on the part of the object. Is natural. Accordingly, with respect to the collision time ΔT obtained for each feature point with the same label assigned under the conditions 1 and 2 as a target, the similarity of the collision time ΔT as shown in FIG. 6C. Judgment is made. That is, if an error bar having a preset time width is given and the collision time ΔT matches within the error bar range, it is determined that the collision time ΔT is similar, and if there is a feature point where the collision time ΔT does not match within the error bar range , Exclude from group.

なお、特徴点のグルーピングにおいては、同じグループラベルを持つ特徴点の数に下限を設けることが好ましい。そして、グループ化された特徴点の数が、下限に相当する所定数未満であった場合、そのグループ化された特徴点の集合が物体に対応したものとはみなさず、そのグループラベルを消去するようにしても良い。すると、特徴点の各グループは、少なくとも下限に相当する所定数以上の特徴点を含むことになるので、同一物体として信頼のおける判定を行うことができる。例えば、偶々、ノイズなどで特徴点が抽出されてしまった場合などに、それを接近物体として誤検出することを防止することができる。   In the grouping of feature points, it is preferable to set a lower limit on the number of feature points having the same group label. If the number of grouped feature points is less than a predetermined number corresponding to the lower limit, the set of grouped feature points is not regarded as corresponding to the object, and the group label is deleted. You may do it. Then, since each group of feature points includes at least a predetermined number of feature points corresponding to the lower limit, it is possible to make a reliable determination as the same object. For example, when a feature point is accidentally extracted due to noise or the like, it can be prevented from erroneously detecting it as an approaching object.

ただし、所定数が大き過ぎると、例えば遠方にあるため、画像に示す面積が少ないなどの理由から、特徴点の数が少なくなってしまった接近物体を未検出にする虞がある。そのため、所定数は、適切な値に設定する必要がある。例えば、実用上、所定数を2〜4に設定することが好ましいが、それ以外の数値でも良い。   However, if the predetermined number is too large, for example, because it is far away, there is a possibility that an approaching object having a small number of feature points may be undetected because the area shown in the image is small. Therefore, the predetermined number needs to be set to an appropriate value. For example, in practice, the predetermined number is preferably set to 2 to 4, but other numerical values may be used.

また、ステップS110の処理において、特徴点ごとに、尤度の算出に加えて、接近物体の属性が決定されている場合、ステップS140のグルーピング処理において、その属性情報も考慮して、グルーピングを行なっても良い。すなわち、接近物体の属性として同じ属性情報を持つ特徴点を、同一接近物体を示すものとして同じラベルを付与してグループ化しても良い。   In addition, in the process of step S110, when the attribute of the approaching object is determined for each feature point in addition to the calculation of the likelihood, the grouping process in step S140 performs grouping in consideration of the attribute information. May be. That is, feature points having the same attribute information as attributes of approaching objects may be grouped by giving the same label as indicating the same approaching object.

上述したグルーピング処理が終了すると、尤度算出部33は、図2のフローチャートのステップS150に進み、グループ化された特徴点により表される物体に関して、そのグループ化された複数の特徴点の尤度に基づき、物体が接近物体である確からしさを表す尤度の期待値を算出する。この尤度の期待値が、尤度算出部33の出力となる。   When the above-described grouping process is completed, the likelihood calculating unit 33 proceeds to step S150 in the flowchart of FIG. 2, and regarding the objects represented by the grouped feature points, the likelihood of the plurality of grouped feature points. Based on the above, an expected value of likelihood representing the likelihood that the object is an approaching object is calculated. The expected value of the likelihood becomes the output of the likelihood calculating unit 33.

この尤度の期待値は、例えば、グループ化された複数の特徴点の尤度を平均化処理することにより算出することができる。このような平均化処理により、グループ化された複数の特徴点の尤度を総合的に勘案して、尤度の期待値を算出することができるためである。この平均化処理は、単純平均でも良いが、特徴点毎に重みを付けた重み付け平均でも良い。この重みの取り方の一例を以下に説明する。   The expected value of likelihood can be calculated by, for example, averaging the likelihood of a plurality of grouped feature points. This is because the expected value of likelihood can be calculated by comprehensively considering the likelihood of a plurality of grouped feature points by such averaging processing. This averaging process may be a simple average, or may be a weighted average in which a feature point is weighted. An example of how to obtain this weight will be described below.

上述した消失点座標や衝突時間TTCは、比較的小さな誤差であっても、地平線に近い位置にある特徴点ほど、その誤差の影響を大きく受ける。そのため、地平線に近い特徴点ほど、グルーピング結果に誤りが生じる可能性が高くなる。従って、地平線からの距離などに応じて、各特徴点のグルーピングの信頼性を数値化することができる。そして、同じグループラベルを持つ特徴点の集合の中で、各特徴点の信頼性を示す値を正規化し、上記の重みとすることができる。また、グルーピングの信頼性の数値化のため、各特徴点の消失点範囲の逆数を取ることも可能である。   Even if the vanishing point coordinates and the collision time TTC described above are relatively small errors, the characteristic points closer to the horizon are more affected by the error. For this reason, the feature points closer to the horizon are more likely to have errors in the grouping result. Therefore, the reliability of the grouping of each feature point can be quantified according to the distance from the horizon. Then, in the set of feature points having the same group label, the value indicating the reliability of each feature point can be normalized and used as the above weight. In addition, in order to quantify the reliability of grouping, it is possible to take the reciprocal of the vanishing point range of each feature point.

なお、特徴点の尤度が、接近物体のそれぞれの属性ごとに算出されている場合には、接近物体の属性ごとに、尤度の期待値を算出し、最も高い尤度の期待値を示す属性を、接近物体の属性として決定することが好ましい。このようにすれば、接近物体が存在することを検出できるだけなく、その接近物体の属性を定めることも可能になる。   In addition, when the likelihood of the feature point is calculated for each attribute of the approaching object, the expected value of likelihood is calculated for each attribute of the approaching object, and the expected value of the highest likelihood is indicated. The attribute is preferably determined as the attribute of the approaching object. In this way, it is possible not only to detect the presence of an approaching object, but also to determine the attributes of the approaching object.

次に、画像処理ECU30のτ算出部34について説明する。まず、本実施形態では、図7に示すように、自車両への接近物体を運転者に報知するために、接近物体を取り囲む枠を、車両周辺画像に重畳表示するとともに、その枠及び枠で囲まれた接近物体を含む部分画像を時間の経過とともに拡大させて、接近物体について運転者の注意を喚起する。その際、各物体が接近物体である確からしさを表す尤度の期待値に応じて、当該接近物体の存在を運転者に報知する報知形態を異ならせるべく、上記枠及び部分画像を、尤度の期待値に応じた拡大率で拡大する。具体的には、尤度の期待値が大きくなるほど、枠及び部分画像が大きく拡大されるように、拡大率を定める。   Next, the τ calculation unit 34 of the image processing ECU 30 will be described. First, in this embodiment, as shown in FIG. 7, in order to notify the driver of an approaching object to the host vehicle, a frame surrounding the approaching object is superimposed and displayed on the vehicle peripheral image, and the frame and the frame The partial image including the enclosed approaching object is enlarged as time passes to alert the driver about the approaching object. At that time, in order to change the notification form for notifying the driver of the presence of the approaching object according to the expected value of likelihood representing the probability that each object is an approaching object, the frame and the partial image are represented by the likelihood. It will be expanded at an expansion rate according to the expected value. Specifically, the enlargement ratio is determined so that the frame and the partial image are enlarged as the expected value of likelihood increases.

このように、尤度の期待値に応じた拡大率を定めるべく、本実施形態では、光学情報τを利用する。光学情報τは、図8に示すように、目の水晶体中の一点から物体上の輪郭部分の2点に向かう2直線の成す角度をθとしたとき、τ=θ/(dθ/dt)と定義される。なお、dθ/dtは、角度θの時間微分を表す。   In this way, the optical information τ is used in the present embodiment in order to determine the enlargement ratio according to the expected value of likelihood. As shown in FIG. 8, the optical information τ is τ = θ / (dθ / dt), where θ is an angle formed by two straight lines from one point in the crystalline lens of the eye to two points on the contour portion on the object. Defined. Note that dθ / dt represents time differentiation of the angle θ.

この光学情報τは、物体が接近物体である場合、その接近物体が網膜(を含む平面)まで到達する時間とほぼ等しいことが分かっている。このため、光学情報τは、接近物体が網膜(を含む平面)まで到達する時間と相関する値としても定義されるものである。   This optical information τ is known to be approximately equal to the time for the approaching object to reach the retina (including the plane) when the object is an approaching object. For this reason, the optical information τ is also defined as a value that correlates with the time for the approaching object to reach the retina (including the plane).

人間(やその他の動物)にはτニューロンと呼ばれる、τの値を持つ物体を視覚したときに発火する神経細胞の存在が知られており、その働きにより他の運動に関する情報(距離、速度、加速度など)と比べて、上述の到達時間がより直感的に知覚できることが知られている。例えば、自分に向かってくるボールを見たとき、ボールまでの距離やボールの速度、加速度は、(少なくとも瞬時のうちに)認知できないが、ボールが自分に到達するまでの時間の程度は、瞬時に認知することが可能である。このように、光学情報τは、人間にとって非常に認知することが容易な情報であり、それ故、光学情報τと、人間において注意が喚起される度合とは密接な関係があると言える。例えば、人間は、光学情報τが小さく、より短時間で自分に到達する物体、換言すれば、より早い速度で自分に向かってくる物体に、より強く注意が喚起される。   Humans (and other animals) are known to have neurons, called τ neurons, that ignite when an object with a value of τ is viewed. Information on other movements (distance, speed, It is known that the above-mentioned arrival time can be perceived more intuitively than the acceleration). For example, when you look at a ball that is facing you, you cannot recognize the distance to the ball, the speed or acceleration of the ball (at least in an instant), but the amount of time it takes for the ball to reach you It is possible to recognize. Thus, the optical information τ is information that is very easy for humans to recognize. Therefore, it can be said that the optical information τ is closely related to the degree of attention drawn by humans. For example, human beings are more strongly alerted to objects that have small optical information τ and that reach themselves in a shorter period of time, in other words, objects that come toward themselves at a faster speed.

そのため、τ算出部34では、尤度算出部33から出力された尤度の期待値が大きくなるほど、小さくなる光学情報τを算出する。すなわち、光学情報τは、尤度の期待値に対して減少関数となる。例えば、光学情報τは、尤度の期待値の逆数から算出することができる。この場合、係数は予め実験的に定めておく。また、光学情報τを、尤度の期待値に対して傾きを負とする一次関数により算出しても良い。この場合、傾きや切片は予め実験的に定めておく。逆数や一次関数以外の、より複雑な関数によって光学情報τを算出しても良いことはいうまでもない。   For this reason, the τ calculation unit 34 calculates optical information τ that decreases as the expected value of likelihood output from the likelihood calculation unit 33 increases. That is, the optical information τ becomes a decreasing function with respect to the expected value of likelihood. For example, the optical information τ can be calculated from the reciprocal of the expected value of likelihood. In this case, the coefficient is experimentally determined in advance. Further, the optical information τ may be calculated by a linear function having a slope that is negative with respect to the expected value of likelihood. In this case, the slope and intercept are experimentally determined in advance. Needless to say, the optical information τ may be calculated by a more complicated function other than the reciprocal or linear function.

枠/部分画像描画部35は、τ算出部34によって算出された光学情報τを用いて、枠及び部分画像の拡大率を定め、時間の経過とともに、その拡大率に従った大きさの枠及び部分画像を生成する。ここで、光学情報τを用いて拡大率を定める場合、拡大率を(1+τ−1)とする。このように拡大率を定めることにより、接近物体に対応する枠及び部分画像が、光学情報τに従って接近するように画面上に表示することができる。従って、尤度の期待値が大きく、そのため、光学情報τとして小さな値が設定される接近物体に対応する枠及び部分画像ほど、時間の経過とともに大きく拡大されるようになる。 The frame / partial image drawing unit 35 uses the optical information τ calculated by the τ calculation unit 34 to determine the enlargement ratio of the frame and the partial image. Generate a partial image. Here, when the enlargement factor is determined using the optical information τ, the enlargement factor is (1 + τ −1 ). By determining the enlargement ratio in this way, the frame and the partial image corresponding to the approaching object can be displayed on the screen so as to approach according to the optical information τ. Therefore, the expected value of the likelihood is large, and therefore, the frame and the partial image corresponding to the approaching object for which a small value is set as the optical information τ is greatly enlarged as time passes.

また、枠/部分画像描画部35は、図7に示すように、枠及び部分画像の拡大を所定時間だけ実行すると、枠及び部分画像の大きさを拡大しない状態に戻す。そして、その状態から、再び、枠及び部分画像を、τ算出部34にて算出された光学情報τに応じた拡大率で拡大させる。すなわち、枠/部分画像描画部35は、所定時間毎に、枠及び部分画像の拡大を繰り返し実行する。このように、枠及び部分画像の拡大を繰り返し実行することにより、枠及び部分画像の拡大表示を継続的に行うことができ、注意喚起の効果を高めることができる。また、表示器40の表示範囲の制約から、枠及び部分画像の大きさを拡大するにも限界があるが、上述したように所定時間毎に、拡大しない状態に戻すことにより、表示範囲の制約もクリアすることができる。   Further, as illustrated in FIG. 7, the frame / partial image drawing unit 35 returns the frame and the partial image to a state in which the sizes of the frame and the partial image are not enlarged when the enlargement of the frame and the partial image is executed for a predetermined time. Then, from that state, the frame and the partial image are again enlarged at an enlargement rate corresponding to the optical information τ calculated by the τ calculation unit 34. That is, the frame / partial image drawing unit 35 repeatedly executes enlargement of the frame and the partial image every predetermined time. In this way, by repeatedly executing the enlargement of the frame and the partial image, the enlarged display of the frame and the partial image can be continuously performed, and the alerting effect can be enhanced. In addition, due to the limitation of the display range of the display device 40, there is a limit to enlarge the size of the frame and the partial image. Can also be cleared.

画像描画部36は、カメラ10によって撮影された画像情報に基づいて、表示器40に表示するための画像を生成するものである。また、合成部37は、画像描画部36にて生成された画像上に、枠/部分画像描画部35にて生成された枠及び部分画像を重畳することにより、それらの画像を合成するものである。そして、表示器40は、車室内に設けられ、合成部37によって合成された画像を表示する。   The image drawing unit 36 generates an image to be displayed on the display 40 based on image information captured by the camera 10. The synthesizing unit 37 synthesizes these images by superimposing the frame and the partial image generated by the frame / partial image drawing unit 35 on the image generated by the image drawing unit 36. is there. The display 40 is provided in the passenger compartment and displays the image synthesized by the synthesis unit 37.

本実施形態では、上述したように、車両周辺に接近物体が存在する場合、その接近物体を取り囲む枠、及び枠によって囲まれた部分画像を時間の経過とともに拡大するように表示する。このため、接近物体の存在を、自車両の運転者に視覚を通じて分かりやすく報知することができる。特に、枠及び部分画像は、尤度の期待値に対応した拡大率で拡大されるので、尤度の期待値が大きいほど、枠及び部分画像が大きく拡大されることになる。このため、尤度の期待値の大きさの違いが一目瞭然であるとともに、より尤度の期待値の高い接近物体に対して一層の注意を払うように、運転者に注意喚起を促すことができる。   In the present embodiment, as described above, when an approaching object is present around the vehicle, a frame surrounding the approaching object and a partial image surrounded by the frame are displayed so as to be enlarged with the passage of time. For this reason, the presence of an approaching object can be reported to the driver of the host vehicle in an easy-to-understand manner visually. Particularly, since the frame and the partial image are enlarged at an enlargement rate corresponding to the expected value of likelihood, the frame and the partial image are greatly enlarged as the expected value of likelihood is larger. For this reason, the difference in the magnitude of the expected value of likelihood is obvious at a glance, and the driver can be alerted to pay more attention to an approaching object with a higher expected value of likelihood. .

なお、上述した実施形態において、枠/部分画像描画部35は、枠の表示に関して、以下に示すような表示を行なっても良い。   In the above-described embodiment, the frame / partial image drawing unit 35 may perform the following display regarding the display of the frame.

まず、枠/部分画像描画部35は、枠及び部分画像が拡大される拡大率に応じて、枠の線の太さを変化させても良い。すなわち、時間の経過とともに枠が徐々に拡大表示されるとき、拡大される大きさが大きくなるほど、枠の線の太さを太くしても良い。これにより、枠が大きく拡大されるほど、より枠の表示が目立つように表示することができ、運転者の注意をより強く喚起することができる。   First, the frame / partial image drawing unit 35 may change the thickness of the line of the frame according to the enlargement ratio at which the frame and the partial image are enlarged. That is, when the frame is gradually enlarged and displayed with the passage of time, the thickness of the line of the frame may be increased as the size of the enlargement increases. Thereby, the larger the frame is enlarged, the more clearly the frame can be displayed, and the driver's attention can be more strongly alerted.

また、枠/部分画像描画部35は、枠を、その背景部分が視認できるように、半透明にて表示しても良い。これにより、枠を重畳表示しながら、車両周辺の画像全体を運転者が視認できるようになる。   Further, the frame / partial image drawing unit 35 may display the frame translucently so that the background portion can be visually recognized. As a result, the driver can visually recognize the entire image around the vehicle while displaying the frame superimposed.

また、枠/部分画像描画部35は、枠の影を、枠の奥側に表示するようにしても良い。これにより、枠を拡大させる際に、立体感を与えることができ、枠が運転者に近づいているような感覚を与えることができる。なお、枠の影は、枠の場合と同様に、その背景部分が視認できるように、半透明にて表示するようにしても良い。   Further, the frame / partial image drawing unit 35 may display the shadow of the frame on the back side of the frame. Thereby, when enlarging a frame, a three-dimensional effect can be given and the feeling that the frame is approaching a driver can be given. Note that the shadow of the frame may be displayed in a translucent manner so that the background portion can be visually recognized, as in the case of the frame.

また、枠/部分画像描画部35あるいは合成部37は、複数の接近物体に対応する枠を同時に車両周辺画像に重畳表示する必要がある場合であって、複数の接近物体に対応する枠が重なる場合には、尤度の期待値が大きい接近物体に対応する枠が手前に表示されるように、枠を示す画像を生成したり、枠を示す画像を合成したりすることが好ましい。これにより、車両に対して接近する複数の接近物体が有る場合に、運転者が注意を払うべき優先度合に応じた表示を行うことができる。   Also, the frame / partial image drawing unit 35 or the combining unit 37 is a case where frames corresponding to a plurality of approaching objects need to be superimposed and displayed on the vehicle peripheral image at the same time, and the frames corresponding to the plurality of approaching objects overlap. In such a case, it is preferable to generate an image showing a frame or synthesize an image showing a frame so that a frame corresponding to an approaching object having a high likelihood value is displayed in front. Thereby, when there are a plurality of approaching objects approaching the vehicle, it is possible to perform display according to the priority that the driver should pay attention to.

また、枠/部分画像描画部35は、尤度算出部33により、接近物体の属性が決定されている場合には、枠の形態を、その決定された接近物体の属性に応じたものとしても良い。例えば、枠の形状を、歩行者、自転車、あるいは車両を形どったものにしたり、枠の色を接近物体の属性に応じた色にしたりする。これにより、運転者に対して、枠の表示形態を用いて、接近物体の属性も報知することが可能になる。   Further, the frame / partial image drawing unit 35 may determine the shape of the frame according to the determined attribute of the approaching object when the likelihood calculation unit 33 determines the attribute of the approaching object. good. For example, the shape of the frame may be a shape of a pedestrian, bicycle, or vehicle, or the color of the frame may be a color corresponding to the attribute of the approaching object. Accordingly, it is possible to notify the driver of the attribute of the approaching object using the frame display form.

さらに、画像処理ECU30は、表示器40が立体的な表示を行うことが可能なものである場合、枠を立体的に表示させつつ、拡大させても良い。このような立体的な表示を行うことにより、枠が運転者に近づいているような感覚をより一層鮮明に与えることができる。   Further, the image processing ECU 30 may enlarge the frame while displaying the frame three-dimensionally when the display device 40 is capable of performing the three-dimensional display. By performing such a three-dimensional display, a feeling that the frame is approaching the driver can be given more clearly.

以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することが可能である。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.

例えば、上述した実施形態では、尤度算出部33は、特徴点の尤度を、接近物体のそれぞれの属性ごとに算出した場合、算出した尤度の期待値の中で最も高い値を示す属性を、その接近物体の属性と決定した。   For example, in the above-described embodiment, when the likelihood calculation unit 33 calculates the likelihood of the feature point for each attribute of the approaching object, the attribute indicating the highest value among the expected values of the calculated likelihoods. Is determined as the attribute of the approaching object.

しかしながら、例えば、少なくとも歩行者、自転車、自動車を接近物体の属性とし、接近物体が、歩行者である確率、自転車である確率、車両である確率を、それぞれの事前確率分布として予め定めておき、接近物体の属性ごとに、尤度の期待値と事前確率とをかけ合わせて事後確率を算出し、最も高い事後確率を有する属性を、接近物体の属性として決定しても良い。このように事前確率を用いることにより、例えば車両を停車させた場所に応じて、異なる事前確率分布を設定することも可能となり、接近物体の属性の決定をより一層精度良く行うことが可能となる。例えば、車両専用の駐車場においては、接近物体は歩行者、車両である確率が高く、自転車である確率は低いといえる。一方、道路から歩道を挟んで設けられた駐車スペースに車両を停車した場合、接近物体は歩行者又は自転車である確率が高く、車両である確率は低いといえる。従って、尤度の期待値だけではなく、このような事前確率分布を考慮することで、接近物体の属性を判別する精度をより向上することが可能となる。   However, for example, at least pedestrians, bicycles, and automobiles are attributes of approaching objects, the probability that the approaching object is a pedestrian, the probability of being a bicycle, the probability of being a vehicle is determined in advance as respective prior probability distributions, For each attribute of the approaching object, the posterior probability may be calculated by multiplying the expected value of the likelihood and the prior probability, and the attribute having the highest posterior probability may be determined as the attribute of the approaching object. By using prior probabilities in this way, it is possible to set different prior probability distributions, for example, depending on the location where the vehicle is stopped, and it is possible to determine the attributes of approaching objects with higher accuracy. . For example, in a vehicle-dedicated parking lot, it can be said that the approaching object has a high probability of being a pedestrian and a vehicle, and the probability of being a bicycle is low. On the other hand, when the vehicle is stopped in a parking space provided across the sidewalk from the road, the approaching object is likely to be a pedestrian or a bicycle, and the probability of being a vehicle is low. Therefore, by considering not only the expected likelihood value but also such a prior probability distribution, it is possible to further improve the accuracy of determining the attribute of the approaching object.

また、上述した実施形態では、接近物体である確からしさを表す尤度の期待値に応じた拡大率で、接近物体を取り囲む枠、及びその枠に囲まれた接近物体を含む部分画像を時間の経過とともに拡大表示するものであった。   In the above-described embodiment, the frame surrounding the approaching object and the partial image including the approaching object surrounded by the frame at the enlargement rate according to the expected value of the likelihood representing the probability of being the approaching object The display was enlarged with the passage of time.

しかしながら、拡大表示するのは、枠のみでも良いし、あるいは、枠の表示は行わず、部分画像のみを拡大表示するようにしても良い。   However, only the frame may be displayed in an enlarged manner, or only the partial image may be displayed in an enlarged manner without displaying the frame.

10 カメラ
20 車両情報検出部
30 画像処理ECU
40 表示器
10 Camera 20 Vehicle Information Detection Unit 30 Image Processing ECU
40 indicator

Claims (23)

自車両の周辺を撮影するように、当該自車両に搭載された撮影手段と、
前記撮影手段によって異なる時刻に撮影された第1画像及び第2画像において、同一の特徴点を抽出するとともに、前記第1画像における前記特徴点の第1座標位置、及び前記第2画像における前記特徴点の第2座標位置を算出する第1の算出手段と、
前記第1画像の撮影時刻と前記第2画像の撮影時刻との間における、前記自車両の並進方向への移動による前記撮影手段の移動ベクトルを算出する第2の算出手段と、
前記第1の算出手段によって算出された第1座標位置及び第2座標位置と、前記第2の算出手段によって算出された移動ベクトルとに基づいて、前記特徴点が接近物体を示すものである場合に、前記第2座標位置が取り得る値の確率分布、移動速度として取り得る確率分布、及び前記撮影手段の撮影する奥行き方向において、存在すべき位置の確率分布を用いて、前記特徴点が、現実の空間において、前記自車両に接近する接近物体を示すものである確からしさを表す尤度を算出する尤度算出手段と、
前記尤度を算出した特徴点を物体ごとにグループ化しつつ、グループ化された複数の特徴点の尤度に基づき、各物体が接近物体である確からしさを表す尤度の期待値を算出する期待値算出手段と、
接近物体が存在することを前記自車両の乗員に報知するものであって、前記期待値算出手段によって算出された尤度の期待値に応じて、接近物体の存在を前記自車両の乗員に報知する際の報知形態を異ならせる報知手段と、を備えることを特徴とする車両用運転支援装置。
Photographing means mounted on the subject vehicle so as to photograph the periphery of the subject vehicle;
In the first image and the second image taken at different times by the photographing means, the same feature point is extracted, the first coordinate position of the feature point in the first image, and the feature in the second image. First calculating means for calculating a second coordinate position of the point;
Second calculating means for calculating a movement vector of the photographing means by movement of the host vehicle in a translational direction between the photographing time of the first image and the photographing time of the second image;
The feature point indicates an approaching object based on the first coordinate position and the second coordinate position calculated by the first calculation unit and the movement vector calculated by the second calculation unit. In addition, using the probability distribution of values that can be taken by the second coordinate position, the probability distribution that can be taken as a moving speed, and the probability distribution of positions that should be present in the depth direction to be photographed by the photographing means, the feature points are: A likelihood calculating means for calculating a likelihood representing a probability that indicates an approaching object approaching the host vehicle in a real space;
Expectation to calculate the expected value of likelihood indicating the likelihood that each object is an approaching object based on the likelihood of the plurality of feature points grouped while grouping the feature points for which the likelihood is calculated A value calculating means;
Informing the occupant of the host vehicle of the presence of an approaching object, and informing the occupant of the host vehicle of the presence of an approaching object according to the expected value of likelihood calculated by the expected value calculation means. A vehicle driving support device, comprising: a notification unit configured to change a notification mode when performing the operation.
前記期待値算出手段は、所定の閾値以上の尤度を持つ特徴点を対象として、グループ化を行うことを特徴とする請求項1に記載の車両用運転支援装置。   The vehicle driving support apparatus according to claim 1, wherein the expected value calculation unit performs grouping on feature points having a likelihood equal to or greater than a predetermined threshold. 前記期待値算出手段は、グループ化された複数の特徴点の尤度を平均化処理して、前記尤度の期待値を算出することを特徴とする請求項1又は2に記載の車両用運転支援装置。   The vehicle driving according to claim 1, wherein the expectation value calculating means calculates the expectation value of the likelihood by averaging the likelihoods of a plurality of grouped feature points. Support device. 前記期待値算出手段は、前記複数の特徴点の尤度を平均化処理する際、同じグループに属する信頼性が高いほど、大きな重みを付与する重み付け平均処理を行うことを特徴とする請求項3に記載の車両用運転支援装置。   The expectation value calculation means performs weighted average processing for assigning larger weights as the reliability belonging to the same group is higher when averaging the likelihoods of the plurality of feature points. The vehicle driving support device according to claim 1. 前記期待値算出手段は、グループ化された特徴点の数が所定数未満であった場合、そのグループ化された特徴点の集合が物体に対応したものとはみなさず、前記尤度の期待値の算出を行わないことを特徴とする請求項1乃至4のいずれかに記載の車両用運転支援装置。   If the number of feature points grouped is less than a predetermined number, the expectation value calculation means does not consider the grouped feature point set corresponding to an object, and the expected value of the likelihood The vehicle driving support device according to any one of claims 1 to 4, wherein the calculation is not performed. 前記尤度算出手段は、少なくとも歩行者、自転車、自動車を接近物体の属性とし、その接近物体の属性ごとに、前記特徴点の尤度をそれぞれ算出し、
前記期待値算出手段は、前記接近物体の属性ごとに、前記尤度の期待値を算出し、最も高い尤度の期待値を示す属性を、前記接近物体の属性として決定することを特徴とする請求項1乃至5のいずれかに記載の車両用運転支援装置。
The likelihood calculating means sets at least a pedestrian, a bicycle, and a car as an attribute of an approaching object, and calculates the likelihood of the feature point for each attribute of the approaching object,
The expected value calculation means calculates the expected value of the likelihood for each attribute of the approaching object, and determines an attribute indicating the expected value of the highest likelihood as the attribute of the approaching object. The vehicle driving support device according to any one of claims 1 to 5.
前記尤度算出手段は、少なくとも歩行者、自転車、自動車を接近物体の属性とし、その接近物体の属性ごとに、前記特徴点の尤度をそれぞれ算出し、
前記期待値算出手段は、前記接近物体の属性ごとに、前記尤度の期待値を算出するとともに、接近物体に関して、それが歩行者である確率、自転車である確率、車両である確率を、それぞれの事前確率分布として予め定めておき、前記接近物体の属性ごとに、前記尤度の期待値と前記確率とをかけ合わせて事後確率を算出し、最も高い事後確率を有する属性を、前記接近物体の属性として決定することを特徴とする請求項1乃至5のいずれかに記載の車両用運転支援装置。
The likelihood calculating means sets at least a pedestrian, a bicycle, and a car as an attribute of an approaching object, and calculates the likelihood of the feature point for each attribute of the approaching object,
The expected value calculation means calculates the expected value of the likelihood for each attribute of the approaching object, and regarding the approaching object, the probability that it is a pedestrian, the probability that it is a bicycle, and the probability that it is a vehicle, respectively. For each attribute of the approaching object, the posterior probability is calculated by multiplying the expected value of the likelihood and the probability, and the attribute having the highest posterior probability is determined as the approaching object. The vehicle driving support apparatus according to claim 1, wherein the driving support apparatus is determined as an attribute of the vehicle.
前記第1の算出手段は、前記第1画像の撮影時刻と前記第2画像の撮影時刻との間に、前記自車両が回転方向に移動した場合、前記第2画像において、前記撮影手段の回転移動の影響を除去した第2座標位置を算出することを特徴とする請求項1乃至7のいずれかに記載の車両用運転支援装置。   The first calculating means rotates the photographing means in the second image when the host vehicle moves in the rotation direction between the photographing time of the first image and the photographing time of the second image. The vehicle driving support apparatus according to claim 1, wherein the second coordinate position from which the influence of movement is removed is calculated. 前記報知手段は、前記撮影手段によって撮影された画像を表示する表示器を有し、当該表示器に表示された画像上に、接近物体を取り囲む枠を重畳表示するとともに、前記尤度の期待値に対応した拡大率で、時間の経過とともに前記枠を拡大させることを特徴とする請求項1乃至8のいずれかに記載の車両用運転支援装置。   The informing means has a display for displaying an image photographed by the photographing means, and a frame surrounding the approaching object is superimposed on the image displayed on the display, and the expected value of the likelihood The vehicle driving support device according to any one of claims 1 to 8, wherein the frame is enlarged with the passage of time at an enlargement rate corresponding to. 前記報知手段は、前記尤度の期待値が大きくなるほど、小さくなるように光学情報τの値を定め、(1+τ−1)で定められる拡大率に従って、前記枠を拡大させることを特徴とする請求項9に記載の車両用運転支援装置。 The notification means determines the value of the optical information τ so as to decrease as the expected value of the likelihood increases, and enlarges the frame according to an enlargement ratio determined by (1 + τ −1 ). Item 10. The vehicle driving support device according to Item 9. 前記報知手段は、前記拡大率に応じて、前記枠の線の太さを変化させることを特徴とする請求項9又は10に記載の車両用運転支援装置。   The vehicle driving support apparatus according to claim 9 or 10, wherein the notification unit changes a thickness of a line of the frame according to the enlargement ratio. 前記報知手段は、前記枠を、その背景部分が視認できるように、半透明にて表示することを特徴とする請求項9乃至11のいずれかに記載の車両用運転支援装置。   The vehicle driving support device according to claim 9, wherein the notification unit displays the frame in a translucent manner so that a background portion of the frame can be visually recognized. 前記報知手段は、前記枠の影を、前記枠の奥側に表示することを特徴とする請求項9乃至12のいずれかに記載の車両用運転支援装置。   The vehicle driving support apparatus according to any one of claims 9 to 12, wherein the notification unit displays a shadow of the frame on the back side of the frame. 戦記報知手段は、前記枠の影を、その背景部分が視認できるように、半透明にて表示することを特徴とする請求項13に記載の車両用運転支援装置。   The vehicular driving support apparatus according to claim 13, wherein the war record notification means displays the shadow of the frame in a translucent manner so that the background portion can be visually recognized. 前記表示器は、立体的な表示を行うことが可能なものであり、前記報知手段は、前記枠を立体的に表示させつつ、拡大させることを特徴とする請求項9乃至14のいずれかに記載の車両用運転支援装置。   15. The display device according to claim 9, wherein the display unit is capable of performing a three-dimensional display, and the notification unit enlarges the frame while displaying the frame three-dimensionally. The vehicle driving support device according to claim. 前記報知手段は、前記枠の拡大を所定時間だけ実行すると、枠の大きさを拡大しない状態に戻すようにして、前記枠の拡大を繰り返し実行することを特徴とする請求項9乃至15のいずれかに記載の車両用運転支援装置。   16. The method according to claim 9, wherein when the enlargement of the frame is performed for a predetermined time, the notifying unit repeatedly executes the enlargement of the frame so that the size of the frame is returned to a state where the frame is not enlarged. The vehicle driving support device according to claim 1. 前記報知手段は、複数の接近物体に対応する枠を同時に画像上に重畳表示する場合であって、当該複数の接近物体に対応する枠が重なる場合には、前記尤度の期待値が大きい接近物体に対応する枠を手前に表示することを特徴とする請求項9乃至16のいずれかに記載の車両用運転支援装置。   The notification means is a case where frames corresponding to a plurality of approaching objects are simultaneously superimposed and displayed on the image, and when the frames corresponding to the plurality of approaching objects overlap, an approach having a large expected value of the likelihood The vehicle driving support device according to claim 9, wherein a frame corresponding to the object is displayed in front. 前記報知手段は、前記期待値算出手段により接近物体の属性が決定されている場合には、前記枠の形態を、その決定された接近物体の属性に応じたものとすることを特徴とする請求項9乃至17のいずれかに記載の車両用運転支援装置。   The notification means, when the attribute of the approaching object is determined by the expected value calculation means, makes the form of the frame according to the determined attribute of the approaching object. Item 18. A vehicle driving support device according to any one of Items 9 to 17. 前記報知手段は、前記撮影手段によって撮影された画像を表示する表示器を有し、その画像における接近物体を示す部分画像を、前記尤度の期待値に対応した拡大率で、時間の経過とともに拡大するように表示させることを特徴とする請求項1乃至18のいずれかに記載の車両用運転支援装置。   The notification means has a display for displaying an image photographed by the photographing means, and displays a partial image showing an approaching object in the image with an enlargement ratio corresponding to the expected value of the likelihood as time passes. The vehicle driving support device according to any one of claims 1 to 18, wherein the vehicle driving support device is displayed in an enlarged manner. 前記報知手段は、前記尤度の期待値が大きくなるほど、小さくなるように光学情報τの値を定め、(1+τ−1)で定められる拡大率に従って、前記部分画像を拡大させることを特徴とする請求項19に記載の車両用運転支援装置。 The informing means determines the value of the optical information τ so as to decrease as the expected value of the likelihood increases, and enlarges the partial image according to an enlargement ratio determined by (1 + τ −1 ). The vehicle driving support device according to claim 19. 前記表示器は、立体的な表示を行うことが可能なものであり、前記報知手段は、前記部分画像を立体的に表示させつつ、拡大させることを特徴とする請求項19又は20に記載の車両用運転支援装置。   21. The display device according to claim 19 or 20, wherein the display device is capable of performing a three-dimensional display, and the notifying unit enlarges the partial image while displaying the three-dimensional image. Vehicle driving support device. 前記報知手段は、前記部分画像の拡大を所定時間だけ実行すると、前記部分画像を拡大しない状態に戻すようにして、前記部分画像の拡大を繰り返し実行することを特徴とする請求項19乃至21のいずれかに記載の車両用運転支援装置。   The said notification means repeatedly executes the enlargement of the partial image so as to return to the state where the partial image is not enlarged when the enlargement of the partial image is executed for a predetermined time. The vehicle driving support device according to any one of the above. 前記報知手段は、複数の接近物体に対応する部分画像を同時に画像上に表示する場合であって、当該複数の接近物体に対応する部分画像が重なる場合には、前記尤度の期待値が大きい接近物体に対応する部分画像を手前に表示することを特徴とする請求項19乃至22のいずれかに記載の車両用運転支援装置。 The notification means is a case where partial images corresponding to a plurality of approaching objects are simultaneously displayed on the image, and when the partial images corresponding to the plurality of approaching objects overlap, the expected value of the likelihood is large. The vehicle driving support device according to any one of claims 19 to 22 , wherein a partial image corresponding to the approaching object is displayed in front.
JP2011269220A 2011-12-08 2011-12-08 Vehicle driving support device Expired - Fee Related JP5516561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011269220A JP5516561B2 (en) 2011-12-08 2011-12-08 Vehicle driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011269220A JP5516561B2 (en) 2011-12-08 2011-12-08 Vehicle driving support device

Publications (2)

Publication Number Publication Date
JP2013120551A JP2013120551A (en) 2013-06-17
JP5516561B2 true JP5516561B2 (en) 2014-06-11

Family

ID=48773154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011269220A Expired - Fee Related JP5516561B2 (en) 2011-12-08 2011-12-08 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP5516561B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6572411B2 (en) * 2014-11-11 2019-09-11 株式会社明電舎 Rail detector
JP6835065B2 (en) 2016-03-18 2021-02-24 日本電気株式会社 Information processing equipment, control methods, and programs
JP6699323B2 (en) * 2016-04-26 2020-05-27 株式会社明電舎 Three-dimensional measuring device and three-dimensional measuring method for train equipment
JP6278091B1 (en) * 2016-10-14 2018-02-14 マツダ株式会社 Driving assistance device
KR101982298B1 (en) * 2016-11-24 2019-05-24 고려대학교 산학협력단 Method and apparatus for detecting sudden moving objecj appearance at vehicle
JP2019174892A (en) * 2018-03-27 2019-10-10 クラリオン株式会社 Resting three-dimensional object detection device and resting three-dimensional object detection method
JP7156195B2 (en) * 2019-07-17 2022-10-19 トヨタ自動車株式会社 object recognition device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3729933B2 (en) * 1996-05-31 2005-12-21 松下電器産業株式会社 Automatic monitoring device
JP2002298299A (en) * 2001-03-30 2002-10-11 Toshiba Corp Driving support device for vehicle
JP2002314989A (en) * 2001-04-10 2002-10-25 Yazaki Corp Peripheral monitor for vehicle
JP3763279B2 (en) * 2002-02-26 2006-04-05 日本電気株式会社 Object extraction system, object extraction method, and object extraction program
JP2005250645A (en) * 2004-03-02 2005-09-15 Murakami Corp Vehicle peripheral monitoring device and vehicle peripheral monitoring method
JP2006318345A (en) * 2005-05-16 2006-11-24 Sony Corp Object tracking method, program for object tracking method, recording medium where program for object tracking method is recorded, and object tracking device
JP2007128460A (en) * 2005-11-07 2007-05-24 Sumitomo Electric Ind Ltd Collision determination system, collision determination method, computer program, and determination device
JP2008172441A (en) * 2007-01-10 2008-07-24 Omron Corp Detection device, method, and program
JP4919036B2 (en) * 2007-01-30 2012-04-18 アイシン精機株式会社 Moving object recognition device
JP4885793B2 (en) * 2007-05-22 2012-02-29 富士通テン株式会社 Obstacle monitoring device
JP2009042824A (en) * 2007-08-06 2009-02-26 Toyota Motor Corp Drunken driving preventing device
JP5636609B2 (en) * 2008-05-08 2014-12-10 アイシン精機株式会社 Vehicle periphery display device
WO2011108218A1 (en) * 2010-03-01 2011-09-09 本田技研工業株式会社 Surrounding area monitoring device for vehicle

Also Published As

Publication number Publication date
JP2013120551A (en) 2013-06-17

Similar Documents

Publication Publication Date Title
JP5516561B2 (en) Vehicle driving support device
CN112292711B (en) Associating LIDAR data and image data
JP7025912B2 (en) In-vehicle environment recognition device
US20170297488A1 (en) Surround view camera system for object detection and tracking
EP2924653B1 (en) Image processing apparatus and image processing method
WO2016117200A1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
JP4480083B2 (en) Object recognition device
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
JP5922866B2 (en) System and method for providing guidance information to a vehicle driver
JP6328327B2 (en) Image processing apparatus and image processing method
US9177196B2 (en) Vehicle periphery monitoring system
JP6163453B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP4943034B2 (en) Stereo image processing device
CN107845290B (en) Intersection warning method, processing system, intersection warning system and vehicle
JP2009037622A (en) Method and device for evaluating image
US20110228981A1 (en) Method and system for processing image data
JP5834810B2 (en) Camera calibration apparatus, occupant support apparatus, and distortion coefficient generation method for camera calibration
JP4609603B2 (en) 3D information display device and 3D information display method
KR102082254B1 (en) a vehicle recognizing system
KR102349979B1 (en) Method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens
JP2019511780A (en) Method for detecting an object near a road of a motor vehicle, computer device, driver assistance system, and motor vehicle
JP2020508501A (en) Method and apparatus for estimating the range of a moving object
EP3082069A1 (en) Stereoscopic object detection device and stereoscopic object detection method
US20180012368A1 (en) Moving object detection device, image processing device, moving object detection method, and integrated circuit
WO2010113253A1 (en) Three-dimensional information display device and three-dimensional information display method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5516561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees