JP5251460B2 - Approaching object detection device, approaching object detection program, approaching object detection method - Google Patents
Approaching object detection device, approaching object detection program, approaching object detection method Download PDFInfo
- Publication number
- JP5251460B2 JP5251460B2 JP2008303948A JP2008303948A JP5251460B2 JP 5251460 B2 JP5251460 B2 JP 5251460B2 JP 2008303948 A JP2008303948 A JP 2008303948A JP 2008303948 A JP2008303948 A JP 2008303948A JP 5251460 B2 JP5251460 B2 JP 5251460B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- image
- approaching object
- optical flow
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、接近物体の検出を行う接近物体検出装置、接近物体検出プログラム、接近物体検出方法に関するものである。 The present invention relates to an approaching object detection device that detects an approaching object, an approaching object detection program, and an approaching object detection method.
見通しが悪い交差点等における車両のユーザの判断の支援を目的とし、車両先端等に設置したカメラから取得される車両左右方向の映像を、車載ディスプレイに表示させる車載型死角カメラ映像表示装置(ブラインドコーナーモニター)がある。 An in-vehicle blind spot camera image display device (blind corner) that displays on the in-vehicle display a vehicle left-right image acquired from a camera installed at the front end of the vehicle, etc., for the purpose of assisting the vehicle user in an intersection with poor visibility. Monitor).
しかしながら、従来の車載型死角カメラ映像表示装置は、遠方から接近する物体については、次のような性質があった。 However, the conventional in-vehicle blind spot camera image display device has the following properties with respect to an object approaching from a distance.
(1)接近物体の画像領域サイズが小さいために、ユーザは、背景に溶け込み易く、接近する車両やオートバイ等の形状に気づきにくい。
(2)接近物体であることから、画像領域の移動量が小さいために、ユーザは、変化に気づきにくい。
(1) Since the image area size of the approaching object is small, the user can easily blend into the background and hardly notice the shape of the approaching vehicle, motorcycle, or the like.
(2) Since it is an approaching object, the amount of movement of the image area is small, so the user is less likely to notice the change.
これに対し、カメラによる映像データから画像処理によって接近物体を検知し、接近物体の画像領域を強調表示させる類の装置があった。例えば、オプティカルフロー方式を利用し、接近物体とカメラの視野の関係を利用し、画面上の中央向きに発生するフロー領域を抽出し、接近物体の領域として特定することで、接近物体検知を実現する装置がある。 On the other hand, there has been a type of device that detects an approaching object by image processing from video data from a camera and highlights an image area of the approaching object. For example, using the optical flow method, using the relationship between the approaching object and the field of view of the camera, extracting the flow area that occurs in the center direction on the screen and identifying it as the approaching object area, realizing approaching object detection There is a device to do.
また、旋回中でも検知が可能なように、ジャイロセンサや車両センサを使用して旋回による水平フロー成分を算出し、この成分をオプティカルフローから減算してフロー補正処理を行い、補正後のフローが画面上の中央向きであるか否かの判定を行い、接近物体検知を実現する装置がある。 In addition, the gyro sensor or vehicle sensor is used to calculate the horizontal flow component due to turning so that it can be detected even during turning, and this component is subtracted from the optical flow to perform flow correction processing. There is a device that realizes approaching object detection by determining whether or not it is in the upper center direction.
なお、従来技術として、車両の旋回時における車両のノーズ部分の側方の接近物体を精度良く検出できるノーズビューモニタ装置がある(例えば、特許文献1参照)。
しかしながら、自車両の停止位置によっては、カメラと接近物体の位置の関係から必ずしも、接近物体に画面中央向きのフローが発生するわけではなかった。例えば、カメラに対して接近物体の端点が方位一定に見えるような位置や角度で、自車両が交差点に進入してしまった場合や、歩行者や自転車やオートバイが壁沿いに接近する場合、画面中央向きのフローは発生しないため、検知漏れとなる場合があった。 However, depending on the stop position of the host vehicle, the flow toward the center of the screen does not necessarily occur in the approaching object due to the relationship between the position of the camera and the approaching object. For example, if the vehicle has entered the intersection at a position or angle where the end point of the approaching object looks constant with respect to the camera, or if a pedestrian, bicycle, or motorcycle approaches the wall, Since there was no flow toward the center, there were cases where detection was missed.
また、旋回中において、旋回速度が接近車両の速度に対して早い場合、ジャイロセンサや車両センサから得られる仮想的な旋回による水平フロー成分を減算すると、残差の補正フローが画面外向きになって、検知漏れとなる場合があった。 In addition, if the turning speed is faster than the speed of the approaching vehicle during turning, subtracting the horizontal flow component due to virtual turning obtained from the gyro sensor or vehicle sensor will cause the residual correction flow to face outward. In some cases, it was a detection failure.
本発明は上述した問題点を解決するためになされたものであり、接近物体の検出の精度を向上させる接近物体検出装置、接近物体検出プログラム、接近物体検出方法を提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to provide an approaching object detection device, an approaching object detection program, and an approaching object detection method that improve the accuracy of approaching object detection.
上述した課題を解決するため、本発明の一態様は、接近物体の検出を行う接近物体検出装置であって、撮影された第1画像と第1画像より前に撮影された第2画像とを取得する画像取得部と、画像取得部により取得された第1画像及び第2画像に基づいて、第2画像内の第2点に対応する第1画像内の第1点を検索する検索部と、検索部により検索された第2点から第1点へのオプティカルフローを算出するオプティカルフロー算出部と、オプティカルフロー算出部により算出された第2点から第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する判定部とを有する。 In order to solve the above-described problem, one aspect of the present invention is an approaching object detection device that detects an approaching object, and includes a captured first image and a second image captured before the first image. An image acquisition unit to acquire, and a search unit to search for a first point in the first image corresponding to a second point in the second image based on the first image and the second image acquired by the image acquisition unit; An optical flow calculation unit for calculating the optical flow from the second point to the first point searched by the search unit, and a vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit. And a determination unit that determines whether or not the first point indicates an approaching object.
また、本発明の一態様は、接近物体の検出をコンピュータに実行させる接近物体検出プログラムであって、撮影された第1画像と第1画像より前に撮影された第2画像とを取得し、取得された第1画像及び第2画像に基づいて、第2画像内の第2点に対応する第1画像内の第1点を検索し、検索された第2点から第1点へのオプティカルフローを算出し、算出された第2点から第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定することをコンピュータに実行させる。 One embodiment of the present invention is an approaching object detection program that causes a computer to detect an approaching object, and obtains a captured first image and a second image captured before the first image, Based on the acquired first image and second image, the first point in the first image corresponding to the second point in the second image is searched, and the optical from the searched second point to the first point is searched. Based on the calculated vertical component of the optical flow from the second point to the first point, the computer is caused to determine whether or not the first point indicates an approaching object.
また、本発明の一態様は、接近物体の検出を行う接近物体検出方法であって、撮影された第1画像と第1画像より前に撮影された第2画像とを取得し、取得された第1画像及び第2画像に基づいて、第2画像内の第2点に対応する第1画像内の第1点を検索し、検索された第2点から第1点へのオプティカルフローを算出し、算出された第2点から第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定することを行う。 One embodiment of the present invention is an approaching object detection method for detecting an approaching object, which is obtained by acquiring a captured first image and a second image captured before the first image. Based on the first image and the second image, the first point in the first image corresponding to the second point in the second image is searched, and the optical flow from the searched second point to the first point is calculated. Then, based on the calculated vertical component of the optical flow from the second point to the first point, it is determined whether or not the first point indicates an approaching object.
また、本発明の構成要素、または構成要素の任意の組合せを、方法、装置、システム、記録媒体、データ構造などに適用したものも本発明に含む。 Moreover, what applied the component of this invention, or arbitrary combinations of a component to a method, an apparatus, a system, a recording medium, a data structure, etc. is also contained in this invention.
開示の接近物体検出装置、接近物体検出プログラム、接近物体検出方法によれば、接近物体の検出の精度を向上させることができる。 According to the approaching object detection device, approaching object detection program, and approaching object detection method of the disclosure, it is possible to improve the accuracy of the approaching object detection.
以下、本発明の実施の形態について図面を参照しつつ説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施の形態1)
本実施の形態においては、本発明の接近物体検出装置が適用された接近物体表示装置について説明する。本実施の形態の接近物体表示装置は、車両に搭載される。以下、接近物体表示装置が搭載された車両を自車両と呼ぶ。
(Embodiment 1)
In the present embodiment, an approaching object display device to which the approaching object detection device of the present invention is applied will be described. The approaching object display device of the present embodiment is mounted on a vehicle. Hereinafter, a vehicle equipped with the approaching object display device is referred to as a host vehicle.
本実施の形態の接近物体表示装置は、連続して撮影された映像データからオプティカルフローの垂直(鉛直)成分を算出し、算出された垂直成分に基づいて接近物体の検出を行う。 The approaching object display device according to the present embodiment calculates a vertical (vertical) component of the optical flow from continuously captured image data, and detects an approaching object based on the calculated vertical component.
実施の形態1の接近物体表示装置の構成について以下に説明する。 The configuration of the approaching object display device according to the first embodiment will be described below.
図1は、実施の形態1の接近物体表示装置の構成の一例を示すブロック図である。この接近物体表示装置は、カメラ11、画像処理部12a、表示部14、CPU、記憶部16、角速度センサ17(第1運動測定部、第2運動測定部)、車速センサ18を有する。
FIG. 1 is a block diagram illustrating an example of the configuration of the approaching object display device according to the first embodiment. The approaching object display device includes a
画像処理部12aは、例えばCPU(Central Processing Unit)により実現される。このCPUは、記憶部16に格納された接近物体検出プログラムを実行することにより、接近物体検出機能を実現する。
The
なお、角速度センサ17の代わりに、接近物体表示装置の外部に設けられた角速度センサが用いられても良い。また、車速センサ18の代わりに、接近物体表示装置の外部に設けられた車速センサが用いられても良い。ここでは、角速度を取得するために角速度センサを用いたが、角速度センサ以外に加速度センサ等、カメラ11の鉛直方向の運動に関する測定を行うセンサを用いても良い。
Instead of the
画像処理部12aの構成について以下に説明する。
The configuration of the
図2は、画像処理部12aの構成の一例を示すブロック図である。この画像処理部12aは、特徴点抽出部21、オプティカルフロー算出部22、特徴点情報記録部23、縦揺れフロー算出部31(運動成分算出部)、縦揺れ補正部32(オプティカルフロー補正部)、接近物体判定部33a(判定部、領域決定部)、映像取得部34(画像取得部)、車両状態取得部35(測定値取得部)、映像合成部36(画像生成部)を有する。
FIG. 2 is a block diagram illustrating an example of the configuration of the
車両状態取得部35は、角速度センサ17により測定された角速度や車速センサ18により測定された車速を取得する。
The vehicle
本実施の形態の接近物体表示装置の動作について以下に説明する。 The operation of the approaching object display device of the present embodiment will be described below.
カメラ11は、自車両の左右方向を撮影するように調整されたプリズムレンズを有し、所定のフレーム時間間隔で撮影する。カメラ11が自車両の左右方向に向けて設けられることにより、見通しの悪い交差点でユーザの死角となる左右道路の交通状況を撮影することができる。フレーム時間間隔は、例えば1/30秒である。なお、カメラ11は、自車両の左右方向を撮影できる魚眼レンズを有しても良い。
The
図3は、実施の形態1の接近物体表示装置の動作の一例を示すフローチャートである。映像取得部34は、カメラ11により撮影された映像データをレーム時間間隔毎に取得する(S11)。なお、カメラ11は、複数であっても良い。この場合、映像取得部34は、カメラ11のそれぞれにより撮影された映像を合成して映像データとする。例えば、自車両の左方を向いて設置されたカメラ11からの映像を映像データの左半分に配置し、自車両の右方を向いて設置されたカメラ11からの映像を映像データの右半分に配置する。
FIG. 3 is a flowchart illustrating an example of the operation of the approaching object display device according to the first embodiment. The
次に、特徴点抽出部21は、映像データ内の特徴点(注目点)を抽出する(S12)。特徴点の抽出には、例えば、車両外形の凸凹領域に良く反応するコーナー抽出処理を用いる。コーナー抽出処理には、Harrisオペレータや、KLT(Kanade-Lucas Track)オペレータを用いる。
Next, the feature
特徴点抽出部21は、抽出された特徴点に関する情報を特徴点情報として特徴点情報記録部23へ記録する(S13)。ここで、特徴点情報記録部23は、記憶部16により実現される。図4は、実施の形態1の特徴点情報の構成の一例を示す表である。この図は、時刻tにおける特徴点情報と、時刻t+1における特徴点情報とを示す。特徴点情報は、特徴点IDと、特徴点の最新の座標値の周辺の画像データである周辺画像データ(例えば9×9画素)と、フレーム毎の特徴点の対応点の(x,y)座標及びフレーム時刻のリストである対応点リストとを含む。
The feature
次に、オプティカルフロー算出部22は、特徴点情報記録部23に登録されている、最新の特徴点の座標値と周辺画像データに基づいて、現在の映像データI(t+1)において特徴点に対応する点である対応点を所定範囲内で検索する(S14)。次に、オプティカルフロー算出部22は、例えばブロックマッチング法によりオプティカルフローを算出する(S15)。オプティカルフロー算出部22は、I(t+1)において探索された対応点の座標値とフレーム時刻t+1とを特徴点情報におけるリストへ追加し、特徴点情報における周辺画像データをI(t+1)における周辺画像データに更新する(S16)。
Next, the optical
ここで、時刻tにおける映像データI(t)は、第2画像に対応する。また、時刻t+1における映像データI(t+1)は、第1画像に対応する。 Here, the video data I (t) at time t corresponds to the second image. The video data I (t + 1) at time t + 1 corresponds to the first image.
次に、接近物体判定部33aは、特徴点情報記録部23に登録されている最新の特徴点について、所定の垂直成分条件を満たす特徴点を選択して選択特徴点とし(S17)、このフローは終了する。ここで、垂直成分条件は、オプティカルフローの垂直成分の大きさが所定の垂直成分閾値を上回ることである。オプティカルフローは、登録されているリスト内の2つの座標値の減算によって算出される。第1の垂直成分条件は、オプティカルフローの垂直成分と垂直成分閾値Th1とを用いた次式で表される。
Next, the approaching
|yi,t+1−yi,t| > Th1 | Y i, t + 1 −y i, t |> Th1
また、オプティカルフロー算出部22は、垂直成分条件を、時間間隔nだけ過去の対応点から最新の対応点までのオプティカルフローである長時間オプティカルフローを算出する。接近物体判定部33aは、単位時間間隔(フレーム時間間隔)のオプティカルフローの垂直成分(動き量)が小さいと判定した場合、第2の垂直成分条件を用いて選択特徴点を選択する。第2の垂直成分条件は、長時間オプティカルフローの垂直成分の大きさが所定の垂直成分閾値Th2を上回ることである。第2の垂直成分条件は、長時間オプティカルフローの垂直成分と垂直成分閾値Th2とを用いた次式で表される。
In addition, the optical
|yi,t+1−yi,t-n+1| > Th2 | Y i, t + 1 −y i, t−n + 1 |> Th2
ここで、時刻t−n+1における映像データI(t−n+1)は、第3画像に対応する。
Here, the video data I (t−n + 1) at time t−
Th1及びTh2は、例えば1ピクセルである。 Th1 and Th2 are, for example, one pixel.
このように、接近物体が自車両へ接近する速度成分が小さい場合、長時間オプティカルフローを算出することにより、選択特徴点の検出精度を高めることができる。 Thus, when the speed component at which the approaching object approaches the host vehicle is small, the detection accuracy of the selected feature point can be increased by calculating the optical flow for a long time.
また、本実施の形態の画像処理部12aは、自車両のブレーキや路面の凹凸で縦揺れする(鉛直方向に運動する)場合に発生する背景フロー(背景のオプティカルフロー)の垂直成分である縦揺れフローを、オプティカルフローから除去する。
The
車両状態取得部35は、角速度センサ17により測定された角速度を取得する。縦揺れフロー算出部31は、車両状態取得部35により得られた角速度に基づいて縦揺れフローを算出する。縦揺れ補正部32は、オプティカルフローの垂直成分から縦揺れフローを減算して垂直残差フローとする。接近物体判定部33aは、オプティカルフローの垂直成分の代わりに垂直残差フローに対して垂直成分条件の判定を行う。つまり、第1の垂直成分条件は、垂直残差フローの大きさがTh1を上回ることである。
The vehicle
同様に、縦揺れ補正部32は、長時間オプティカルフローの垂直成分から縦揺れフローを減算して長時間垂直残差フローとする。第2の垂直成分条件は、長時間垂直残差フローの大きさがTh2を上回ることである。
Similarly, the
ここで、車両状態取得部35が角速度センサ17から3軸の角速度を取得する場合の、縦揺れフロー算出部31及び縦揺れ補正部32の動作の詳細について説明する。
Here, details of operations of the pitching
ある特徴点について、垂直成分を評価する時間間隔(フレーム時間間隔)がΔtである場合、縦揺れフロー算出部31は、時刻t−Δtから時刻tまで、角速度センサから得られたある座標軸についての角速度wを積分することにより、変位角Wを算出する。Wは、次式で表される。
When the time interval (frame time interval) for evaluating the vertical component is Δt for a certain feature point, the pitching
W=Σt-Δt tw W = Σ t- Δ t t w
次に、カメラ11の焦点距離がfであり、縦揺れフロー算出部31により3軸についての角速度wx(ピッチ)(第1測定値),wy(ロール),wz(ヨー)(第2測定値)が得られ、それにより変位角Wx(ピッチ),Wy(ロール),Wz(ヨー)が得られる場合、点(x,y)における縦揺れフローvyは次式で算出できる。
Next, the focal length of the
vy=
(y*y/f+f)*Wx−x*y*Wy/f−x*Wz;
vy =
(Y * y / f + f) * Wx-x * y * Wy / fx-Wz;
カメラ11と角速度センサ17が離れている場合でも、縦揺れフロー算出部31は、3軸の角速度を用いることにより縦揺れフローを精度良く算出することができる。
Even when the
また、車両状態取得部35が角速度センサ17から縦方向(ピッチ)の角速度のみを取得する場合、上述のvyの算出式において、Wy=Wz=0として良い。
When the vehicle
カメラ11と角速度センサ17が近く同様の運動を行う場合、縦揺れフロー算出部31は、縦方向の角速度のみを用いて縦揺れフローを算出することができる。
When the
縦揺れ補正部32は、オプティカルフローの垂直成分から縦揺れフローを減算し、垂直残差フローVを算出する。Vは、次式で表される。
The
V = yi,t+1−yi,t-n+1−vy V = y i, t + 1 −y i, t−n + 1 −vy
接近物体判定部33aは、次式に示される垂直成分条件を満たすか否かの判定を行う。
The approaching
|V|>Th1 | V |> Th1
次に、接近物体判定部33aは、選択された選択特徴点の座標に対して2次元画像上でのクラスタリング処理を行い、接近物体の領域を特定して接近物体領域とする。クラスタリング処理は、例えば、所定の画像距離以下にある特徴点同士を1つのクラスタとみなす処理である。
Next, the approaching
映像合成部36は、カメラ11からの映像データに、接近物体判定部33aにより出力された接近物体領域を合成して合成映像データ(合成画像)とする。表示部14は、映像合成部36により合成された合成映像データを表示する。
(実施の形態2)
The
(Embodiment 2)
本実施の形態の接近物体表示装置は、連続して撮影された画像からオプティカルフローの垂直成分及び水平成分を算出し、算出された垂直成分及び水平成分に基づいて接近物体の検出を行う。 The approaching object display device according to the present embodiment calculates the vertical and horizontal components of the optical flow from continuously captured images, and detects the approaching object based on the calculated vertical and horizontal components.
実施の形態2の接近物体表示装置の構成は、実施の形態1の接近物体表示装置の構成と比較すると、画像処理部12aの代わりに画像処理部12bを有する。
The configuration of the approaching object display device according to the second embodiment includes an
画像処理部12bの構成について以下に説明する。
The configuration of the
図5は、画像処理部12bの構成の一例を示すブロック図である。この図において、図2と同一符号は図2に示された対象と同一又は相当物を示しており、ここでの説明を省略する。画像処理部12bは、画像処理部12aと比較すると、接近物体判定部33aの代わりに接近物体判定部33bを有し、新たに、旋回フロー算出部41(運動成分算出部)、旋回補正部42(オプティカルフロー補正部)を有する。
FIG. 5 is a block diagram illustrating an example of the configuration of the
例えば、角速度センサ17は、縦方向の角速度の他に、カメラ11が設置された自車両の旋回(水平方向、ヨー)の角速度wz(第2測定値)を測定する。旋回フロー算出部41は、車両状態取得部35により取得された角速度に基づいて、画面上の旋回による背景フローの水平成分である旋回フローを算出する。旋回補正部42は、算出された旋回フローを、オプティカルフローの水平成分から減算して水平残差フローとする。
For example, the
接近物体判定部33bは、所定の垂直成分条件または所定の水平成分条件を満たす特徴点を選択して選択特徴点とする。ここで、垂直成分条件は、垂直残差フローの大きさが所定の垂直成分閾値を上回ることとする。また、水平成分条件は、旋回補正部42により算出された水平残差フローが中央向きを正の向きとして所定の水平成分閾値を上回ることである。
The approaching
なお、垂直成分条件は、垂直残差フローの大きさが所定の垂直成分閾値を上回り、且つ垂直残差フローが中央向きであること、としても良い。 Note that the vertical component condition may be that the size of the vertical residual flow exceeds a predetermined vertical component threshold and that the vertical residual flow is directed toward the center.
なお、接近物体判定部33bは、更に車速センサ18により測定された車速を用いて選択特徴点を選択しても良い。この場合、まず、接近物体判定部33bは、車速センサ18により測定された車速を取得する。次に、接近物体判定部33bは、車速が所定の車速閾値を下回るか否かの判定を行う。車速が所定の車速閾値を下回る場合、水平成分条件を満たす特徴点を選択して選択特徴点とする。車速が車速閾値以上である場合、垂直成分条件を満たす特徴点を選択して選択特徴点とする。
The approaching
上述した各実施の形態における映像データ及びオプティカルフローの具体例について以下に説明する。 Specific examples of the video data and the optical flow in each of the above-described embodiments will be described below.
ここで、カメラ11に設けられたプリズムレンズにより、映像データの左半分の領域である左領域は、自車両の左方が撮影された映像となり、映像データの右半分の領域である右領域は、自車両の右方が撮影された映像となる。以下、映像データにおいて左領域と右領域とを分ける線を中央線と呼ぶ。
Here, with the prism lens provided in the
オプティカルフローの水平成分が中央線方向であるか否かの判定により接近物体を検出する比較例について以下に説明する。 A comparative example in which an approaching object is detected by determining whether or not the horizontal component of the optical flow is in the center line direction will be described below.
図6は、第1状態における自車両と接近物体の位置関係の一例を示す平面図である。この図は、自車両62、構造物63、カメラ視野64a,64b、接近物体位置65a,65b、特徴点66a,66bを示す。カメラ視野64aは、映像データの左半分に対応し、カメラ視野64bは、映像データの右半分に対応する。また、この図において、X軸及びZ軸は、自車両を基準とした座標系である。原点Oは、カメラ11の撮像位置を示し、X軸は、自車両の後方を示し、Z軸は、自車両の右方を示す。特徴点66bは、特徴点66aの対応点である。
FIG. 6 is a plan view showing an example of the positional relationship between the host vehicle and the approaching object in the first state. This figure shows a
第1状態は、自車両62が交差点に進入する前に一時停止し、且つカメラ視野64aにおける接近物体が接近物体位置65aから65bへ移動して自車両62へ接近している状態である。また、接近物体位置65aは、時刻t1で撮影された接近物体の位置を示し、接近物体位置65aは、時刻t1+1(時刻t1の次のフレームの時刻)で撮影された接近物体の位置を示す。
The first state is a state in which the
図7は、第1状態におけるオプティカルフローの一例を示す概念図である。この図は、特徴点66bのオプティカルフローの水平成分71bと、旋回フロー72bと、オプティカルフローの水平成分71bから旋回フロー72bを減算した結果である水平残差フロー73bとを示す。第1状態において、水平残差フロー73bは、中央線の方向を指す。従って、特徴点66bは、オプティカルフローの水平成分により接近物体として検出されることができる。
FIG. 7 is a conceptual diagram illustrating an example of an optical flow in the first state. This figure shows an optical flow
図8は、第2状態における映像データとオプティカルフローの一例を示す概念図である。第2状態は、自車両62が交差点に進入する前に一時停止し、且つカメラ視野64aにおける接近物体61aとカメラ視野64bにおける接近物体61bとが自車両62へ接近している状態である。この図において、黒の矢印は、オプティカルフローを表す。第2状態において、接近物体61a,61bの各特徴点のオプティカルフローの水平成分は、中央線の方向を指す。従って、接近物体61a,61bは、オプティカルフローの水平成分が中央線方向であるか否かの判定により、接近物体として検出されることができる。
FIG. 8 is a conceptual diagram showing an example of video data and an optical flow in the second state. The second state is a state in which the
図9は、第3状態における自車両と接近物体の位置関係の一例を示す平面図である。この図は、上述の第1状態と同様であるが、接近物体位置65a,65bの代わりに接近物体位置65c,65dを示し、特徴点66a,66bの代わりに特徴点66c,66dを示す。
FIG. 9 is a plan view showing an example of the positional relationship between the host vehicle and the approaching object in the third state. This figure is similar to the first state described above, but shows approaching
第3状態は、自車両62が交差点に進入する前に一時停止し、且つカメラ視野64aにおける接近物体が接近物体位置65cから65dへ移動して自車両62へ接近している状態である。また、接近物体位置65cは、時刻t2で撮影された接近物体の位置を示し、接近物体位置65dは、時刻t2+1(時刻t1の次のフレームの時刻)で撮影された接近物体の位置を示す。第3状態において、特徴点66cから特徴点66dへのオプティカルフローの水平成分は、中央線と逆の方向を指す。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、特徴点66dは、接近物体として検出されない。
The third state is a state in which the
図10は、第3状態におけるオプティカルフローの一例を示す概念図である。この図は、特徴点66dのオプティカルフローの水平成分71dと、旋回フロー72dと、オプティカルフローの水平成分71dから旋回フロー72dを減算した結果である水平残差フロー73dとを示す。第3状態において、水平残差フロー73dは、中央線と逆の方向を指す。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、特徴点66dは、接近物体として検出されない。
FIG. 10 is a conceptual diagram illustrating an example of an optical flow in the third state. This figure shows the
図11は、第4状態における自車両と接近物体の位置関係の一例を示す平面図である。この図は、上述の第1状態と同様であるが、接近物体位置65a,65bの代わりに接近物体位置65e,65fを示し、特徴点66a,66bの代わりに特徴点66e,66fを示す。
FIG. 11 is a plan view showing an example of the positional relationship between the host vehicle and the approaching object in the fourth state. This figure is similar to the first state described above, but shows approaching
第4状態は、自車両62が交差点へ進入して右旋回し、且つカメラ視野64aにおける接近物体が接近物体位置65eから65fへ移動して自車両62へ接近している状態である。また、接近物体位置65eは、時刻t3で撮影された接近物体の位置を示し、接近物体位置65fは、時刻t3+1(時刻t3の次のフレームの時刻)で撮影された接近物体の位置を示す。第4状態において、特徴点66eから特徴点66fへのオプティカルフローの水平成分は、ほとんど無い。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、特徴点66fは、接近物体として検出されない。
The fourth state is a state in which the
図12は、第5状態における映像データとオプティカルフローの一例を示す概念図である。第5状態は、自車両62が交差点へ進入して右旋回し、且つカメラ視野64aにおける接近物体61aとカメラ視野64bにおける接近物体61bとが自車両62へ接近している状態である。この図において、黒の矢印は、オプティカルフローを表す。第5状態においては、接近物体61a,61bの各特徴点のオプティカルフローの水平成分は、自車両の右旋回により、左方向を指す。
FIG. 12 is a conceptual diagram illustrating an example of video data and an optical flow in the fifth state. The fifth state is a state in which the
図13は、第5状態における映像データと旋回フローの一例を示す概念図である。この図において、黒の矢印は、旋回フローを表す。第5状態において、接近物体61a,61bの各特徴点の旋回フローは、自車両の右旋回により、左方向を指す。
FIG. 13 is a conceptual diagram illustrating an example of video data and a turning flow in the fifth state. In this figure, a black arrow represents a turning flow. In the fifth state, the turning flow of each feature point of the approaching
図14は、第5状態における映像データと水平残差フローの一例を示す概念図である。この図において、黒の矢印は、水平残差フローを表す。第5状態において、接近物体61a,61bの各特徴点の水平残差フローは、オプティカルフローの水平成分と旋回フローにより、左方向を指す。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、接近物体61bは、接近物体として検出されるが、接近物体61aは、接近物体として検出されない。
FIG. 14 is a conceptual diagram illustrating an example of video data and a horizontal residual flow in the fifth state. In this figure, the black arrow represents the horizontal residual flow. In the fifth state, the horizontal residual flow of each feature point of the approaching
実施の形態1及び実施の形態2に示されたようなオプティカルフローの垂直成分に基づいて接近物体を検出する場合の具体例について以下に説明する。 A specific example in the case of detecting an approaching object based on the vertical component of the optical flow as shown in the first and second embodiments will be described below.
図15は、第6状態における映像データとオプティカルフローの一例を示す概念図である。第6状態は、自車両62が交差点へ進入して右旋回し、且つカメラ視野64aにおける接近物体61aとカメラ視野64bにおける接近物体61bとが自車両62へ接近し、且つカメラ11が上へ揺れた状態である。この図において、黒の矢印は、オプティカルフローを表す。第6状態においては、接近物体61a,61bの各特徴点のオプティカルフローの水平成分は、自車両の右旋回により、左方向を指す。
FIG. 15 is a conceptual diagram showing an example of video data and an optical flow in the sixth state. In the sixth state, the
図16は、第6状態における映像データとオプティカルフローの垂直成分の一例を示す概念図である。この図において、黒の矢印は、オプティカルフローの垂直成分を表す。第6状態において、接近物体61a,61b以外(背景)のオプティカルフローの垂直成分は、カメラ11が上へ揺れたことにより、下方向を指す。
FIG. 16 is a conceptual diagram illustrating an example of vertical components of video data and an optical flow in the sixth state. In this figure, the black arrow represents the vertical component of the optical flow. In the sixth state, the vertical component of the optical flow other than the approaching
図17は、第6状態における映像データと縦揺れフローの一例を示す概念図である。この図において、黒の矢印は、縦揺れフローを表す。第6状態において、各縦揺れフローは、カメラ11が上へ揺れたことにより、下方向を指す。
FIG. 17 is a conceptual diagram illustrating an example of video data and pitching flow in the sixth state. In this figure, the black arrow represents the pitching flow. In the sixth state, each pitch flow indicates a downward direction due to the
図18は、第6状態における映像データと垂直残差フローの一例を示す概念図である。この図において、黒の矢印は、垂直残差フローを表す。第6状態において、接近物体61a,61b以外(背景)の垂直残差フローは、縦揺れ補正部32の処理により、ほとんど無くなる。また、接近物体61a,61bの各特徴点の垂直残差フローだけが、大きく現れる。従って、実施の形態1及び実施の形態2に示されたようなオプティカルフローの垂直成分の大きさの判定により、接近物体61a,61bは、接近物体として検出される。
FIG. 18 is a conceptual diagram illustrating an example of video data and a vertical residual flow in the sixth state. In this figure, the black arrow represents the vertical residual flow. In the sixth state, the vertical residual flow other than the approaching
上述した各実施の形態によれば、画面中央向きの水平成分だけに着目した場合にカメラと接近物体の関係によって原理的に検出困難な接近物体についても、オプティカルフローの垂直成分に着目して接近物体を抽出することにより、検知可能となる。 According to each of the above-described embodiments, when focusing only on the horizontal component facing the center of the screen, even for an approaching object that is difficult to detect in principle due to the relationship between the camera and the approaching object, the approach is focused on the vertical component of the optical flow. Detection is possible by extracting an object.
また、上述した各実施の形態によれば、自車両またはカメラに縦揺れが発生した場合でも、接近物体を検知することが可能である。 Further, according to each of the above-described embodiments, it is possible to detect an approaching object even when a pitching occurs in the host vehicle or the camera.
また、上述した実施の形態2によれば、自車両の旋回速度が速い場合でも、接近物体の検知が可能となる。 Further, according to the second embodiment described above, it is possible to detect an approaching object even when the turning speed of the host vehicle is high.
また、上述した実施の形態2によれば、画像中における接近物体の水平移動量が垂直移動量に比べて大きい場合、水平成分条件を用いて選択特徴点を抽出したほうが早期に検知することが可能になる。実施の形態2によれば、オプティカルフローの垂直成分と水平成分の両方を用いて統合的に判断することで、選択特徴点の検出性能を向上させることが可能になる。 Further, according to the second embodiment described above, when the horizontal movement amount of the approaching object in the image is larger than the vertical movement amount, it is detected earlier if the selected feature point is extracted using the horizontal component condition. It becomes possible. According to the second embodiment, it is possible to improve the detection performance of the selected feature point by making an integrated determination using both the vertical component and the horizontal component of the optical flow.
また、上述した各実施の形態によれば、特徴点を抽出して追跡し、特徴点から選択特徴点を選択することにより、画像上のすべての点について演算処理する必要がなく、演算すべき画素を効果的に選択できるので、低コストで実現可能である。 In addition, according to each of the above-described embodiments, by extracting and tracking feature points and selecting selected feature points from the feature points, it is not necessary to perform calculation processing on all points on the image, and calculation should be performed. Since the pixels can be effectively selected, it can be realized at low cost.
また、本発明に係る接近物体検出装置は、移動体のカメラや交差点における固定カメラ等に容易に適用することができ、カメラの性能をより高めることができる。 Moreover, the approaching object detection device according to the present invention can be easily applied to a camera of a moving body, a fixed camera at an intersection, and the like, and can further improve the performance of the camera.
なお、本発明は以下に示すようなコンピュータシステムにおいて適用可能である。図19は、本発明が適用されるコンピュータシステムの一例を示す図である。この図に示すコンピュータシステム900は、CPUやディスクドライブ等を内蔵した本体部901、本体部901からの指示により画像を表示するディスプレイ902、コンピュータシステム900に種々の情報を入力するためのキーボード903、ディスプレイ902の表示画面902a上の任意の位置を指定するマウス904及び外部のデータベース等にアクセスして他のコンピュータシステムに記憶されているプログラム等をダウンロードする通信装置905を有する。通信装置905は、ネットワーク通信カード、モデムなどが考えられる。
The present invention can be applied to the following computer system. FIG. 19 is a diagram illustrating an example of a computer system to which the present invention is applied. A
上述したような、接近物体検出装置を構成するコンピュータシステムにおいて上述した各ステップを実行させるプログラムを、接近物体検出プログラムとして提供することができる。このプログラムは、コンピュータシステムにより読み取り可能な記録媒体に記憶させることによって、接近物体検出装置を構成するコンピュータシステムに実行させることが可能となる。上述した各ステップを実行するプログラムは、ディスク910等の可搬型記録媒体に格納されるか、通信装置905により他のコンピュータシステムの記録媒体906からダウンロードされる。また、コンピュータシステム900に少なくとも接近物体検出機能を持たせる接近物体検出プログラムは、コンピュータシステム900に入力されてコンパイルされる。このプログラムは、コンピュータシステム900を、接近物体検出機能を有する接近物体検出システムとして動作させる。また、このプログラムは、例えばディスク910等のコンピュータ読み取り可能な記録媒体に格納されていても良い。ここで、コンピュータシステム900により読み取り可能な記録媒体としては、ROMやRAM等のコンピュータに内部実装される内部記憶装置、ディスク910やフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータシステム並びにそのデータベースや、通信装置905のような通信手段を介して接続されるコンピュータシステムでアクセス可能な各種記録媒体を含む。
A program for executing the above-described steps in the computer system constituting the approaching object detection device as described above can be provided as an approaching object detection program. By storing this program in a recording medium readable by the computer system, the program can be executed by the computer system constituting the approaching object detection device. A program for executing the above steps is stored in a portable recording medium such as a
本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施の形態は、あらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、何ら拘束されない。更に、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、全て本発明の範囲内のものである。 The present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The scope of the present invention is shown by the scope of claims, and is not restricted by the text of the specification. Moreover, all modifications, various improvements, substitutions and modifications belonging to the equivalent scope of the claims are all within the scope of the present invention.
以上の実施の形態1〜2に関し、更に以下の付記を開示する。
(付記1)
接近物体の検出を行う接近物体検出装置であって、
撮影された第1画像と前記第1画像より前に撮影された第2画像とを取得する画像取得部と、
前記画像取得部により取得された前記第1画像及び前記第2画像に基づいて、前記第2画像内の第2点に対応する前記第1画像内の第1点を検索する検索部と、
前記検索部により検索された前記第2点から前記第1点へのオプティカルフローを算出するオプティカルフロー算出部と、
前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する判定部と、
を備える接近物体検出装置。
(付記2)
前記判定部は、前記オプティカルフロー算出部により算出された前記第1点へのオプティカルフローの鉛直成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定する、
付記1に記載の接近物体検出装置。
(付記3)
前記画像取得部は更に、前記第2画像より前に撮影された第3画像を取得し、
前記検索部は更に、前記画像取得部により取得された前記第3画像及び前記第1画像及び前記第2画像に基づいて、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索し、
前記オプティカルフロー算出部は、前記検索部により検索された前記第3点から前記第1点へのオプティカルフローを算出し、
前記判定部は、前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
付記2に記載の接近物体検出装置。
(付記4)
前記接近物体検出装置の鉛直方向の運動に関する第1測定値を取得する測定値取得部と、
前記測定値取得部により取得された前記第1測定値に基づいて、鉛直方向の運動に起因する前記オプティカルフローの成分である第1成分を算出する運動成分算出部と、
前記運動成分算出部により算出された第1成分を、前記オプティカルフローの鉛直成分から減算することにより前記オプティカルフローの鉛直成分を補正するオプティカルフロー補正部と、
を更に備え、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
付記1に記載の接近物体検出装置。
(付記5)
前記測定値取得部は更に、前記接近物体検出装置の水平方向の運動に関する第2測定値を取得し、
前記運動成分算出部は更に、前記測定値取得部により取得された前記第2測定値に基づいて、水平方向の運動に起因する前記オプティカルフローの成分である第2成分を算出し、
前記オプティカルフロー補正部は更に、前記運動成分算出部により算出された第2成分を、前記オプティカルフローの水平成分から減算することにより前記オプティカルフローの水平成分を補正し、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分及び水平成分に基づいて、該第1点が接近物体を示すか否かを判定する、
付記4に記載の接近物体検出装置。
(付記6)
前記判定部は、前記オプティカルフロー算出部により算出された前記第1点へのオプティカルフローの鉛直成分の大きさと水平成分の方向及び大きさとに基づいて、該第1点が接近物体を示すか否かを判定する、
付記1に記載の接近物体検出装置。
(付記7)
前記測定値取得部は更に、前記接近物体検出装置の移動速度を取得し、
前記判定部は、前記測定値取得部により取得された前記移動速度に基づいて前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分に基づいて該第1点が接近物体を示すか否かを判定する、
付記6に記載の接近物体検出装置。
(付記8)
前記判定部は、前記移動速度が所定の速度閾値より大きい場合、前記第1点へのオプティカルフローの鉛直成分を前記選択成分として選択する、
付記7に記載の接近物体検出装置。
(付記9)
前記第1画像から特徴点を抽出して前記第1点とし、前記第2画像から特徴点を抽出して前記第2点とする特徴点抽出部を、
更に備える、
付記1に記載の接近物体検出装置。
(付記10)
前記特徴点抽出部は、コーナー抽出処理により特徴点を抽出する、
付記9に記載の接近物体検出装置。
(付記11)
前記判定部により接近物体を示すと判定された複数の第1点に基づいて、該接近物体を示す領域を決定する領域決定部を、
更に備える、
付記1に記載の接近物体検出装置。
(付記12)
前記領域決定部は、前記判定部により接近物体を示すと判定された複数の第1点に対するクラスタリング処理により、前記接近物体を示す領域を決定する、
付記1に記載の接近物体検出装置。
(付記13)
前記領域決定部により決定された前記領域と前記第2画像とを合成した合成画像を生成する画像生成部を、
更に備える、
付記12に記載の接近物体検出装置。
(付記14)
前記画像生成部により生成された合成画像を表示する表示部を、
更に備える、
付記13に記載の接近物体検出装置。
(付記15)
前記第1画像及び前記第2画像を撮影するカメラを、
更に備える、
付記1に記載の接近物体検出装置。
(付記16)
前記接近物体検出装置の前記鉛直方向の運動に関する前記第1測定値を測定する第1運動測定部を、
更に備える、
付記1に記載の接近物体検出装置。
(付記17)
前記接近物体検出装置の前記水平方向の運動に関する前記第2測定値を測定する第2運動測定部を、
更に備える、
付記16に記載の接近物体検出装置。
(付記18)
前記第1運動測定部は、角速度センサである、
付記16に記載の接近物体検出装置。
(付記19)
接近物体の検出をコンピュータに実行させる接近物体検出プログラムであって、
撮影された第1画像と前記第1画像より前に撮影された第2画像とを取得し、
取得された前記第1画像及び前記第2画像に基づいて、前記第2画像内の第2点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローを算出し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことをコンピュータに実行させる接近物体検出プログラム。
(付記20)
接近物体の検出を行う接近物体検出方法であって、
撮影された第1画像と前記第1画像より前に撮影された第2画像とを取得し、
取得された前記第1画像及び前記第2画像に基づいて、前記第2画像内の第2点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローを算出し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことを行う接近物体検出方法。
The following additional notes are further disclosed with respect to the first and second embodiments.
(Appendix 1)
An approaching object detection device that detects an approaching object,
An image acquisition unit for acquiring a captured first image and a second image captured before the first image;
A search unit for searching for a first point in the first image corresponding to a second point in the second image based on the first image and the second image acquired by the image acquisition unit;
An optical flow calculation unit that calculates an optical flow from the second point to the first point searched by the search unit;
A determination unit that determines whether or not the first point indicates an approaching object based on a vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit;
An approaching object detection device comprising:
(Appendix 2)
The determination unit determines whether the first point indicates an approaching object based on the magnitude of the vertical component of the optical flow to the first point calculated by the optical flow calculation unit.
The approaching object detection device according to
(Appendix 3)
The image acquisition unit further acquires a third image taken before the second image,
The search unit is further configured to, based on the third image, the first image, and the second image acquired by the image acquisition unit, in the first image corresponding to a third point in the third image. Search for the first point,
The optical flow calculation unit calculates an optical flow from the third point searched by the search unit to the first point;
When the magnitude of the vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit is smaller than a predetermined vertical component threshold, the determination unit starts from the third point. Based on the vertical component of the optical flow to one point, it is determined whether or not the first point indicates an approaching object.
The approaching object detection device according to
(Appendix 4)
A measurement value acquisition unit that acquires a first measurement value related to the vertical movement of the approaching object detection device;
Based on the first measurement value acquired by the measurement value acquisition unit, a motion component calculation unit that calculates a first component that is a component of the optical flow due to vertical motion;
An optical flow correction unit that corrects the vertical component of the optical flow by subtracting the first component calculated by the motion component calculation unit from the vertical component of the optical flow;
Further comprising
The determination unit determines whether the first point indicates an approaching object based on a vertical component of the optical flow to the first point corrected by the optical flow correction unit.
The approaching object detection device according to
(Appendix 5)
The measurement value acquisition unit further acquires a second measurement value related to a horizontal movement of the approaching object detection device,
The motion component calculation unit further calculates a second component that is a component of the optical flow caused by a horizontal motion based on the second measurement value acquired by the measurement value acquisition unit,
The optical flow correction unit further corrects the horizontal component of the optical flow by subtracting the second component calculated by the motion component calculation unit from the horizontal component of the optical flow,
The determination unit determines whether the first point indicates an approaching object based on a vertical component and a horizontal component of the optical flow to the first point corrected by the optical flow correction unit.
The approaching object detection device according to appendix 4.
(Appendix 6)
The determination unit determines whether the first point indicates an approaching object based on the vertical component size of the optical flow to the first point calculated by the optical flow calculation unit and the direction and size of the horizontal component. To determine,
The approaching object detection device according to
(Appendix 7)
The measurement value acquisition unit further acquires the moving speed of the approaching object detection device,
The determination unit selects at least one of a vertical component and a horizontal component of the optical flow to the first point based on the moving speed acquired by the measurement value acquisition unit as a selection component. Based on whether the first point indicates an approaching object,
The approaching object detection device according to appendix 6.
(Appendix 8)
The determination unit selects, as the selection component, a vertical component of an optical flow to the first point when the moving speed is greater than a predetermined speed threshold.
The approaching object detection device according to appendix 7.
(Appendix 9)
A feature point extraction unit that extracts a feature point from the first image as the first point and extracts a feature point from the second image as the second point;
In addition,
The approaching object detection device according to
(Appendix 10)
The feature point extraction unit extracts a feature point by a corner extraction process;
The approaching object detection device according to appendix 9.
(Appendix 11)
An area determination unit that determines an area indicating the approaching object based on a plurality of first points determined to indicate the approaching object by the determination unit;
In addition,
The approaching object detection device according to
(Appendix 12)
The region determination unit determines a region indicating the approaching object by clustering processing on a plurality of first points determined to indicate the approaching object by the determination unit.
The approaching object detection device according to
(Appendix 13)
An image generation unit that generates a combined image obtained by combining the region determined by the region determination unit and the second image;
In addition,
The approaching object detection device according to attachment 12.
(Appendix 14)
A display unit for displaying the composite image generated by the image generation unit;
In addition,
The approaching object detection device according to attachment 13.
(Appendix 15)
A camera that captures the first image and the second image;
In addition,
The approaching object detection device according to
(Appendix 16)
A first motion measurement unit that measures the first measurement value related to the vertical motion of the approaching object detection device;
In addition,
The approaching object detection device according to
(Appendix 17)
A second motion measurement unit that measures the second measurement value related to the horizontal motion of the approaching object detection device;
In addition,
The approaching object detection device according to
(Appendix 18)
The first motion measurement unit is an angular velocity sensor.
The approaching object detection device according to
(Appendix 19)
An approaching object detection program for causing a computer to detect an approaching object,
Obtaining a first image taken and a second image taken before the first image;
Searching for a first point in the first image corresponding to a second point in the second image based on the acquired first image and the second image;
Calculating an optical flow from the searched second point to the first point;
Based on the calculated vertical component of the optical flow from the second point to the first point, it is determined whether or not the first point indicates an approaching object.
An approaching object detection program that causes a computer to execute this.
(Appendix 20)
An approaching object detection method for detecting an approaching object,
Obtaining a first image taken and a second image taken before the first image;
Searching for a first point in the first image corresponding to a second point in the second image based on the acquired first image and the second image;
Calculating an optical flow from the searched second point to the first point;
Based on the calculated vertical component of the optical flow from the second point to the first point, it is determined whether or not the first point indicates an approaching object.
An approaching object detection method that does this.
11 カメラ、12a,12b 画像処理部、14 表示部、16 記憶部、17 角速度センサ、18 車速センサ、21 特徴点抽出部、22 オプティカルフロー算出部、23 特徴点情報記録部、31 縦揺れフロー算出部、32 縦揺れ補正部、33a,33b 接近物体判定部、34 映像取得部、35 車両状態取得部、36 映像合成部、41 旋回フロー算出部、42 旋回補正部。
DESCRIPTION OF
Claims (5)
撮影された第1画像と前記第1画像より前に撮影された第2画像と前記第2画像より前に撮影された第3画像とを取得する画像取得部と、
前記画像取得部により取得された前記第1画像、前記第2画像、及び前記第3画像に基づいて、前記第2画像内の第2点に対応し、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索する検索部と、
前記検索部により検索された前記第2点から前記第1点へのオプティカルフローと、前記第3点から前記第1点へのオプティカルフローとを算出するオプティカルフロー算出部と、
前記接近物体検出装置の移動速度を取得する速度取得部と、
前記速度取得部により取得された前記移動速度に基づいて、前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定する判定部と、
を備え、
前記判定部は、前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する接近物体検出装置。 An approaching object detection device that detects an approaching object,
An image acquisition unit that acquires a captured first image, a second image captured before the first image, and a third image captured before the second image ;
Based on the first image , the second image , and the third image acquired by the image acquisition unit, the second point in the second image corresponds to the third point in the third image. A search unit for searching for a first point in the corresponding first image;
An optical flow calculation unit that calculates an optical flow from the second point to the first point searched by the search unit and an optical flow from the third point to the first point ;
A speed acquisition unit for acquiring a moving speed of the approaching object detection device;
Based on the moving speed acquired by the speed acquisition unit , at least one of a vertical component and a horizontal component of the optical flow from the second point to the first point calculated by the optical flow calculation unit is selected. A determination unit that determines whether or not the first point indicates an approaching object based on the size of the selection component ;
Equipped with a,
When the magnitude of the vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit is smaller than a predetermined vertical component threshold, the determination unit starts from the third point. based on the vertical component of the optical flow to a point, the first point is you determine whether indicating the approaching object approaching object detection device.
前記測定値取得部により取得された前記第1測定値に基づいて、鉛直方向の運動に起因する前記オプティカルフローの成分である第1成分を算出する運動成分算出部と、
前記運動成分算出部により算出された第1成分を、前記オプティカルフローの鉛直成分から減算することにより前記オプティカルフローの鉛直成分を補正するオプティカルフロー補正部と、
を更に備え、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
請求項1記載の接近物体検出装置。 A measurement value acquisition unit that acquires a first measurement value related to the vertical movement of the approaching object detection device;
Based on the first measurement value acquired by the measurement value acquisition unit, a motion component calculation unit that calculates a first component that is a component of the optical flow due to vertical motion;
An optical flow correction unit that corrects the vertical component of the optical flow by subtracting the first component calculated by the motion component calculation unit from the vertical component of the optical flow;
Further comprising
The determination unit determines whether the first point indicates an approaching object based on a vertical component of the optical flow to the first point corrected by the optical flow correction unit.
Claim 1 Symbol placement of the approaching object detection device.
前記運動成分算出部は更に、前記測定値取得部により取得された前記第2測定値に基づいて、水平方向の運動に起因する前記オプティカルフローの成分である第2成分を算出し、
前記オプティカルフロー補正部は更に、前記運動成分算出部により算出された第2成分を、前記オプティカルフローの水平成分から減算することにより前記オプティカルフローの水平成分を補正し、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分及び水平成分に基づいて、該第1点が接近物体を示すか否かを判定する、
請求項2に記載の接近物体検出装置。 The measurement value acquisition unit further acquires a second measurement value related to a horizontal movement of the approaching object detection device,
The motion component calculation unit further calculates a second component that is a component of the optical flow caused by a horizontal motion based on the second measurement value acquired by the measurement value acquisition unit,
The optical flow correction unit further corrects the horizontal component of the optical flow by subtracting the second component calculated by the motion component calculation unit from the horizontal component of the optical flow,
The determination unit determines whether the first point indicates an approaching object based on a vertical component and a horizontal component of the optical flow to the first point corrected by the optical flow correction unit.
The approaching object detection device according to claim 2 .
撮影された第1画像と前記第1画像より前に撮影された第2画像と前記第2画像より前に撮影された第3画像とを取得し、
取得された前記第1画像、前記第2画像、及び前記第3画像に基づいて、前記第2画像内の第2点に対応し、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローと、前記第3点から前記第1点へのオプティカルフローとを算出し、
自身の移動速度を取得し、
取得された前記移動速度に基づいて、算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことをコンピュータに実行させる接近物体検出プログラム。 An approaching object detection program for causing a computer to detect an approaching object,
Obtaining a captured first image, a second image captured before the first image, and a third image captured before the second image ;
Based on the acquired first image , the second image , and the third image , the first corresponding to the second point in the second image and corresponding to the third point in the third image. Search for the first point in the image,
Calculating an optical flow from the second point to the first point, and an optical flow from the third point to the first point ,
Get their own movement speed,
Based on the obtained moving speed, at least one of a vertical component and a horizontal component of the optical flow from the second point to the first point calculated is selected as a selection component, and the size of the selection component To determine whether the first point indicates an approaching object ,
If the calculated vertical component of the optical flow from the second point to the first point is smaller than a predetermined vertical component threshold, the optical flow is calculated based on the vertical component of the optical flow from the third point to the first point. Te, the first point to determine whether indicating the approaching object,
An approaching object detection program that causes a computer to execute this.
撮影された第1画像と前記第1画像より前に撮影された第2画像と前記第2画像より前に撮影された第3画像とを取得し、
取得された前記第1画像、前記第2画像、及び前記第3画像に基づいて、前記第2画像内の第2点に対応し、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローと、前記第3点から前記第1点へのオプティカルフローとを算出し、
自身の移動速度を取得し、
取得された前記移動速度に基づいて、算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことを行う接近物体検出方法。 An approaching object detection method for detecting an approaching object,
Obtaining a captured first image, a second image captured before the first image, and a third image captured before the second image ;
Based on the acquired first image , the second image , and the third image , the first corresponding to the second point in the second image and corresponding to the third point in the third image. Search for the first point in the image,
Calculating an optical flow from the second point to the first point, and an optical flow from the third point to the first point ,
Get their own movement speed,
Based on the obtained moving speed, at least one of a vertical component and a horizontal component of the optical flow from the second point to the first point calculated is selected as a selection component, and the size of the selection component To determine whether the first point indicates an approaching object ,
If the calculated vertical component of the optical flow from the second point to the first point is smaller than a predetermined vertical component threshold, the optical flow is calculated based on the vertical component of the optical flow from the third point to the first point. Te, the first point to determine whether indicating the approaching object,
An approaching object detection method that does this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008303948A JP5251460B2 (en) | 2008-11-28 | 2008-11-28 | Approaching object detection device, approaching object detection program, approaching object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008303948A JP5251460B2 (en) | 2008-11-28 | 2008-11-28 | Approaching object detection device, approaching object detection program, approaching object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010128869A JP2010128869A (en) | 2010-06-10 |
JP5251460B2 true JP5251460B2 (en) | 2013-07-31 |
Family
ID=42329208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008303948A Expired - Fee Related JP5251460B2 (en) | 2008-11-28 | 2008-11-28 | Approaching object detection device, approaching object detection program, approaching object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5251460B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012160657A1 (en) * | 2011-05-24 | 2012-11-29 | 富士通株式会社 | Object approach detection device, object approach detection method, and program |
JP5724859B2 (en) * | 2011-12-06 | 2015-05-27 | 株式会社デンソー | Image processing device |
JP6323262B2 (en) * | 2014-08-29 | 2018-05-16 | トヨタ自動車株式会社 | Vehicle approaching object detection device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4162910B2 (en) * | 2001-05-11 | 2008-10-08 | 本田技研工業株式会社 | Approach detection device, approach detection method, and approach detection program |
JP2003067752A (en) * | 2001-08-28 | 2003-03-07 | Yazaki Corp | Vehicle periphery monitoring device |
JP3972659B2 (en) * | 2002-01-17 | 2007-09-05 | 日産自動車株式会社 | Rear side warning device for vehicles |
JP4067340B2 (en) * | 2002-06-05 | 2008-03-26 | 富士重工業株式会社 | Object recognition device and object recognition method |
JP2004088599A (en) * | 2002-08-28 | 2004-03-18 | Toshiba Corp | Image monitoring apparatus and method therefor |
-
2008
- 2008-11-28 JP JP2008303948A patent/JP5251460B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010128869A (en) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6484228B2 (en) | Visually enhanced navigation | |
JP4919036B2 (en) | Moving object recognition device | |
JP2020064046A (en) | Vehicle position determining method and vehicle position determining device | |
JP4619962B2 (en) | Road marking measurement system, white line model measurement system, and white line model measurement device | |
KR20110076899A (en) | Method of and arrangement for blurring an image | |
JP6830140B2 (en) | Motion vector field determination method, motion vector field determination device, equipment, computer readable storage medium and vehicle | |
JP2011505610A (en) | Method and apparatus for mapping distance sensor data to image sensor data | |
JP5834933B2 (en) | Vehicle position calculation device | |
JP2010257377A (en) | Vehicle surroundings monitoring apparatus | |
JP2014139766A (en) | Road surface shape estimation device | |
JP2011134207A (en) | Drive recorder and map generation system | |
JP2013097675A (en) | Gradient estimation device, gradient estimation method, and gradient estimation program | |
JP6384802B2 (en) | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT | |
JP5086824B2 (en) | TRACKING DEVICE AND TRACKING METHOD | |
JP2010245628A (en) | Camera calibration device | |
JP5251460B2 (en) | Approaching object detection device, approaching object detection program, approaching object detection method | |
JP6384803B2 (en) | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT | |
JP2011064639A (en) | Distance measuring device and distance measuring method | |
JP4752319B2 (en) | Image recognition apparatus and image recognition method | |
JP2004126905A (en) | Image processor | |
JP5276032B2 (en) | Device for calculating the position of an object | |
JP5891802B2 (en) | Vehicle position calculation device | |
JP2013097676A (en) | Arrival time estimation device, arrival time estimation method, arrival time estimation program and information presentation device | |
JP4857159B2 (en) | Vehicle driving support device | |
JP2018097776A (en) | Obstacle detection device and obstacle detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130401 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |