JP5251460B2 - Approaching object detection device, approaching object detection program, approaching object detection method - Google Patents

Approaching object detection device, approaching object detection program, approaching object detection method Download PDF

Info

Publication number
JP5251460B2
JP5251460B2 JP2008303948A JP2008303948A JP5251460B2 JP 5251460 B2 JP5251460 B2 JP 5251460B2 JP 2008303948 A JP2008303948 A JP 2008303948A JP 2008303948 A JP2008303948 A JP 2008303948A JP 5251460 B2 JP5251460 B2 JP 5251460B2
Authority
JP
Japan
Prior art keywords
point
image
approaching object
optical flow
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008303948A
Other languages
Japanese (ja)
Other versions
JP2010128869A (en
Inventor
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008303948A priority Critical patent/JP5251460B2/en
Publication of JP2010128869A publication Critical patent/JP2010128869A/en
Application granted granted Critical
Publication of JP5251460B2 publication Critical patent/JP5251460B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、接近物体の検出を行う接近物体検出装置、接近物体検出プログラム、接近物体検出方法に関するものである。   The present invention relates to an approaching object detection device that detects an approaching object, an approaching object detection program, and an approaching object detection method.

見通しが悪い交差点等における車両のユーザの判断の支援を目的とし、車両先端等に設置したカメラから取得される車両左右方向の映像を、車載ディスプレイに表示させる車載型死角カメラ映像表示装置(ブラインドコーナーモニター)がある。   An in-vehicle blind spot camera image display device (blind corner) that displays on the in-vehicle display a vehicle left-right image acquired from a camera installed at the front end of the vehicle, etc., for the purpose of assisting the vehicle user in an intersection with poor visibility. Monitor).

しかしながら、従来の車載型死角カメラ映像表示装置は、遠方から接近する物体については、次のような性質があった。   However, the conventional in-vehicle blind spot camera image display device has the following properties with respect to an object approaching from a distance.

(1)接近物体の画像領域サイズが小さいために、ユーザは、背景に溶け込み易く、接近する車両やオートバイ等の形状に気づきにくい。
(2)接近物体であることから、画像領域の移動量が小さいために、ユーザは、変化に気づきにくい。
(1) Since the image area size of the approaching object is small, the user can easily blend into the background and hardly notice the shape of the approaching vehicle, motorcycle, or the like.
(2) Since it is an approaching object, the amount of movement of the image area is small, so the user is less likely to notice the change.

これに対し、カメラによる映像データから画像処理によって接近物体を検知し、接近物体の画像領域を強調表示させる類の装置があった。例えば、オプティカルフロー方式を利用し、接近物体とカメラの視野の関係を利用し、画面上の中央向きに発生するフロー領域を抽出し、接近物体の領域として特定することで、接近物体検知を実現する装置がある。   On the other hand, there has been a type of device that detects an approaching object by image processing from video data from a camera and highlights an image area of the approaching object. For example, using the optical flow method, using the relationship between the approaching object and the field of view of the camera, extracting the flow area that occurs in the center direction on the screen and identifying it as the approaching object area, realizing approaching object detection There is a device to do.

また、旋回中でも検知が可能なように、ジャイロセンサや車両センサを使用して旋回による水平フロー成分を算出し、この成分をオプティカルフローから減算してフロー補正処理を行い、補正後のフローが画面上の中央向きであるか否かの判定を行い、接近物体検知を実現する装置がある。   In addition, the gyro sensor or vehicle sensor is used to calculate the horizontal flow component due to turning so that it can be detected even during turning, and this component is subtracted from the optical flow to perform flow correction processing. There is a device that realizes approaching object detection by determining whether or not it is in the upper center direction.

なお、従来技術として、車両の旋回時における車両のノーズ部分の側方の接近物体を精度良く検出できるノーズビューモニタ装置がある(例えば、特許文献1参照)。
特開2005−276057号公報
As a conventional technique, there is a nose view monitor device that can accurately detect an approaching object on the side of a nose portion of a vehicle when the vehicle is turning (see, for example, Patent Document 1).
JP 2005-276057 A

しかしながら、自車両の停止位置によっては、カメラと接近物体の位置の関係から必ずしも、接近物体に画面中央向きのフローが発生するわけではなかった。例えば、カメラに対して接近物体の端点が方位一定に見えるような位置や角度で、自車両が交差点に進入してしまった場合や、歩行者や自転車やオートバイが壁沿いに接近する場合、画面中央向きのフローは発生しないため、検知漏れとなる場合があった。   However, depending on the stop position of the host vehicle, the flow toward the center of the screen does not necessarily occur in the approaching object due to the relationship between the position of the camera and the approaching object. For example, if the vehicle has entered the intersection at a position or angle where the end point of the approaching object looks constant with respect to the camera, or if a pedestrian, bicycle, or motorcycle approaches the wall, Since there was no flow toward the center, there were cases where detection was missed.

また、旋回中において、旋回速度が接近車両の速度に対して早い場合、ジャイロセンサや車両センサから得られる仮想的な旋回による水平フロー成分を減算すると、残差の補正フローが画面外向きになって、検知漏れとなる場合があった。   In addition, if the turning speed is faster than the speed of the approaching vehicle during turning, subtracting the horizontal flow component due to virtual turning obtained from the gyro sensor or vehicle sensor will cause the residual correction flow to face outward. In some cases, it was a detection failure.

本発明は上述した問題点を解決するためになされたものであり、接近物体の検出の精度を向上させる接近物体検出装置、接近物体検出プログラム、接近物体検出方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an approaching object detection device, an approaching object detection program, and an approaching object detection method that improve the accuracy of approaching object detection.

上述した課題を解決するため、本発明の一態様は、接近物体の検出を行う接近物体検出装置であって、撮影された第1画像と第1画像より前に撮影された第2画像とを取得する画像取得部と、画像取得部により取得された第1画像及び第2画像に基づいて、第2画像内の第2点に対応する第1画像内の第1点を検索する検索部と、検索部により検索された第2点から第1点へのオプティカルフローを算出するオプティカルフロー算出部と、オプティカルフロー算出部により算出された第2点から第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する判定部とを有する。   In order to solve the above-described problem, one aspect of the present invention is an approaching object detection device that detects an approaching object, and includes a captured first image and a second image captured before the first image. An image acquisition unit to acquire, and a search unit to search for a first point in the first image corresponding to a second point in the second image based on the first image and the second image acquired by the image acquisition unit; An optical flow calculation unit for calculating the optical flow from the second point to the first point searched by the search unit, and a vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit. And a determination unit that determines whether or not the first point indicates an approaching object.

また、本発明の一態様は、接近物体の検出をコンピュータに実行させる接近物体検出プログラムであって、撮影された第1画像と第1画像より前に撮影された第2画像とを取得し、取得された第1画像及び第2画像に基づいて、第2画像内の第2点に対応する第1画像内の第1点を検索し、検索された第2点から第1点へのオプティカルフローを算出し、算出された第2点から第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定することをコンピュータに実行させる。   One embodiment of the present invention is an approaching object detection program that causes a computer to detect an approaching object, and obtains a captured first image and a second image captured before the first image, Based on the acquired first image and second image, the first point in the first image corresponding to the second point in the second image is searched, and the optical from the searched second point to the first point is searched. Based on the calculated vertical component of the optical flow from the second point to the first point, the computer is caused to determine whether or not the first point indicates an approaching object.

また、本発明の一態様は、接近物体の検出を行う接近物体検出方法であって、撮影された第1画像と第1画像より前に撮影された第2画像とを取得し、取得された第1画像及び第2画像に基づいて、第2画像内の第2点に対応する第1画像内の第1点を検索し、検索された第2点から第1点へのオプティカルフローを算出し、算出された第2点から第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定することを行う。   One embodiment of the present invention is an approaching object detection method for detecting an approaching object, which is obtained by acquiring a captured first image and a second image captured before the first image. Based on the first image and the second image, the first point in the first image corresponding to the second point in the second image is searched, and the optical flow from the searched second point to the first point is calculated. Then, based on the calculated vertical component of the optical flow from the second point to the first point, it is determined whether or not the first point indicates an approaching object.

また、本発明の構成要素、または構成要素の任意の組合せを、方法、装置、システム、記録媒体、データ構造などに適用したものも本発明に含む。   Moreover, what applied the component of this invention, or arbitrary combinations of a component to a method, an apparatus, a system, a recording medium, a data structure, etc. is also contained in this invention.

開示の接近物体検出装置、接近物体検出プログラム、接近物体検出方法によれば、接近物体の検出の精度を向上させることができる。   According to the approaching object detection device, approaching object detection program, and approaching object detection method of the disclosure, it is possible to improve the accuracy of the approaching object detection.

以下、本発明の実施の形態について図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
本実施の形態においては、本発明の接近物体検出装置が適用された接近物体表示装置について説明する。本実施の形態の接近物体表示装置は、車両に搭載される。以下、接近物体表示装置が搭載された車両を自車両と呼ぶ。
(Embodiment 1)
In the present embodiment, an approaching object display device to which the approaching object detection device of the present invention is applied will be described. The approaching object display device of the present embodiment is mounted on a vehicle. Hereinafter, a vehicle equipped with the approaching object display device is referred to as a host vehicle.

本実施の形態の接近物体表示装置は、連続して撮影された映像データからオプティカルフローの垂直(鉛直)成分を算出し、算出された垂直成分に基づいて接近物体の検出を行う。   The approaching object display device according to the present embodiment calculates a vertical (vertical) component of the optical flow from continuously captured image data, and detects an approaching object based on the calculated vertical component.

実施の形態1の接近物体表示装置の構成について以下に説明する。   The configuration of the approaching object display device according to the first embodiment will be described below.

図1は、実施の形態1の接近物体表示装置の構成の一例を示すブロック図である。この接近物体表示装置は、カメラ11、画像処理部12a、表示部14、CPU、記憶部16、角速度センサ17(第1運動測定部、第2運動測定部)、車速センサ18を有する。   FIG. 1 is a block diagram illustrating an example of the configuration of the approaching object display device according to the first embodiment. The approaching object display device includes a camera 11, an image processing unit 12 a, a display unit 14, a CPU, a storage unit 16, an angular velocity sensor 17 (first motion measurement unit, second motion measurement unit), and a vehicle speed sensor 18.

画像処理部12aは、例えばCPU(Central Processing Unit)により実現される。このCPUは、記憶部16に格納された接近物体検出プログラムを実行することにより、接近物体検出機能を実現する。   The image processing unit 12a is realized by a CPU (Central Processing Unit), for example. This CPU implements an approaching object detection function by executing an approaching object detection program stored in the storage unit 16.

なお、角速度センサ17の代わりに、接近物体表示装置の外部に設けられた角速度センサが用いられても良い。また、車速センサ18の代わりに、接近物体表示装置の外部に設けられた車速センサが用いられても良い。ここでは、角速度を取得するために角速度センサを用いたが、角速度センサ以外に加速度センサ等、カメラ11の鉛直方向の運動に関する測定を行うセンサを用いても良い。   Instead of the angular velocity sensor 17, an angular velocity sensor provided outside the approaching object display device may be used. In place of the vehicle speed sensor 18, a vehicle speed sensor provided outside the approaching object display device may be used. Here, the angular velocity sensor is used to acquire the angular velocity. However, in addition to the angular velocity sensor, a sensor that performs measurement related to the vertical motion of the camera 11 such as an acceleration sensor may be used.

画像処理部12aの構成について以下に説明する。   The configuration of the image processing unit 12a will be described below.

図2は、画像処理部12aの構成の一例を示すブロック図である。この画像処理部12aは、特徴点抽出部21、オプティカルフロー算出部22、特徴点情報記録部23、縦揺れフロー算出部31(運動成分算出部)、縦揺れ補正部32(オプティカルフロー補正部)、接近物体判定部33a(判定部、領域決定部)、映像取得部34(画像取得部)、車両状態取得部35(測定値取得部)、映像合成部36(画像生成部)を有する。   FIG. 2 is a block diagram illustrating an example of the configuration of the image processing unit 12a. The image processing unit 12a includes a feature point extraction unit 21, an optical flow calculation unit 22, a feature point information recording unit 23, a pitching flow calculation unit 31 (motion component calculation unit), and a pitch correction unit 32 (optical flow correction unit). , An approaching object determination unit 33a (determination unit, region determination unit), a video acquisition unit 34 (image acquisition unit), a vehicle state acquisition unit 35 (measurement value acquisition unit), and a video synthesis unit 36 (image generation unit).

車両状態取得部35は、角速度センサ17により測定された角速度や車速センサ18により測定された車速を取得する。   The vehicle state acquisition unit 35 acquires the angular velocity measured by the angular velocity sensor 17 and the vehicle speed measured by the vehicle speed sensor 18.

本実施の形態の接近物体表示装置の動作について以下に説明する。   The operation of the approaching object display device of the present embodiment will be described below.

カメラ11は、自車両の左右方向を撮影するように調整されたプリズムレンズを有し、所定のフレーム時間間隔で撮影する。カメラ11が自車両の左右方向に向けて設けられることにより、見通しの悪い交差点でユーザの死角となる左右道路の交通状況を撮影することができる。フレーム時間間隔は、例えば1/30秒である。なお、カメラ11は、自車両の左右方向を撮影できる魚眼レンズを有しても良い。   The camera 11 has a prism lens adjusted so as to photograph the left and right direction of the host vehicle, and photographs at a predetermined frame time interval. By providing the camera 11 in the left-right direction of the host vehicle, it is possible to take an image of the traffic situation on the left and right roads that are the blind spot of the user at an intersection with poor visibility. The frame time interval is 1/30 seconds, for example. The camera 11 may have a fisheye lens that can photograph the left and right direction of the host vehicle.

図3は、実施の形態1の接近物体表示装置の動作の一例を示すフローチャートである。映像取得部34は、カメラ11により撮影された映像データをレーム時間間隔毎に取得する(S11)。なお、カメラ11は、複数であっても良い。この場合、映像取得部34は、カメラ11のそれぞれにより撮影された映像を合成して映像データとする。例えば、自車両の左方を向いて設置されたカメラ11からの映像を映像データの左半分に配置し、自車両の右方を向いて設置されたカメラ11からの映像を映像データの右半分に配置する。   FIG. 3 is a flowchart illustrating an example of the operation of the approaching object display device according to the first embodiment. The video acquisition unit 34 acquires video data captured by the camera 11 at every lam time interval (S11). A plurality of cameras 11 may be provided. In this case, the video acquisition unit 34 synthesizes the video shot by each of the cameras 11 and generates video data. For example, the video from the camera 11 installed facing the left side of the host vehicle is arranged on the left half of the video data, and the video from the camera 11 installed facing the right side of the host vehicle is displayed on the right half of the video data. To place.

次に、特徴点抽出部21は、映像データ内の特徴点(注目点)を抽出する(S12)。特徴点の抽出には、例えば、車両外形の凸凹領域に良く反応するコーナー抽出処理を用いる。コーナー抽出処理には、Harrisオペレータや、KLT(Kanade-Lucas Track)オペレータを用いる。   Next, the feature point extraction unit 21 extracts feature points (attention points) in the video data (S12). For the feature point extraction, for example, a corner extraction process that reacts well to the uneven region of the vehicle outer shape is used. For the corner extraction process, a Harris operator or a KLT (Kanade-Lucas Track) operator is used.

特徴点抽出部21は、抽出された特徴点に関する情報を特徴点情報として特徴点情報記録部23へ記録する(S13)。ここで、特徴点情報記録部23は、記憶部16により実現される。図4は、実施の形態1の特徴点情報の構成の一例を示す表である。この図は、時刻tにおける特徴点情報と、時刻t+1における特徴点情報とを示す。特徴点情報は、特徴点IDと、特徴点の最新の座標値の周辺の画像データである周辺画像データ(例えば9×9画素)と、フレーム毎の特徴点の対応点の(x,y)座標及びフレーム時刻のリストである対応点リストとを含む。   The feature point extraction unit 21 records information about the extracted feature points in the feature point information recording unit 23 as feature point information (S13). Here, the feature point information recording unit 23 is realized by the storage unit 16. FIG. 4 is a table showing an example of the configuration of the feature point information according to the first embodiment. This figure shows feature point information at time t and feature point information at time t + 1. The feature point information includes a feature point ID, peripheral image data (eg, 9 × 9 pixels) that is image data around the latest coordinate value of the feature point, and (x, y) of the corresponding point of the feature point for each frame. And a corresponding point list which is a list of coordinates and frame times.

次に、オプティカルフロー算出部22は、特徴点情報記録部23に登録されている、最新の特徴点の座標値と周辺画像データに基づいて、現在の映像データI(t+1)において特徴点に対応する点である対応点を所定範囲内で検索する(S14)。次に、オプティカルフロー算出部22は、例えばブロックマッチング法によりオプティカルフローを算出する(S15)。オプティカルフロー算出部22は、I(t+1)において探索された対応点の座標値とフレーム時刻t+1とを特徴点情報におけるリストへ追加し、特徴点情報における周辺画像データをI(t+1)における周辺画像データに更新する(S16)。   Next, the optical flow calculation unit 22 corresponds to the feature point in the current video data I (t + 1) based on the latest coordinate value of the feature point and the peripheral image data registered in the feature point information recording unit 23. Corresponding points that are points to be searched are searched within a predetermined range (S14). Next, the optical flow calculation unit 22 calculates an optical flow by, for example, a block matching method (S15). The optical flow calculation unit 22 adds the coordinate value of the corresponding point searched at I (t + 1) and the frame time t + 1 to the list in the feature point information, and the surrounding image data in the feature point information is the surrounding image at I (t + 1). The data is updated (S16).

ここで、時刻tにおける映像データI(t)は、第2画像に対応する。また、時刻t+1における映像データI(t+1)は、第1画像に対応する。   Here, the video data I (t) at time t corresponds to the second image. The video data I (t + 1) at time t + 1 corresponds to the first image.

次に、接近物体判定部33aは、特徴点情報記録部23に登録されている最新の特徴点について、所定の垂直成分条件を満たす特徴点を選択して選択特徴点とし(S17)、このフローは終了する。ここで、垂直成分条件は、オプティカルフローの垂直成分の大きさが所定の垂直成分閾値を上回ることである。オプティカルフローは、登録されているリスト内の2つの座標値の減算によって算出される。第1の垂直成分条件は、オプティカルフローの垂直成分と垂直成分閾値Th1とを用いた次式で表される。   Next, the approaching object determination unit 33a selects a feature point satisfying a predetermined vertical component condition as the selected feature point for the latest feature point registered in the feature point information recording unit 23 (S17). Ends. Here, the vertical component condition is that the magnitude of the vertical component of the optical flow exceeds a predetermined vertical component threshold. The optical flow is calculated by subtraction of two coordinate values in the registered list. The first vertical component condition is expressed by the following equation using the vertical component of the optical flow and the vertical component threshold Th1.

|yi,t+1−yi,t| > Th1 | Y i, t + 1 −y i, t |> Th1

また、オプティカルフロー算出部22は、垂直成分条件を、時間間隔nだけ過去の対応点から最新の対応点までのオプティカルフローである長時間オプティカルフローを算出する。接近物体判定部33aは、単位時間間隔(フレーム時間間隔)のオプティカルフローの垂直成分(動き量)が小さいと判定した場合、第2の垂直成分条件を用いて選択特徴点を選択する。第2の垂直成分条件は、長時間オプティカルフローの垂直成分の大きさが所定の垂直成分閾値Th2を上回ることである。第2の垂直成分条件は、長時間オプティカルフローの垂直成分と垂直成分閾値Th2とを用いた次式で表される。   In addition, the optical flow calculation unit 22 calculates a long-time optical flow that is an optical flow from the past corresponding point to the latest corresponding point by the time interval n as the vertical component condition. When the approaching object determination unit 33a determines that the vertical component (motion amount) of the optical flow at the unit time interval (frame time interval) is small, the approaching object determination unit 33a selects the selected feature point using the second vertical component condition. The second vertical component condition is that the vertical component size of the long-time optical flow exceeds a predetermined vertical component threshold Th2. The second vertical component condition is expressed by the following equation using the vertical component of the long-time optical flow and the vertical component threshold Th2.

|yi,t+1−yi,t-n+1| > Th2 | Y i, t + 1 −y i, t−n + 1 |> Th2

ここで、時刻t−n+1における映像データI(t−n+1)は、第3画像に対応する。   Here, the video data I (t−n + 1) at time t−n + 1 corresponds to the third image.

Th1及びTh2は、例えば1ピクセルである。   Th1 and Th2 are, for example, one pixel.

このように、接近物体が自車両へ接近する速度成分が小さい場合、長時間オプティカルフローを算出することにより、選択特徴点の検出精度を高めることができる。   Thus, when the speed component at which the approaching object approaches the host vehicle is small, the detection accuracy of the selected feature point can be increased by calculating the optical flow for a long time.

また、本実施の形態の画像処理部12aは、自車両のブレーキや路面の凹凸で縦揺れする(鉛直方向に運動する)場合に発生する背景フロー(背景のオプティカルフロー)の垂直成分である縦揺れフローを、オプティカルフローから除去する。   The image processing unit 12a of the present embodiment is a vertical component that is a vertical component of the background flow (background optical flow) that occurs when the vehicle is pitched (moves in the vertical direction) due to the brakes of the host vehicle or the unevenness of the road surface. The shaking flow is removed from the optical flow.

車両状態取得部35は、角速度センサ17により測定された角速度を取得する。縦揺れフロー算出部31は、車両状態取得部35により得られた角速度に基づいて縦揺れフローを算出する。縦揺れ補正部32は、オプティカルフローの垂直成分から縦揺れフローを減算して垂直残差フローとする。接近物体判定部33aは、オプティカルフローの垂直成分の代わりに垂直残差フローに対して垂直成分条件の判定を行う。つまり、第1の垂直成分条件は、垂直残差フローの大きさがTh1を上回ることである。   The vehicle state acquisition unit 35 acquires the angular velocity measured by the angular velocity sensor 17. The pitching flow calculation unit 31 calculates the pitching flow based on the angular velocity obtained by the vehicle state acquisition unit 35. The pitch correction unit 32 subtracts the pitch flow from the vertical component of the optical flow to obtain a vertical residual flow. The approaching object determination unit 33a determines the vertical component condition for the vertical residual flow instead of the vertical component of the optical flow. That is, the first vertical component condition is that the magnitude of the vertical residual flow exceeds Th1.

同様に、縦揺れ補正部32は、長時間オプティカルフローの垂直成分から縦揺れフローを減算して長時間垂直残差フローとする。第2の垂直成分条件は、長時間垂直残差フローの大きさがTh2を上回ることである。   Similarly, the pitch correction unit 32 subtracts the pitch flow from the vertical component of the long-time optical flow to obtain a long-time vertical residual flow. The second vertical component condition is that the magnitude of the long-time vertical residual flow exceeds Th2.

ここで、車両状態取得部35が角速度センサ17から3軸の角速度を取得する場合の、縦揺れフロー算出部31及び縦揺れ補正部32の動作の詳細について説明する。   Here, details of operations of the pitching flow calculation unit 31 and the pitching correction unit 32 when the vehicle state acquisition unit 35 acquires the triaxial angular velocity from the angular velocity sensor 17 will be described.

ある特徴点について、垂直成分を評価する時間間隔(フレーム時間間隔)がΔtである場合、縦揺れフロー算出部31は、時刻t−Δtから時刻tまで、角速度センサから得られたある座標軸についての角速度wを積分することにより、変位角Wを算出する。Wは、次式で表される。   When the time interval (frame time interval) for evaluating the vertical component is Δt for a certain feature point, the pitching flow calculation unit 31 performs the calculation for a certain coordinate axis obtained from the angular velocity sensor from time t−Δt to time t. The displacement angle W is calculated by integrating the angular velocity w. W is expressed by the following equation.

W=Σt-Δt tW = Σ t- Δ t t w

次に、カメラ11の焦点距離がfであり、縦揺れフロー算出部31により3軸についての角速度wx(ピッチ)(第1測定値),wy(ロール),wz(ヨー)(第2測定値)が得られ、それにより変位角Wx(ピッチ),Wy(ロール),Wz(ヨー)が得られる場合、点(x,y)における縦揺れフローvyは次式で算出できる。   Next, the focal length of the camera 11 is f, and the pitch velocity flow calculation unit 31 performs angular velocity wx (pitch) (first measurement value), wy (roll), wz (yaw) (second measurement value) about three axes. ) Is obtained, and thereby displacement angles Wx (pitch), Wy (roll), and Wz (yaw) are obtained, the pitching flow vy at the point (x, y) can be calculated by the following equation.

vy=
(y*y/f+f)*Wx−x*y*Wy/f−x*Wz;
vy =
(Y * y / f + f) * Wx-x * y * Wy / fx-Wz;

カメラ11と角速度センサ17が離れている場合でも、縦揺れフロー算出部31は、3軸の角速度を用いることにより縦揺れフローを精度良く算出することができる。   Even when the camera 11 and the angular velocity sensor 17 are separated from each other, the pitching flow calculation unit 31 can calculate the pitching flow with high accuracy by using the triaxial angular velocity.

また、車両状態取得部35が角速度センサ17から縦方向(ピッチ)の角速度のみを取得する場合、上述のvyの算出式において、Wy=Wz=0として良い。   When the vehicle state acquisition unit 35 acquires only the angular velocity in the vertical direction (pitch) from the angular velocity sensor 17, Wy = Wz = 0 may be used in the above vy calculation formula.

カメラ11と角速度センサ17が近く同様の運動を行う場合、縦揺れフロー算出部31は、縦方向の角速度のみを用いて縦揺れフローを算出することができる。   When the camera 11 and the angular velocity sensor 17 are close and perform the same motion, the pitching flow calculation unit 31 can calculate the pitching flow using only the angular velocity in the vertical direction.

縦揺れ補正部32は、オプティカルフローの垂直成分から縦揺れフローを減算し、垂直残差フローVを算出する。Vは、次式で表される。   The pitch correction unit 32 subtracts the pitch flow from the vertical component of the optical flow to calculate the vertical residual flow V. V is expressed by the following equation.

V = yi,t+1−yi,t-n+1−vy V = y i, t + 1 −y i, t−n + 1 −vy

接近物体判定部33aは、次式に示される垂直成分条件を満たすか否かの判定を行う。   The approaching object determination unit 33a determines whether or not the vertical component condition represented by the following equation is satisfied.

|V|>Th1   | V |> Th1

次に、接近物体判定部33aは、選択された選択特徴点の座標に対して2次元画像上でのクラスタリング処理を行い、接近物体の領域を特定して接近物体領域とする。クラスタリング処理は、例えば、所定の画像距離以下にある特徴点同士を1つのクラスタとみなす処理である。   Next, the approaching object determination unit 33a performs a clustering process on the coordinates of the selected selected feature point on the two-dimensional image, specifies the approaching object region, and sets it as the approaching object region. For example, the clustering process is a process in which feature points within a predetermined image distance are regarded as one cluster.

映像合成部36は、カメラ11からの映像データに、接近物体判定部33aにより出力された接近物体領域を合成して合成映像データ(合成画像)とする。表示部14は、映像合成部36により合成された合成映像データを表示する。
(実施の形態2)
The video composition unit 36 synthesizes the approaching object region output from the approaching object determination unit 33a with the video data from the camera 11 to obtain composite video data (composite image). The display unit 14 displays the synthesized video data synthesized by the video synthesis unit 36.
(Embodiment 2)

本実施の形態の接近物体表示装置は、連続して撮影された画像からオプティカルフローの垂直成分及び水平成分を算出し、算出された垂直成分及び水平成分に基づいて接近物体の検出を行う。   The approaching object display device according to the present embodiment calculates the vertical and horizontal components of the optical flow from continuously captured images, and detects the approaching object based on the calculated vertical and horizontal components.

実施の形態2の接近物体表示装置の構成は、実施の形態1の接近物体表示装置の構成と比較すると、画像処理部12aの代わりに画像処理部12bを有する。   The configuration of the approaching object display device according to the second embodiment includes an image processing unit 12b instead of the image processing unit 12a as compared with the configuration of the approaching object display device according to the first embodiment.

画像処理部12bの構成について以下に説明する。   The configuration of the image processing unit 12b will be described below.

図5は、画像処理部12bの構成の一例を示すブロック図である。この図において、図2と同一符号は図2に示された対象と同一又は相当物を示しており、ここでの説明を省略する。画像処理部12bは、画像処理部12aと比較すると、接近物体判定部33aの代わりに接近物体判定部33bを有し、新たに、旋回フロー算出部41(運動成分算出部)、旋回補正部42(オプティカルフロー補正部)を有する。   FIG. 5 is a block diagram illustrating an example of the configuration of the image processing unit 12b. In this figure, the same reference numerals as those in FIG. 2 denote the same or corresponding parts as those in FIG. 2, and the description thereof will be omitted here. Compared with the image processing unit 12a, the image processing unit 12b includes an approaching object determination unit 33b instead of the approaching object determination unit 33a, and newly includes a turning flow calculation unit 41 (motion component calculation unit) and a turning correction unit 42. (Optical flow correction unit).

例えば、角速度センサ17は、縦方向の角速度の他に、カメラ11が設置された自車両の旋回(水平方向、ヨー)の角速度wz(第2測定値)を測定する。旋回フロー算出部41は、車両状態取得部35により取得された角速度に基づいて、画面上の旋回による背景フローの水平成分である旋回フローを算出する。旋回補正部42は、算出された旋回フローを、オプティカルフローの水平成分から減算して水平残差フローとする。   For example, the angular velocity sensor 17 measures the angular velocity wz (second measured value) of turning (horizontal direction, yaw) of the host vehicle in which the camera 11 is installed, in addition to the angular velocity in the vertical direction. The turning flow calculation unit 41 calculates a turning flow that is a horizontal component of the background flow due to turning on the screen, based on the angular velocity acquired by the vehicle state acquisition unit 35. The turning correction unit 42 subtracts the calculated turning flow from the horizontal component of the optical flow to obtain a horizontal residual flow.

接近物体判定部33bは、所定の垂直成分条件または所定の水平成分条件を満たす特徴点を選択して選択特徴点とする。ここで、垂直成分条件は、垂直残差フローの大きさが所定の垂直成分閾値を上回ることとする。また、水平成分条件は、旋回補正部42により算出された水平残差フローが中央向きを正の向きとして所定の水平成分閾値を上回ることである。   The approaching object determination unit 33b selects a feature point that satisfies a predetermined vertical component condition or a predetermined horizontal component condition as a selected feature point. Here, the vertical component condition is that the magnitude of the vertical residual flow exceeds a predetermined vertical component threshold. The horizontal component condition is that the horizontal residual flow calculated by the turning correction unit 42 exceeds a predetermined horizontal component threshold value with the center direction as a positive direction.

なお、垂直成分条件は、垂直残差フローの大きさが所定の垂直成分閾値を上回り、且つ垂直残差フローが中央向きであること、としても良い。   Note that the vertical component condition may be that the size of the vertical residual flow exceeds a predetermined vertical component threshold and that the vertical residual flow is directed toward the center.

なお、接近物体判定部33bは、更に車速センサ18により測定された車速を用いて選択特徴点を選択しても良い。この場合、まず、接近物体判定部33bは、車速センサ18により測定された車速を取得する。次に、接近物体判定部33bは、車速が所定の車速閾値を下回るか否かの判定を行う。車速が所定の車速閾値を下回る場合、水平成分条件を満たす特徴点を選択して選択特徴点とする。車速が車速閾値以上である場合、垂直成分条件を満たす特徴点を選択して選択特徴点とする。   The approaching object determination unit 33b may further select the selected feature point using the vehicle speed measured by the vehicle speed sensor 18. In this case, the approaching object determination unit 33b first acquires the vehicle speed measured by the vehicle speed sensor 18. Next, the approaching object determination unit 33b determines whether or not the vehicle speed is below a predetermined vehicle speed threshold. When the vehicle speed falls below a predetermined vehicle speed threshold, a feature point that satisfies the horizontal component condition is selected as a selected feature point. When the vehicle speed is equal to or higher than the vehicle speed threshold, a feature point that satisfies the vertical component condition is selected as a selected feature point.

上述した各実施の形態における映像データ及びオプティカルフローの具体例について以下に説明する。   Specific examples of the video data and the optical flow in each of the above-described embodiments will be described below.

ここで、カメラ11に設けられたプリズムレンズにより、映像データの左半分の領域である左領域は、自車両の左方が撮影された映像となり、映像データの右半分の領域である右領域は、自車両の右方が撮影された映像となる。以下、映像データにおいて左領域と右領域とを分ける線を中央線と呼ぶ。   Here, with the prism lens provided in the camera 11, the left area, which is the left half area of the video data, is an image of the left side of the host vehicle, and the right area, which is the right half area of the video data, is This is an image of the right side of the vehicle. Hereinafter, a line dividing the left area and the right area in the video data is referred to as a center line.

オプティカルフローの水平成分が中央線方向であるか否かの判定により接近物体を検出する比較例について以下に説明する。   A comparative example in which an approaching object is detected by determining whether or not the horizontal component of the optical flow is in the center line direction will be described below.

図6は、第1状態における自車両と接近物体の位置関係の一例を示す平面図である。この図は、自車両62、構造物63、カメラ視野64a,64b、接近物体位置65a,65b、特徴点66a,66bを示す。カメラ視野64aは、映像データの左半分に対応し、カメラ視野64bは、映像データの右半分に対応する。また、この図において、X軸及びZ軸は、自車両を基準とした座標系である。原点Oは、カメラ11の撮像位置を示し、X軸は、自車両の後方を示し、Z軸は、自車両の右方を示す。特徴点66bは、特徴点66aの対応点である。   FIG. 6 is a plan view showing an example of the positional relationship between the host vehicle and the approaching object in the first state. This figure shows a host vehicle 62, a structure 63, camera fields of view 64a and 64b, approaching object positions 65a and 65b, and feature points 66a and 66b. The camera view 64a corresponds to the left half of the video data, and the camera view 64b corresponds to the right half of the video data. In this figure, an X axis and a Z axis are coordinate systems based on the host vehicle. The origin O indicates the imaging position of the camera 11, the X axis indicates the rear of the host vehicle, and the Z axis indicates the right side of the host vehicle. The feature point 66b is a corresponding point of the feature point 66a.

第1状態は、自車両62が交差点に進入する前に一時停止し、且つカメラ視野64aにおける接近物体が接近物体位置65aから65bへ移動して自車両62へ接近している状態である。また、接近物体位置65aは、時刻t1で撮影された接近物体の位置を示し、接近物体位置65aは、時刻t1+1(時刻t1の次のフレームの時刻)で撮影された接近物体の位置を示す。   The first state is a state in which the host vehicle 62 pauses before entering the intersection, and the approaching object in the camera view 64a moves from the approaching object position 65a to 65b and approaches the host vehicle 62. The approaching object position 65a indicates the position of the approaching object imaged at time t1, and the approaching object position 65a indicates the position of the approaching object imaged at time t1 + 1 (the time of the next frame after time t1).

図7は、第1状態におけるオプティカルフローの一例を示す概念図である。この図は、特徴点66bのオプティカルフローの水平成分71bと、旋回フロー72bと、オプティカルフローの水平成分71bから旋回フロー72bを減算した結果である水平残差フロー73bとを示す。第1状態において、水平残差フロー73bは、中央線の方向を指す。従って、特徴点66bは、オプティカルフローの水平成分により接近物体として検出されることができる。   FIG. 7 is a conceptual diagram illustrating an example of an optical flow in the first state. This figure shows an optical flow horizontal component 71b of the feature point 66b, a swirl flow 72b, and a horizontal residual flow 73b that is the result of subtracting the swirl flow 72b from the horizontal component 71b of the optical flow. In the first state, the horizontal residual flow 73b points in the direction of the center line. Therefore, the feature point 66b can be detected as an approaching object by the horizontal component of the optical flow.

図8は、第2状態における映像データとオプティカルフローの一例を示す概念図である。第2状態は、自車両62が交差点に進入する前に一時停止し、且つカメラ視野64aにおける接近物体61aとカメラ視野64bにおける接近物体61bとが自車両62へ接近している状態である。この図において、黒の矢印は、オプティカルフローを表す。第2状態において、接近物体61a,61bの各特徴点のオプティカルフローの水平成分は、中央線の方向を指す。従って、接近物体61a,61bは、オプティカルフローの水平成分が中央線方向であるか否かの判定により、接近物体として検出されることができる。   FIG. 8 is a conceptual diagram showing an example of video data and an optical flow in the second state. The second state is a state in which the host vehicle 62 is temporarily stopped before entering the intersection, and the approaching object 61a in the camera field of view 64a and the approaching object 61b in the camera field of view 64b are approaching the host vehicle 62. In this figure, a black arrow represents an optical flow. In the second state, the horizontal component of the optical flow of each feature point of the approaching objects 61a and 61b indicates the direction of the center line. Accordingly, the approaching objects 61a and 61b can be detected as approaching objects by determining whether or not the horizontal component of the optical flow is in the center line direction.

図9は、第3状態における自車両と接近物体の位置関係の一例を示す平面図である。この図は、上述の第1状態と同様であるが、接近物体位置65a,65bの代わりに接近物体位置65c,65dを示し、特徴点66a,66bの代わりに特徴点66c,66dを示す。   FIG. 9 is a plan view showing an example of the positional relationship between the host vehicle and the approaching object in the third state. This figure is similar to the first state described above, but shows approaching object positions 65c and 65d instead of approaching object positions 65a and 65b, and feature points 66c and 66d instead of feature points 66a and 66b.

第3状態は、自車両62が交差点に進入する前に一時停止し、且つカメラ視野64aにおける接近物体が接近物体位置65cから65dへ移動して自車両62へ接近している状態である。また、接近物体位置65cは、時刻t2で撮影された接近物体の位置を示し、接近物体位置65dは、時刻t2+1(時刻t1の次のフレームの時刻)で撮影された接近物体の位置を示す。第3状態において、特徴点66cから特徴点66dへのオプティカルフローの水平成分は、中央線と逆の方向を指す。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、特徴点66dは、接近物体として検出されない。   The third state is a state in which the host vehicle 62 pauses before entering the intersection, and the approaching object in the camera view 64a moves from the approaching object position 65c to 65d and approaches the host vehicle 62. The approaching object position 65c indicates the position of the approaching object imaged at time t2, and the approaching object position 65d indicates the position of the approaching object imaged at time t2 + 1 (the time of the next frame after time t1). In the third state, the horizontal component of the optical flow from the feature point 66c to the feature point 66d points in the direction opposite to the center line. Therefore, if only the determination of whether or not the horizontal component of the optical flow is in the center line direction is used, the feature point 66d is not detected as an approaching object.

図10は、第3状態におけるオプティカルフローの一例を示す概念図である。この図は、特徴点66dのオプティカルフローの水平成分71dと、旋回フロー72dと、オプティカルフローの水平成分71dから旋回フロー72dを減算した結果である水平残差フロー73dとを示す。第3状態において、水平残差フロー73dは、中央線と逆の方向を指す。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、特徴点66dは、接近物体として検出されない。   FIG. 10 is a conceptual diagram illustrating an example of an optical flow in the third state. This figure shows the horizontal component 71d of the optical flow at the feature point 66d, the swirling flow 72d, and the horizontal residual flow 73d that is the result of subtracting the swirling flow 72d from the horizontal component 71d of the optical flow. In the third state, the horizontal residual flow 73d points in the direction opposite to the center line. Therefore, if only the determination of whether or not the horizontal component of the optical flow is in the center line direction is used, the feature point 66d is not detected as an approaching object.

図11は、第4状態における自車両と接近物体の位置関係の一例を示す平面図である。この図は、上述の第1状態と同様であるが、接近物体位置65a,65bの代わりに接近物体位置65e,65fを示し、特徴点66a,66bの代わりに特徴点66e,66fを示す。   FIG. 11 is a plan view showing an example of the positional relationship between the host vehicle and the approaching object in the fourth state. This figure is similar to the first state described above, but shows approaching object positions 65e and 65f instead of approaching object positions 65a and 65b, and feature points 66e and 66f instead of feature points 66a and 66b.

第4状態は、自車両62が交差点へ進入して右旋回し、且つカメラ視野64aにおける接近物体が接近物体位置65eから65fへ移動して自車両62へ接近している状態である。また、接近物体位置65eは、時刻t3で撮影された接近物体の位置を示し、接近物体位置65fは、時刻t3+1(時刻t3の次のフレームの時刻)で撮影された接近物体の位置を示す。第4状態において、特徴点66eから特徴点66fへのオプティカルフローの水平成分は、ほとんど無い。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、特徴点66fは、接近物体として検出されない。   The fourth state is a state in which the host vehicle 62 enters the intersection and turns right, and the approaching object in the camera view 64a moves from the approaching object position 65e to 65f and approaches the host vehicle 62. The approaching object position 65e indicates the position of the approaching object imaged at time t3, and the approaching object position 65f indicates the position of the approaching object imaged at time t3 + 1 (the time of the next frame after time t3). In the fourth state, there is almost no horizontal component of the optical flow from the feature point 66e to the feature point 66f. Therefore, if only the determination of whether or not the horizontal component of the optical flow is in the direction of the center line is used, the feature point 66f is not detected as an approaching object.

図12は、第5状態における映像データとオプティカルフローの一例を示す概念図である。第5状態は、自車両62が交差点へ進入して右旋回し、且つカメラ視野64aにおける接近物体61aとカメラ視野64bにおける接近物体61bとが自車両62へ接近している状態である。この図において、黒の矢印は、オプティカルフローを表す。第5状態においては、接近物体61a,61bの各特徴点のオプティカルフローの水平成分は、自車両の右旋回により、左方向を指す。   FIG. 12 is a conceptual diagram illustrating an example of video data and an optical flow in the fifth state. The fifth state is a state in which the host vehicle 62 enters the intersection and turns right, and the approaching object 61a in the camera field of view 64a and the approaching object 61b in the camera field of view 64b are approaching the host vehicle 62. In this figure, a black arrow represents an optical flow. In the fifth state, the horizontal component of the optical flow of each feature point of the approaching objects 61a and 61b points to the left as the host vehicle turns to the right.

図13は、第5状態における映像データと旋回フローの一例を示す概念図である。この図において、黒の矢印は、旋回フローを表す。第5状態において、接近物体61a,61bの各特徴点の旋回フローは、自車両の右旋回により、左方向を指す。   FIG. 13 is a conceptual diagram illustrating an example of video data and a turning flow in the fifth state. In this figure, a black arrow represents a turning flow. In the fifth state, the turning flow of each feature point of the approaching objects 61a and 61b indicates the left direction due to the right turn of the host vehicle.

図14は、第5状態における映像データと水平残差フローの一例を示す概念図である。この図において、黒の矢印は、水平残差フローを表す。第5状態において、接近物体61a,61bの各特徴点の水平残差フローは、オプティカルフローの水平成分と旋回フローにより、左方向を指す。従って、オプティカルフローの水平成分が中央線方向であるか否かの判定だけを用いると、接近物体61bは、接近物体として検出されるが、接近物体61aは、接近物体として検出されない。   FIG. 14 is a conceptual diagram illustrating an example of video data and a horizontal residual flow in the fifth state. In this figure, the black arrow represents the horizontal residual flow. In the fifth state, the horizontal residual flow of each feature point of the approaching objects 61a and 61b points to the left due to the horizontal component of the optical flow and the turning flow. Therefore, if only the determination of whether or not the horizontal component of the optical flow is in the center line direction is used, the approaching object 61b is detected as an approaching object, but the approaching object 61a is not detected as an approaching object.

実施の形態1及び実施の形態2に示されたようなオプティカルフローの垂直成分に基づいて接近物体を検出する場合の具体例について以下に説明する。   A specific example in the case of detecting an approaching object based on the vertical component of the optical flow as shown in the first and second embodiments will be described below.

図15は、第6状態における映像データとオプティカルフローの一例を示す概念図である。第6状態は、自車両62が交差点へ進入して右旋回し、且つカメラ視野64aにおける接近物体61aとカメラ視野64bにおける接近物体61bとが自車両62へ接近し、且つカメラ11が上へ揺れた状態である。この図において、黒の矢印は、オプティカルフローを表す。第6状態においては、接近物体61a,61bの各特徴点のオプティカルフローの水平成分は、自車両の右旋回により、左方向を指す。   FIG. 15 is a conceptual diagram showing an example of video data and an optical flow in the sixth state. In the sixth state, the host vehicle 62 enters the intersection and turns right, the approaching object 61a in the camera view 64a and the approaching object 61b in the camera view 64b approach the own vehicle 62, and the camera 11 swings upward. It is in the state. In this figure, a black arrow represents an optical flow. In the sixth state, the horizontal component of the optical flow of each feature point of the approaching objects 61a and 61b indicates the left direction due to the right turn of the host vehicle.

図16は、第6状態における映像データとオプティカルフローの垂直成分の一例を示す概念図である。この図において、黒の矢印は、オプティカルフローの垂直成分を表す。第6状態において、接近物体61a,61b以外(背景)のオプティカルフローの垂直成分は、カメラ11が上へ揺れたことにより、下方向を指す。   FIG. 16 is a conceptual diagram illustrating an example of vertical components of video data and an optical flow in the sixth state. In this figure, the black arrow represents the vertical component of the optical flow. In the sixth state, the vertical component of the optical flow other than the approaching objects 61a and 61b (background) indicates the downward direction due to the camera 11 shaking upward.

図17は、第6状態における映像データと縦揺れフローの一例を示す概念図である。この図において、黒の矢印は、縦揺れフローを表す。第6状態において、各縦揺れフローは、カメラ11が上へ揺れたことにより、下方向を指す。   FIG. 17 is a conceptual diagram illustrating an example of video data and pitching flow in the sixth state. In this figure, the black arrow represents the pitching flow. In the sixth state, each pitch flow indicates a downward direction due to the camera 11 swinging upward.

図18は、第6状態における映像データと垂直残差フローの一例を示す概念図である。この図において、黒の矢印は、垂直残差フローを表す。第6状態において、接近物体61a,61b以外(背景)の垂直残差フローは、縦揺れ補正部32の処理により、ほとんど無くなる。また、接近物体61a,61bの各特徴点の垂直残差フローだけが、大きく現れる。従って、実施の形態1及び実施の形態2に示されたようなオプティカルフローの垂直成分の大きさの判定により、接近物体61a,61bは、接近物体として検出される。   FIG. 18 is a conceptual diagram illustrating an example of video data and a vertical residual flow in the sixth state. In this figure, the black arrow represents the vertical residual flow. In the sixth state, the vertical residual flow other than the approaching objects 61 a and 61 b (background) is almost eliminated by the processing of the pitch correction unit 32. Further, only the vertical residual flow of each feature point of the approaching objects 61a and 61b appears greatly. Therefore, the approaching objects 61a and 61b are detected as approaching objects by determining the magnitude of the vertical component of the optical flow as described in the first and second embodiments.

上述した各実施の形態によれば、画面中央向きの水平成分だけに着目した場合にカメラと接近物体の関係によって原理的に検出困難な接近物体についても、オプティカルフローの垂直成分に着目して接近物体を抽出することにより、検知可能となる。   According to each of the above-described embodiments, when focusing only on the horizontal component facing the center of the screen, even for an approaching object that is difficult to detect in principle due to the relationship between the camera and the approaching object, the approach is focused on the vertical component of the optical flow. Detection is possible by extracting an object.

また、上述した各実施の形態によれば、自車両またはカメラに縦揺れが発生した場合でも、接近物体を検知することが可能である。   Further, according to each of the above-described embodiments, it is possible to detect an approaching object even when a pitching occurs in the host vehicle or the camera.

また、上述した実施の形態2によれば、自車両の旋回速度が速い場合でも、接近物体の検知が可能となる。   Further, according to the second embodiment described above, it is possible to detect an approaching object even when the turning speed of the host vehicle is high.

また、上述した実施の形態2によれば、画像中における接近物体の水平移動量が垂直移動量に比べて大きい場合、水平成分条件を用いて選択特徴点を抽出したほうが早期に検知することが可能になる。実施の形態2によれば、オプティカルフローの垂直成分と水平成分の両方を用いて統合的に判断することで、選択特徴点の検出性能を向上させることが可能になる。   Further, according to the second embodiment described above, when the horizontal movement amount of the approaching object in the image is larger than the vertical movement amount, it is detected earlier if the selected feature point is extracted using the horizontal component condition. It becomes possible. According to the second embodiment, it is possible to improve the detection performance of the selected feature point by making an integrated determination using both the vertical component and the horizontal component of the optical flow.

また、上述した各実施の形態によれば、特徴点を抽出して追跡し、特徴点から選択特徴点を選択することにより、画像上のすべての点について演算処理する必要がなく、演算すべき画素を効果的に選択できるので、低コストで実現可能である。   In addition, according to each of the above-described embodiments, by extracting and tracking feature points and selecting selected feature points from the feature points, it is not necessary to perform calculation processing on all points on the image, and calculation should be performed. Since the pixels can be effectively selected, it can be realized at low cost.

また、本発明に係る接近物体検出装置は、移動体のカメラや交差点における固定カメラ等に容易に適用することができ、カメラの性能をより高めることができる。   Moreover, the approaching object detection device according to the present invention can be easily applied to a camera of a moving body, a fixed camera at an intersection, and the like, and can further improve the performance of the camera.

なお、本発明は以下に示すようなコンピュータシステムにおいて適用可能である。図19は、本発明が適用されるコンピュータシステムの一例を示す図である。この図に示すコンピュータシステム900は、CPUやディスクドライブ等を内蔵した本体部901、本体部901からの指示により画像を表示するディスプレイ902、コンピュータシステム900に種々の情報を入力するためのキーボード903、ディスプレイ902の表示画面902a上の任意の位置を指定するマウス904及び外部のデータベース等にアクセスして他のコンピュータシステムに記憶されているプログラム等をダウンロードする通信装置905を有する。通信装置905は、ネットワーク通信カード、モデムなどが考えられる。   The present invention can be applied to the following computer system. FIG. 19 is a diagram illustrating an example of a computer system to which the present invention is applied. A computer system 900 shown in this figure includes a main body 901 incorporating a CPU, a disk drive, and the like, a display 902 that displays an image according to an instruction from the main body 901, a keyboard 903 for inputting various information to the computer system 900, A mouse 904 for designating an arbitrary position on the display screen 902a of the display 902 and a communication device 905 for accessing an external database or the like and downloading a program or the like stored in another computer system are provided. The communication device 905 may be a network communication card, a modem, or the like.

上述したような、接近物体検出装置を構成するコンピュータシステムにおいて上述した各ステップを実行させるプログラムを、接近物体検出プログラムとして提供することができる。このプログラムは、コンピュータシステムにより読み取り可能な記録媒体に記憶させることによって、接近物体検出装置を構成するコンピュータシステムに実行させることが可能となる。上述した各ステップを実行するプログラムは、ディスク910等の可搬型記録媒体に格納されるか、通信装置905により他のコンピュータシステムの記録媒体906からダウンロードされる。また、コンピュータシステム900に少なくとも接近物体検出機能を持たせる接近物体検出プログラムは、コンピュータシステム900に入力されてコンパイルされる。このプログラムは、コンピュータシステム900を、接近物体検出機能を有する接近物体検出システムとして動作させる。また、このプログラムは、例えばディスク910等のコンピュータ読み取り可能な記録媒体に格納されていても良い。ここで、コンピュータシステム900により読み取り可能な記録媒体としては、ROMやRAM等のコンピュータに内部実装される内部記憶装置、ディスク910やフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータシステム並びにそのデータベースや、通信装置905のような通信手段を介して接続されるコンピュータシステムでアクセス可能な各種記録媒体を含む。   A program for executing the above-described steps in the computer system constituting the approaching object detection device as described above can be provided as an approaching object detection program. By storing this program in a recording medium readable by the computer system, the program can be executed by the computer system constituting the approaching object detection device. A program for executing the above steps is stored in a portable recording medium such as a disk 910 or downloaded from a recording medium 906 of another computer system by the communication device 905. Further, an approaching object detection program for causing the computer system 900 to have at least an approaching object detection function is input to the computer system 900 and compiled. This program causes the computer system 900 to operate as an approaching object detection system having an approaching object detection function. Further, this program may be stored in a computer-readable recording medium such as a disk 910, for example. Here, examples of the recording medium readable by the computer system 900 include an internal storage device such as a ROM and a RAM, a portable storage such as a disk 910, a flexible disk, a DVD disk, a magneto-optical disk, and an IC card. It includes a medium, a database holding a computer program, or other computer systems and the database, and various recording media accessible by a computer system connected via communication means such as a communication device 905.

本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施の形態は、あらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、何ら拘束されない。更に、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、全て本発明の範囲内のものである。   The present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The scope of the present invention is shown by the scope of claims, and is not restricted by the text of the specification. Moreover, all modifications, various improvements, substitutions and modifications belonging to the equivalent scope of the claims are all within the scope of the present invention.

以上の実施の形態1〜2に関し、更に以下の付記を開示する。
(付記1)
接近物体の検出を行う接近物体検出装置であって、
撮影された第1画像と前記第1画像より前に撮影された第2画像とを取得する画像取得部と、
前記画像取得部により取得された前記第1画像及び前記第2画像に基づいて、前記第2画像内の第2点に対応する前記第1画像内の第1点を検索する検索部と、
前記検索部により検索された前記第2点から前記第1点へのオプティカルフローを算出するオプティカルフロー算出部と、
前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する判定部と、
を備える接近物体検出装置。
(付記2)
前記判定部は、前記オプティカルフロー算出部により算出された前記第1点へのオプティカルフローの鉛直成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定する、
付記1に記載の接近物体検出装置。
(付記3)
前記画像取得部は更に、前記第2画像より前に撮影された第3画像を取得し、
前記検索部は更に、前記画像取得部により取得された前記第3画像及び前記第1画像及び前記第2画像に基づいて、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索し、
前記オプティカルフロー算出部は、前記検索部により検索された前記第3点から前記第1点へのオプティカルフローを算出し、
前記判定部は、前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
付記2に記載の接近物体検出装置。
(付記4)
前記接近物体検出装置の鉛直方向の運動に関する第1測定値を取得する測定値取得部と、
前記測定値取得部により取得された前記第1測定値に基づいて、鉛直方向の運動に起因する前記オプティカルフローの成分である第1成分を算出する運動成分算出部と、
前記運動成分算出部により算出された第1成分を、前記オプティカルフローの鉛直成分から減算することにより前記オプティカルフローの鉛直成分を補正するオプティカルフロー補正部と、
を更に備え、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
付記1に記載の接近物体検出装置。
(付記5)
前記測定値取得部は更に、前記接近物体検出装置の水平方向の運動に関する第2測定値を取得し、
前記運動成分算出部は更に、前記測定値取得部により取得された前記第2測定値に基づいて、水平方向の運動に起因する前記オプティカルフローの成分である第2成分を算出し、
前記オプティカルフロー補正部は更に、前記運動成分算出部により算出された第2成分を、前記オプティカルフローの水平成分から減算することにより前記オプティカルフローの水平成分を補正し、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分及び水平成分に基づいて、該第1点が接近物体を示すか否かを判定する、
付記4に記載の接近物体検出装置。
(付記6)
前記判定部は、前記オプティカルフロー算出部により算出された前記第1点へのオプティカルフローの鉛直成分の大きさと水平成分の方向及び大きさとに基づいて、該第1点が接近物体を示すか否かを判定する、
付記1に記載の接近物体検出装置。
(付記7)
前記測定値取得部は更に、前記接近物体検出装置の移動速度を取得し、
前記判定部は、前記測定値取得部により取得された前記移動速度に基づいて前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分に基づいて該第1点が接近物体を示すか否かを判定する、
付記6に記載の接近物体検出装置。
(付記8)
前記判定部は、前記移動速度が所定の速度閾値より大きい場合、前記第1点へのオプティカルフローの鉛直成分を前記選択成分として選択する、
付記7に記載の接近物体検出装置。
(付記9)
前記第1画像から特徴点を抽出して前記第1点とし、前記第2画像から特徴点を抽出して前記第2点とする特徴点抽出部を、
更に備える、
付記1に記載の接近物体検出装置。
(付記10)
前記特徴点抽出部は、コーナー抽出処理により特徴点を抽出する、
付記9に記載の接近物体検出装置。
(付記11)
前記判定部により接近物体を示すと判定された複数の第1点に基づいて、該接近物体を示す領域を決定する領域決定部を、
更に備える、
付記1に記載の接近物体検出装置。
(付記12)
前記領域決定部は、前記判定部により接近物体を示すと判定された複数の第1点に対するクラスタリング処理により、前記接近物体を示す領域を決定する、
付記1に記載の接近物体検出装置。
(付記13)
前記領域決定部により決定された前記領域と前記第2画像とを合成した合成画像を生成する画像生成部を、
更に備える、
付記12に記載の接近物体検出装置。
(付記14)
前記画像生成部により生成された合成画像を表示する表示部を、
更に備える、
付記13に記載の接近物体検出装置。
(付記15)
前記第1画像及び前記第2画像を撮影するカメラを、
更に備える、
付記1に記載の接近物体検出装置。
(付記16)
前記接近物体検出装置の前記鉛直方向の運動に関する前記第1測定値を測定する第1運動測定部を、
更に備える、
付記1に記載の接近物体検出装置。
(付記17)
前記接近物体検出装置の前記水平方向の運動に関する前記第2測定値を測定する第2運動測定部を、
更に備える、
付記16に記載の接近物体検出装置。
(付記18)
前記第1運動測定部は、角速度センサである、
付記16に記載の接近物体検出装置。
(付記19)
接近物体の検出をコンピュータに実行させる接近物体検出プログラムであって、
撮影された第1画像と前記第1画像より前に撮影された第2画像とを取得し、
取得された前記第1画像及び前記第2画像に基づいて、前記第2画像内の第2点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローを算出し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことをコンピュータに実行させる接近物体検出プログラム。
(付記20)
接近物体の検出を行う接近物体検出方法であって、
撮影された第1画像と前記第1画像より前に撮影された第2画像とを取得し、
取得された前記第1画像及び前記第2画像に基づいて、前記第2画像内の第2点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローを算出し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことを行う接近物体検出方法。
The following additional notes are further disclosed with respect to the first and second embodiments.
(Appendix 1)
An approaching object detection device that detects an approaching object,
An image acquisition unit for acquiring a captured first image and a second image captured before the first image;
A search unit for searching for a first point in the first image corresponding to a second point in the second image based on the first image and the second image acquired by the image acquisition unit;
An optical flow calculation unit that calculates an optical flow from the second point to the first point searched by the search unit;
A determination unit that determines whether or not the first point indicates an approaching object based on a vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit;
An approaching object detection device comprising:
(Appendix 2)
The determination unit determines whether the first point indicates an approaching object based on the magnitude of the vertical component of the optical flow to the first point calculated by the optical flow calculation unit.
The approaching object detection device according to appendix 1.
(Appendix 3)
The image acquisition unit further acquires a third image taken before the second image,
The search unit is further configured to, based on the third image, the first image, and the second image acquired by the image acquisition unit, in the first image corresponding to a third point in the third image. Search for the first point,
The optical flow calculation unit calculates an optical flow from the third point searched by the search unit to the first point;
When the magnitude of the vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit is smaller than a predetermined vertical component threshold, the determination unit starts from the third point. Based on the vertical component of the optical flow to one point, it is determined whether or not the first point indicates an approaching object.
The approaching object detection device according to attachment 2.
(Appendix 4)
A measurement value acquisition unit that acquires a first measurement value related to the vertical movement of the approaching object detection device;
Based on the first measurement value acquired by the measurement value acquisition unit, a motion component calculation unit that calculates a first component that is a component of the optical flow due to vertical motion;
An optical flow correction unit that corrects the vertical component of the optical flow by subtracting the first component calculated by the motion component calculation unit from the vertical component of the optical flow;
Further comprising
The determination unit determines whether the first point indicates an approaching object based on a vertical component of the optical flow to the first point corrected by the optical flow correction unit.
The approaching object detection device according to appendix 1.
(Appendix 5)
The measurement value acquisition unit further acquires a second measurement value related to a horizontal movement of the approaching object detection device,
The motion component calculation unit further calculates a second component that is a component of the optical flow caused by a horizontal motion based on the second measurement value acquired by the measurement value acquisition unit,
The optical flow correction unit further corrects the horizontal component of the optical flow by subtracting the second component calculated by the motion component calculation unit from the horizontal component of the optical flow,
The determination unit determines whether the first point indicates an approaching object based on a vertical component and a horizontal component of the optical flow to the first point corrected by the optical flow correction unit.
The approaching object detection device according to appendix 4.
(Appendix 6)
The determination unit determines whether the first point indicates an approaching object based on the vertical component size of the optical flow to the first point calculated by the optical flow calculation unit and the direction and size of the horizontal component. To determine,
The approaching object detection device according to appendix 1.
(Appendix 7)
The measurement value acquisition unit further acquires the moving speed of the approaching object detection device,
The determination unit selects at least one of a vertical component and a horizontal component of the optical flow to the first point based on the moving speed acquired by the measurement value acquisition unit as a selection component. Based on whether the first point indicates an approaching object,
The approaching object detection device according to appendix 6.
(Appendix 8)
The determination unit selects, as the selection component, a vertical component of an optical flow to the first point when the moving speed is greater than a predetermined speed threshold.
The approaching object detection device according to appendix 7.
(Appendix 9)
A feature point extraction unit that extracts a feature point from the first image as the first point and extracts a feature point from the second image as the second point;
In addition,
The approaching object detection device according to appendix 1.
(Appendix 10)
The feature point extraction unit extracts a feature point by a corner extraction process;
The approaching object detection device according to appendix 9.
(Appendix 11)
An area determination unit that determines an area indicating the approaching object based on a plurality of first points determined to indicate the approaching object by the determination unit;
In addition,
The approaching object detection device according to appendix 1.
(Appendix 12)
The region determination unit determines a region indicating the approaching object by clustering processing on a plurality of first points determined to indicate the approaching object by the determination unit.
The approaching object detection device according to appendix 1.
(Appendix 13)
An image generation unit that generates a combined image obtained by combining the region determined by the region determination unit and the second image;
In addition,
The approaching object detection device according to attachment 12.
(Appendix 14)
A display unit for displaying the composite image generated by the image generation unit;
In addition,
The approaching object detection device according to attachment 13.
(Appendix 15)
A camera that captures the first image and the second image;
In addition,
The approaching object detection device according to appendix 1.
(Appendix 16)
A first motion measurement unit that measures the first measurement value related to the vertical motion of the approaching object detection device;
In addition,
The approaching object detection device according to appendix 1.
(Appendix 17)
A second motion measurement unit that measures the second measurement value related to the horizontal motion of the approaching object detection device;
In addition,
The approaching object detection device according to appendix 16.
(Appendix 18)
The first motion measurement unit is an angular velocity sensor.
The approaching object detection device according to appendix 16.
(Appendix 19)
An approaching object detection program for causing a computer to detect an approaching object,
Obtaining a first image taken and a second image taken before the first image;
Searching for a first point in the first image corresponding to a second point in the second image based on the acquired first image and the second image;
Calculating an optical flow from the searched second point to the first point;
Based on the calculated vertical component of the optical flow from the second point to the first point, it is determined whether or not the first point indicates an approaching object.
An approaching object detection program that causes a computer to execute this.
(Appendix 20)
An approaching object detection method for detecting an approaching object,
Obtaining a first image taken and a second image taken before the first image;
Searching for a first point in the first image corresponding to a second point in the second image based on the acquired first image and the second image;
Calculating an optical flow from the searched second point to the first point;
Based on the calculated vertical component of the optical flow from the second point to the first point, it is determined whether or not the first point indicates an approaching object.
An approaching object detection method that does this.

実施の形態1の接近物体表示装置の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an approaching object display device according to a first embodiment. 画像処理部12aの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image process part 12a. 実施の形態1の接近物体表示装置の動作の一例を示すフローチャートである。6 is a flowchart illustrating an example of an operation of the approaching object display device according to the first embodiment. 実施の形態1の特徴点情報の構成の一例を示す表である。4 is a table illustrating an example of a configuration of feature point information according to the first embodiment. 画像処理部12bの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image process part 12b. 第1状態における自車両と接近物体の位置関係の一例を示す平面図である。It is a top view which shows an example of the positional relationship of the own vehicle and approaching object in a 1st state. 第1状態におけるオプティカルフローの一例を示す概念図である。It is a conceptual diagram which shows an example of the optical flow in a 1st state. 第2状態における映像データとオプティカルフローの一例を示す概念図である。It is a conceptual diagram which shows an example of the video data and optical flow in a 2nd state. 第3状態における自車両と接近物体の位置関係の一例を示す平面図である。It is a top view which shows an example of the positional relationship of the own vehicle and approaching object in a 3rd state. 第3状態におけるオプティカルフローの一例を示す概念図である。It is a conceptual diagram which shows an example of the optical flow in a 3rd state. 第4状態における自車両と接近物体の位置関係の一例を示す平面図である。It is a top view which shows an example of the positional relationship of the own vehicle and approaching object in a 4th state. 第5状態における映像データとオプティカルフローの一例を示す概念図である。It is a conceptual diagram which shows an example of the video data in the 5th state, and an optical flow. 第5状態における映像データと旋回フローの一例を示す概念図である。It is a conceptual diagram which shows an example of the video data in the 5th state, and a turning flow. 第5状態における映像データと水平残差フローの一例を示す概念図である。It is a conceptual diagram which shows an example of the video data in a 5th state, and a horizontal residual flow. 第6状態における映像データとオプティカルフローの一例を示す概念図である。It is a conceptual diagram which shows an example of the video data and optical flow in a 6th state. 第6状態における映像データとオプティカルフローの垂直成分の一例を示す概念図である。It is a conceptual diagram which shows an example of the vertical component of the video data in the 6th state, and an optical flow. 第6状態における映像データと縦揺れフローの一例を示す概念図である。It is a conceptual diagram which shows an example of the video data in a 6th state, and a pitching flow. 第6状態における映像データと垂直残差フローの一例を示す概念図である。It is a conceptual diagram which shows an example of the video data and vertical residual flow in a 6th state. 本発明が適用されるコンピュータシステムの一例を示す図である。It is a figure which shows an example of the computer system to which this invention is applied.

符号の説明Explanation of symbols

11 カメラ、12a,12b 画像処理部、14 表示部、16 記憶部、17 角速度センサ、18 車速センサ、21 特徴点抽出部、22 オプティカルフロー算出部、23 特徴点情報記録部、31 縦揺れフロー算出部、32 縦揺れ補正部、33a,33b 接近物体判定部、34 映像取得部、35 車両状態取得部、36 映像合成部、41 旋回フロー算出部、42 旋回補正部。 DESCRIPTION OF SYMBOLS 11 Camera, 12a, 12b Image processing part, 14 Display part, 16 Storage part, 17 Angular velocity sensor, 18 Vehicle speed sensor, 21 Feature point extraction part, 22 Optical flow calculation part, 23 Feature point information recording part, 31 Pitch flow calculation Part, 32 pitch correction part, 33a, 33b approaching object determination part, 34 video acquisition part, 35 vehicle state acquisition part, 36 video composition part, 41 turning flow calculation part, 42 turning correction part.

Claims (5)

接近物体の検出を行う接近物体検出装置であって、
撮影された第1画像と前記第1画像より前に撮影された第2画像と前記第2画像より前に撮影された第3画像とを取得する画像取得部と、
前記画像取得部により取得された前記第1画像前記第2画像、及び前記第3画像に基づいて、前記第2画像内の第2点に対応し、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索する検索部と、
前記検索部により検索された前記第2点から前記第1点へのオプティカルフローと、前記第3点から前記第1点へのオプティカルフローとを算出するオプティカルフロー算出部と、
前記接近物体検出装置の移動速度を取得する速度取得部と、
前記速度取得部により取得された前記移動速度に基づいて、前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定する判定部と、
を備え
前記判定部は、前記オプティカルフロー算出部により算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する接近物体検出装置。
An approaching object detection device that detects an approaching object,
An image acquisition unit that acquires a captured first image, a second image captured before the first image, and a third image captured before the second image ;
Based on the first image , the second image , and the third image acquired by the image acquisition unit, the second point in the second image corresponds to the third point in the third image. A search unit for searching for a first point in the corresponding first image;
An optical flow calculation unit that calculates an optical flow from the second point to the first point searched by the search unit and an optical flow from the third point to the first point ;
A speed acquisition unit for acquiring a moving speed of the approaching object detection device;
Based on the moving speed acquired by the speed acquisition unit , at least one of a vertical component and a horizontal component of the optical flow from the second point to the first point calculated by the optical flow calculation unit is selected. A determination unit that determines whether or not the first point indicates an approaching object based on the size of the selection component ;
Equipped with a,
When the magnitude of the vertical component of the optical flow from the second point to the first point calculated by the optical flow calculation unit is smaller than a predetermined vertical component threshold, the determination unit starts from the third point. based on the vertical component of the optical flow to a point, the first point is you determine whether indicating the approaching object approaching object detection device.
前記接近物体検出装置の鉛直方向の運動に関する第1測定値を取得する測定値取得部と、
前記測定値取得部により取得された前記第1測定値に基づいて、鉛直方向の運動に起因する前記オプティカルフローの成分である第1成分を算出する運動成分算出部と、
前記運動成分算出部により算出された第1成分を、前記オプティカルフローの鉛直成分から減算することにより前記オプティカルフローの鉛直成分を補正するオプティカルフロー補正部と、
を更に備え、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
請求項1記載の接近物体検出装置。
A measurement value acquisition unit that acquires a first measurement value related to the vertical movement of the approaching object detection device;
Based on the first measurement value acquired by the measurement value acquisition unit, a motion component calculation unit that calculates a first component that is a component of the optical flow due to vertical motion;
An optical flow correction unit that corrects the vertical component of the optical flow by subtracting the first component calculated by the motion component calculation unit from the vertical component of the optical flow;
Further comprising
The determination unit determines whether the first point indicates an approaching object based on a vertical component of the optical flow to the first point corrected by the optical flow correction unit.
Claim 1 Symbol placement of the approaching object detection device.
前記測定値取得部は更に、前記接近物体検出装置の水平方向の運動に関する第2測定値を取得し、
前記運動成分算出部は更に、前記測定値取得部により取得された前記第2測定値に基づいて、水平方向の運動に起因する前記オプティカルフローの成分である第2成分を算出し、
前記オプティカルフロー補正部は更に、前記運動成分算出部により算出された第2成分を、前記オプティカルフローの水平成分から減算することにより前記オプティカルフローの水平成分を補正し、
前記判定部は、前記オプティカルフロー補正部により補正された前記第1点へのオプティカルフローの鉛直成分及び水平成分に基づいて、該第1点が接近物体を示すか否かを判定する、
請求項に記載の接近物体検出装置。
The measurement value acquisition unit further acquires a second measurement value related to a horizontal movement of the approaching object detection device,
The motion component calculation unit further calculates a second component that is a component of the optical flow caused by a horizontal motion based on the second measurement value acquired by the measurement value acquisition unit,
The optical flow correction unit further corrects the horizontal component of the optical flow by subtracting the second component calculated by the motion component calculation unit from the horizontal component of the optical flow,
The determination unit determines whether the first point indicates an approaching object based on a vertical component and a horizontal component of the optical flow to the first point corrected by the optical flow correction unit.
The approaching object detection device according to claim 2 .
接近物体の検出をコンピュータに実行させる接近物体検出プログラムであって、
撮影された第1画像と前記第1画像より前に撮影された第2画像と前記第2画像より前に撮影された第3画像とを取得し、
取得された前記第1画像前記第2画像、及び前記第3画像に基づいて、前記第2画像内の第2点に対応し、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローと、前記第3点から前記第1点へのオプティカルフローとを算出し、
自身の移動速度を取得し、
取得された前記移動速度に基づいて、算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことをコンピュータに実行させる接近物体検出プログラム。
An approaching object detection program for causing a computer to detect an approaching object,
Obtaining a captured first image, a second image captured before the first image, and a third image captured before the second image ;
Based on the acquired first image , the second image , and the third image , the first corresponding to the second point in the second image and corresponding to the third point in the third image. Search for the first point in the image,
Calculating an optical flow from the second point to the first point, and an optical flow from the third point to the first point ,
Get their own movement speed,
Based on the obtained moving speed, at least one of a vertical component and a horizontal component of the optical flow from the second point to the first point calculated is selected as a selection component, and the size of the selection component To determine whether the first point indicates an approaching object ,
If the calculated vertical component of the optical flow from the second point to the first point is smaller than a predetermined vertical component threshold, the optical flow is calculated based on the vertical component of the optical flow from the third point to the first point. Te, the first point to determine whether indicating the approaching object,
An approaching object detection program that causes a computer to execute this.
接近物体の検出を行う接近物体検出方法であって、
撮影された第1画像と前記第1画像より前に撮影された第2画像と前記第2画像より前に撮影された第3画像とを取得し、
取得された前記第1画像前記第2画像、及び前記第3画像に基づいて、前記第2画像内の第2点に対応し、前記第3画像内の第3点に対応する前記第1画像内の第1点を検索し、
検索された前記第2点から前記第1点へのオプティカルフローと、前記第3点から前記第1点へのオプティカルフローとを算出し、
自身の移動速度を取得し、
取得された前記移動速度に基づいて、算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分及び水平成分の少なくともいずれかを選択して選択成分とし、前記選択成分の大きさに基づいて、該第1点が接近物体を示すか否かを判定し、
算出された前記第2点から前記第1点へのオプティカルフローの鉛直成分の大きさが所定の鉛直成分閾値より小さい場合、前記第3点から前記第1点へのオプティカルフローの鉛直成分に基づいて、該第1点が接近物体を示すか否かを判定する、
ことを行う接近物体検出方法。
An approaching object detection method for detecting an approaching object,
Obtaining a captured first image, a second image captured before the first image, and a third image captured before the second image ;
Based on the acquired first image , the second image , and the third image , the first corresponding to the second point in the second image and corresponding to the third point in the third image. Search for the first point in the image,
Calculating an optical flow from the second point to the first point, and an optical flow from the third point to the first point ,
Get their own movement speed,
Based on the obtained moving speed, at least one of a vertical component and a horizontal component of the optical flow from the second point to the first point calculated is selected as a selection component, and the size of the selection component To determine whether the first point indicates an approaching object ,
If the calculated vertical component of the optical flow from the second point to the first point is smaller than a predetermined vertical component threshold, the optical flow is calculated based on the vertical component of the optical flow from the third point to the first point. Te, the first point to determine whether indicating the approaching object,
An approaching object detection method that does this.
JP2008303948A 2008-11-28 2008-11-28 Approaching object detection device, approaching object detection program, approaching object detection method Expired - Fee Related JP5251460B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008303948A JP5251460B2 (en) 2008-11-28 2008-11-28 Approaching object detection device, approaching object detection program, approaching object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008303948A JP5251460B2 (en) 2008-11-28 2008-11-28 Approaching object detection device, approaching object detection program, approaching object detection method

Publications (2)

Publication Number Publication Date
JP2010128869A JP2010128869A (en) 2010-06-10
JP5251460B2 true JP5251460B2 (en) 2013-07-31

Family

ID=42329208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008303948A Expired - Fee Related JP5251460B2 (en) 2008-11-28 2008-11-28 Approaching object detection device, approaching object detection program, approaching object detection method

Country Status (1)

Country Link
JP (1) JP5251460B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012160657A1 (en) * 2011-05-24 2012-11-29 富士通株式会社 Object approach detection device, object approach detection method, and program
JP5724859B2 (en) * 2011-12-06 2015-05-27 株式会社デンソー Image processing device
JP6323262B2 (en) * 2014-08-29 2018-05-16 トヨタ自動車株式会社 Vehicle approaching object detection device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4162910B2 (en) * 2001-05-11 2008-10-08 本田技研工業株式会社 Approach detection device, approach detection method, and approach detection program
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP3972659B2 (en) * 2002-01-17 2007-09-05 日産自動車株式会社 Rear side warning device for vehicles
JP4067340B2 (en) * 2002-06-05 2008-03-26 富士重工業株式会社 Object recognition device and object recognition method
JP2004088599A (en) * 2002-08-28 2004-03-18 Toshiba Corp Image monitoring apparatus and method therefor

Also Published As

Publication number Publication date
JP2010128869A (en) 2010-06-10

Similar Documents

Publication Publication Date Title
JP6484228B2 (en) Visually enhanced navigation
JP4919036B2 (en) Moving object recognition device
JP2020064046A (en) Vehicle position determining method and vehicle position determining device
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
KR20110076899A (en) Method of and arrangement for blurring an image
JP6830140B2 (en) Motion vector field determination method, motion vector field determination device, equipment, computer readable storage medium and vehicle
JP2011505610A (en) Method and apparatus for mapping distance sensor data to image sensor data
JP5834933B2 (en) Vehicle position calculation device
JP2010257377A (en) Vehicle surroundings monitoring apparatus
JP2014139766A (en) Road surface shape estimation device
JP2011134207A (en) Drive recorder and map generation system
JP2013097675A (en) Gradient estimation device, gradient estimation method, and gradient estimation program
JP6384802B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP5086824B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2010245628A (en) Camera calibration device
JP5251460B2 (en) Approaching object detection device, approaching object detection program, approaching object detection method
JP6384803B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP2011064639A (en) Distance measuring device and distance measuring method
JP4752319B2 (en) Image recognition apparatus and image recognition method
JP2004126905A (en) Image processor
JP5276032B2 (en) Device for calculating the position of an object
JP5891802B2 (en) Vehicle position calculation device
JP2013097676A (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program and information presentation device
JP4857159B2 (en) Vehicle driving support device
JP2018097776A (en) Obstacle detection device and obstacle detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees