JP5353455B2 - Perimeter monitoring device - Google Patents
Perimeter monitoring device Download PDFInfo
- Publication number
- JP5353455B2 JP5353455B2 JP2009138692A JP2009138692A JP5353455B2 JP 5353455 B2 JP5353455 B2 JP 5353455B2 JP 2009138692 A JP2009138692 A JP 2009138692A JP 2009138692 A JP2009138692 A JP 2009138692A JP 5353455 B2 JP5353455 B2 JP 5353455B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- dimensional
- optical flow
- unit
- collision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両やロボットなどの自走する移動体に搭載されて、該移動体の周囲の対象物体を監視する周辺監視装置に関し、特に前記移動体の前記対象物体への衝突判定の方法に関する。 The present invention relates to a periphery monitoring device that is mounted on a self-propelled mobile body such as a vehicle or a robot and monitors a target object around the mobile body, and more particularly to a method for determining a collision of the mobile body with the target object. .
前記のような衝突判定を行う周辺監視装置として用いることができる典型的な従来技術には、たとえば以下の特許文献1〜3が挙げられる。特許文献1では、単一カメラの時系列2次元画像から縦または横の着目エッジのオプティカルフローを算出し、そのオプティカルフローから衝突時間を算出することで、衝突危険性を高速で検出できるようにした車両用衝突警報方法及び装置が提案されている。
Examples of typical conventional techniques that can be used as the periphery monitoring device that performs the collision determination as described above include the following
特許文献2も同様に、単一カメラの時系列2次元画像から縦・横エッジのオプティカルフローを算出し、そのオプティカルフロー上での横方向の移動速度成分を用いて対象領域を抽出し、抽出した対象領域に含まれる縦方向の移動速度成分を基に、自車両に到達するまでの時間を算出することで衝突の危険性を判定するようにした衝突判定装置および方法が提案されている。
Similarly,
また、特許文献3には、単一カメラの時系列2次元画像上の同一対象物体に属する任意の2点を評価点として抽出し、画像上に設定された任意の座標軸を基準として、抽出された2点から算出した情報を基に対象物体がカメラの撮像面と衝突するのに要する時間を算出するようにした衝突時間算出装置および障害物検出装置が提案されている。
In
これらの手法では、1台(単眼)のカメラによって衝突が生じる可能性のある時間を算出することが可能であるが、相対速度が小さい場合や、対象物体が遠くに存在するような場合で、対象物体の画面上での移動速度が小さいと、精度良く検出することができない可能性がある。また、単眼の時系列画像による衝突可能性の判断は、対象物体の種類(車種・人)などの判別や抽出が必要となり、処理も複雑となる。 With these methods, it is possible to calculate the time when a collision can occur with one (monocular) camera, but when the relative speed is low or the target object exists far away, If the moving speed of the target object on the screen is low, there is a possibility that it cannot be accurately detected. In addition, the determination of the possibility of collision using a monocular time-series image requires determination and extraction of the type of target object (vehicle type / person), and the processing becomes complicated.
そこで、このような問題に対応することができる従来技術としては、特許文献4が挙げられる。その従来技術によれば、2台の(ステレオ)カメラによる撮像画像から3次元オプティカルフローを算出し、3次元情報で静止物体と対象物体とを判定している。具体的には、ステレオ画像から距離情報を算出し、道路モデルに基づいて、視差方向において位置的に対応する道路面の高さと比較して、道路面より上にある場合には、その位置のデータを立体物として抽出し、抽出した立体物に対して3次元オプティカルフローを算出し、自走速度と操舵方向とのオプティカルフロー成分を除いた結果、移動ベクトルが残るものを対象物体、そうでない物を静止物体として判定している。
Therefore,
上述の従来技術では、先ず基準画像と参照画像との間の対応付け結果に対して、路面モデルを用いて、静止物体と対象物体との両方を抽出し、その後の動きから、いずれの物体であるのかの判定を行う必要がある。したがって、対応付け回数が大幅に削減されたわけではないので、処理の高速化(フレームレートの向上)を実現できないという問題がある。 In the above-described conventional technology, first, both the stationary object and the target object are extracted from the correspondence result between the standard image and the reference image by using the road surface model. It is necessary to determine whether there is any. Therefore, since the number of associations is not significantly reduced, there is a problem that it is not possible to realize high-speed processing (frame rate improvement).
本発明の目的は、処理の高速化(フレームレートの向上)を実現することができる周辺監視装置および周辺監視方法を提供することである。 An object of the present invention is to provide a periphery monitoring device and a periphery monitoring method capable of realizing high-speed processing (improving the frame rate).
本発明の周辺監視装置は、移動体に搭載され、該移動体の周囲の対象物体を監視する周辺監視装置において、前記周囲の画像を時系列に取得する画像取得部と、前記画像取得部で得られた時系列画像から移動成分を算出する時系列情報算出部と、前記時系列情報算出部で得られた前記移動成分を基に、前記対象物体が存在する可能性の高い候補領域を抽出する対象物体候補領域抽出部と、前記対象物体候補領域抽出部で算出された前記候補領域の3次元情報を取得する3次元情報取得部と、前記3次元情報取得部で得られた前記候補領域の3次元情報と、該周辺監視装置との位置関係とから、衝突可能性を判定する衝突判定部とを含み、前記時系列情報算出部は、前記画像取得部で得られた時系列画像の対応点探索処理によって、2次元オプティカルフローを前記移動成分として算出し、前記対象物体候補領域抽出部は、前記2次元オプティカルフローが予め定める第1閾値未満である領域を、前記候補領域として抽出することを特徴とする。
The periphery monitoring device of the present invention is mounted on a moving body, and in a periphery monitoring device that monitors a target object around the moving body, an image acquisition unit that acquires the surrounding images in time series, and the image acquisition unit Based on the time-series information calculation unit that calculates a movement component from the obtained time-series image and the movement component obtained by the time-series information calculation unit, a candidate area where the target object is likely to exist is extracted A target object candidate area extraction unit, a three-dimensional information acquisition unit that acquires three-dimensional information of the candidate area calculated by the target object candidate area extraction unit, and the candidate area obtained by the three-dimensional information acquisition unit and the three-dimensional information, and a positional relationship between the peripheral monitoring unit, viewed contains a determining collision determination unit a collision possibility, the time-series information calculation unit, the time-series images obtained by the image acquisition unit The corresponding point search process of Calculates Ikarufuro as the moving component, the target object candidate region extraction unit, an area the two-dimensional optical flow is less than the first predetermined threshold value, and extracts as the candidate region.
上記の構成によれば、移動体に搭載されて周囲の対象物体を監視する周辺監視装置において、単眼またはステレオのカメラなどの画像取得部で前記周囲の画像を時系列に取得し、得られた時系列画像から時系列情報算出部が2次元オプティカルフローなどの移動成分を算出すると、先ず対象物体候補領域抽出部が、前記移動成分を基に、前記対象物体が存在する可能性の高い候補領域を抽出する。その後、その候補領域に対して、3次元情報取得部が、前記単眼のカメラとは別途設けた距離測定部などで距離を算出することで、前記対象物体の候補領域の3次元(実空間上における位置)情報を取得する。或いは、前記ステレオカメラの場合、前記移動成分の算出に用いられた撮像画像を基準画像とするとき、もう1台のカメラによる撮像画像を参照画像として、前記対象物体の候補領域の3次元(実空間上における位置)情報を取得する。こうして得られた前記対象物体の候補領域の3次元情報と、該周辺監視装置との位置関係から、衝突判定部が衝突可能性を判定する。 According to the above configuration, in the periphery monitoring device that is mounted on a moving body and monitors a surrounding target object, the surrounding image is obtained in time series by an image obtaining unit such as a monocular or stereo camera, and obtained. When the time-series information calculating unit calculates a moving component such as a two-dimensional optical flow from the time-series image, first, the target object candidate region extracting unit is based on the moving component and the candidate region where the target object is likely to exist To extract. After that, the three-dimensional information acquisition unit calculates a distance for the candidate region using a distance measurement unit or the like provided separately from the monocular camera. Get position) information. Alternatively, in the case of the stereo camera, when a captured image used for calculating the moving component is used as a reference image, a three-dimensional (actual) of the candidate region of the target object is obtained using a captured image obtained by another camera as a reference image. (Location in space) information is acquired. The collision determination unit determines the possibility of collision from the three-dimensional information of the candidate area of the target object obtained in this way and the positional relationship with the periphery monitoring device.
したがって、先ず対象物体候補領域抽出部が、時系列画像から算出された移動成分から、側方飛び出しなどの衝突予測が難しい対象物体が存在する可能性の高い候補領域を限定し、次に3次元情報取得部が、その候補領域だけの3次元情報を算出し、衝突判定部でその抽出された対象物体の候補領域と監視装置との関係から衝突可能性の判定を行う。すなわち、自走状態で撮影された2次元時系列画像から、衝突予測が難しい対象物体候補領域のみに対し、詳しい3次元情報を求めて衝突危険性を判定する。こうして、複雑な物体認識処理や道路モデルなどを必要とせず、時系列画像から算出された情報のみを用いて対象物体の候補領域を限定することで、処理速度を速く(フレームレートを向上)することができる。 Therefore, first, the target object candidate area extraction unit limits candidate areas where there is a high possibility that a target object that is difficult to predict a collision, such as a side jump, from the moving components calculated from the time-series images, and then three-dimensionally. The information acquisition unit calculates three-dimensional information of only the candidate area, and the collision determination unit determines the possibility of collision from the relationship between the extracted candidate area of the target object and the monitoring device. That is, the risk of collision is determined by obtaining detailed three-dimensional information for only a target object candidate region that is difficult to predict from a two-dimensional time-series image captured in a self-running state. In this way, complicated object recognition processing and road models are not required, and the processing speed is increased (frame rate is improved) by limiting candidate object candidate regions using only information calculated from time-series images. be able to.
また、上記の構成によれば、前記移動成分として、対応点探索処理によって求めた2次元オプティカルフローを用いることで、画素単位の高精度な移動成分を求めることができる。
Moreover, according to said structure, the highly accurate movement component of a pixel unit can be calculated | required by using the two-dimensional optical flow calculated | required by the corresponding point search process as said movement component.
上記の構成によれば、前記3次元情報取得部で前記対象物体の候補領域と判断された位置に対応する3次元(実空間上における位置)情報を取得するにあたって、対象物体が正面に位置するような場合では、前記2次元オプティカルフローは小さくなり、相対速度が大きい場合には衝突の可能性が生じるので、該対象物体候補領域抽出部は、前記2次元オプティカルフローが予め定める値(第1閾値)未満である場合は、前記候補領域として抽出する。
According to the above structure, in order to obtain the 3-dimensional corresponding to the position determined that the candidate region of the target object (the position in the real space) information by the three-dimensional information acquisition unit, Target object positioned in front In such a case, the two-dimensional optical flow becomes small, and when the relative velocity is high, there is a possibility of a collision. Therefore, the target object candidate region extraction unit determines a value (first value ) determined in advance by the two-dimensional optical flow . If first threshold value) less than der Ru extracts as the candidate region.
したがって、演算処理量を抑えつつ、衝突の可能性のある対象物体を漏れなく抽出することができる。 Therefore, it is possible to extract a target object with a possibility of collision without omission while suppressing a calculation processing amount.
また、本発明の周辺監視装置では、前記対象物体候補領域抽出部は、前記予め定める第1閾値以上である2次元オプティカルフローを延長した直線の消失点の中から、最もフローが集まる領域を除外した領域を前記候補領域として抽出することを特徴とする。
In the periphery monitoring device of the present invention, the target object candidate region extraction unit excludes a region where the flow gathers most from a vanishing point of a straight line obtained by extending a two-dimensional optical flow that is equal to or more than the predetermined first threshold. The extracted area is extracted as the candidate area.
上記の構成によれば、移動体に搭載したカメラの時系列画像間に生じる2次元オプティカルフローの中で、その2次元オプティカルフローの延長線の最も集まる消失点は移動体の移動方向に応じて定まり、しかも道路などの静止物体の2次元オプティカルフローが集まる。 According to the above configuration, in the two-dimensional optical flow generated between the time-series images of the camera mounted on the moving body, the vanishing point where the extension lines of the two-dimensional optical flow are most collected depends on the moving direction of the moving body. In addition, two-dimensional optical flows of stationary objects such as roads are collected.
したがって、この領域を除外した領域を前記対象物体の候補領域として抽出することで、より効率的に、移動する対象物体のみを抽出することができる。 Therefore, by extracting an area excluding this area as a candidate area for the target object, it is possible to extract only the target object that moves more efficiently.
また、本発明の周辺監視装置では、前記3次元情報取得部は、前記画像取得部をステレオカメラとして得られたステレオ画像から、前記対象物体候補領域抽出部で算出された前記対象物体の候補領域と判断された位置に対応する3次元(実空間上における位置)情報を、前記ステレオ画像間の対応点探索処理によって算出することを特徴とする。 In the periphery monitoring device of the present invention, the three-dimensional information acquisition unit may calculate the target object candidate region calculated by the target object candidate region extraction unit from a stereo image obtained using the image acquisition unit as a stereo camera. The three-dimensional (position in the real space) information corresponding to the determined position is calculated by the corresponding point search process between the stereo images.
上記の構成によれば、別途距離情報を得る手段を用いることなく、画像のみの情報から距離情報を算出することができるので、シンプルな構成で衝突判定システムを構築することができる。 According to the above configuration, the distance information can be calculated from the information of only the image without using a means for obtaining the distance information separately, so that the collision determination system can be constructed with a simple configuration.
さらにまた、本発明の周辺監視装置では、前記3次元情報取得部は、前記対象物体候補領域抽出部で算出された前記対象物体の候補領域と判断された位置に対応する3次元(実空間上における位置)情報を取得する距離センサであることを特徴とする。 Furthermore, in the periphery monitoring device of the present invention, the three-dimensional information acquisition unit is a three-dimensional (in real space) corresponding to the position determined as the target object candidate region calculated by the target object candidate region extraction unit. The position sensor is a distance sensor that acquires information.
上記の構成によれば、ミリ波レーダなどの別途距離情報を得る手段を用いることで、特別な計算を行うことなく、前記距離情報を求めることができる。 According to said structure, the said distance information can be calculated | required without performing a special calculation by using the means to acquire distance information separately, such as a millimeter wave radar.
また、本発明の周辺監視装置では、前記衝突判定部は、前記時系列情報算出部で得られた前記移動成分と、前記3次元情報取得部で得られた前記候補領域の3次元情報とを用いて、前記候補領域の3次元オプティカルフローを算出する3次元オプティカルフロー算出部を備え、該3次元オプティカルフロー算出部で算出された3次元オプティカルフローと、該周辺監視装置との位置関係とから、衝突可能性を判定することを特徴とする。 In the periphery monitoring device of the present invention, the collision determination unit includes the movement component obtained by the time series information calculation unit and the three-dimensional information of the candidate area obtained by the three-dimensional information acquisition unit. And a three-dimensional optical flow calculation unit that calculates a three-dimensional optical flow of the candidate region, and the three-dimensional optical flow calculated by the three-dimensional optical flow calculation unit and the positional relationship between the periphery monitoring device and Determining the possibility of collision.
上記の構成によれば、3次元オプティカルフローと、該周辺監視装置との位置関係とから、衝突可能性を判定するので、判定処理が簡単である。 According to the above configuration, since the possibility of collision is determined from the three-dimensional optical flow and the positional relationship with the periphery monitoring device, the determination process is simple.
さらにまた、本発明の周辺監視装置では、前記衝突判定部は、前記3次元オプティカルフロー算出部で算出された前記候補領域の3次元オプティカルフローの向きおよび長さと、該周辺監視装置との交差判定によって衝突判定を行うことを特徴とする。 Furthermore, in the periphery monitoring device of the present invention, the collision determination unit determines the intersection and the direction and length of the three-dimensional optical flow of the candidate area calculated by the three-dimensional optical flow calculation unit and the periphery monitoring device. The collision determination is performed by
上記の構成によれば、前記3次元オプティカルフローの向きおよび長さの2つのパラメータを算出できれば、交差判定によって、対象物体が該周辺監視装置に向ってきているかどうかから、衝突可能性の有無を判定することができる。 According to the above configuration, if the two parameters of the direction and length of the three-dimensional optical flow can be calculated, whether or not there is a possibility of collision is determined based on whether or not the target object is facing the periphery monitoring device by the intersection determination. Can be determined.
また、本発明の周辺監視装置では、前記衝突判定部は、前記移動体の速度に対応して、衝突判定を行う前記対象物体までの距離を変更することを特徴とする。 In the periphery monitoring device of the present invention, the collision determination unit changes a distance to the target object on which the collision determination is performed according to the speed of the moving body.
上記の構成によれば、衝突判定を行う対象距離を固定するのではなく、現在の移動体の速度からして、安全と考えられる範囲、たとえば前記速度に対応した停止可能距離の範囲は除外するので、判定処理を軽減することができる。 According to the above configuration, the target distance for performing the collision determination is not fixed, but the range considered to be safe based on the current speed of the moving body, for example, the range of the stoppable distance corresponding to the speed is excluded. Therefore, the determination process can be reduced.
さらにまた、本発明の周辺監視装置では、前記衝突判定部は、前記3次元オプティカルフロー算出部で算出された前記候補領域の3次元オプティカルフローの長さが予め定める閾値以上大きい場合には衝突可能性領域と判定することを特徴とする。 Furthermore, in the periphery monitoring device of the present invention, the collision determination unit can collide when the length of the three-dimensional optical flow of the candidate area calculated by the three-dimensional optical flow calculation unit is greater than a predetermined threshold. It is characterized in that it is determined as a sex region.
上記の構成によれば、上述のようにして前記3次元オプティカルフローと該周辺監視装置との関係から衝突判定を行うにあたって、上述の判定で衝突可能性が低いと判定される領域でも、3次元オプティカルフローの長さが予め定める閾値以上大きい場合には、衝突可能性領域と判定する。 According to the above configuration, when performing a collision determination from the relationship between the three-dimensional optical flow and the periphery monitoring device as described above, even in a region where the possibility of collision is determined to be low in the above determination, the three-dimensional When the length of the optical flow is larger than a predetermined threshold value, it is determined as a collision possibility region.
したがって、3次元オプティカルフローの長さは対象物体の単位時間当りの相対的な移動量を表すので、それが前記閾値以上大きい場合には、急速に近付いている可能性があるので、衝突可能性領域と判定しておくことで、判定遅れとなることを回避することができる。 Therefore, since the length of the three-dimensional optical flow represents the relative movement amount of the target object per unit time, if it is larger than the threshold, there is a possibility that the target object is approaching rapidly. By determining the region, it is possible to avoid a determination delay.
また、本発明の周辺監視装置では、前記時系列情報算出部は、計測点毎に対応点探索処理を行うことを特徴とする。 In the periphery monitoring device of the present invention, the time series information calculation unit performs a corresponding point search process for each measurement point.
上記の構成によれば、前記移動成分としての2次元オプティカルフローを求めるにあたって、対応点探索処理を画素単位毎に行うことで、対象物体候補領域抽出部は、背景や路面を含まない対象物候補領域を詳細に抽出することができる。 According to the above configuration, when obtaining the two-dimensional optical flow as the moving component, the target object candidate area extraction unit performs the corresponding point search process for each pixel, so that the target object candidate area extraction unit does not include the background or the road surface. Regions can be extracted in detail.
さらにまた、本発明の周辺監視装置では、前記対象物体候補領域抽出部は、画面を予め複数の領域に分割しておき、その各領域の代表点に対して計測を行うことで、対象物体候補領域として抽出するか否かを判断することを特徴とする。 Furthermore, in the periphery monitoring device of the present invention, the target object candidate area extracting unit divides the screen into a plurality of areas in advance, and performs measurement on the representative point of each area, thereby the target object candidate It is characterized by determining whether to extract as a region.
上記の構成によれば、対象物体候補領域への切出しを行うにあたって、全ての計測点毎に2次元オプティカルフローを計算するのではなく、画面を予め複数の領域に分割しておき、その各領域の代表点に対して計測を行う。 According to the above configuration, when cutting out to the target object candidate area, instead of calculating the two-dimensional optical flow for every measurement point, the screen is divided into a plurality of areas in advance and each area is divided. Measurement is performed on the representative points.
したがって、計測点数を減らすことが可能となり、より高速な処理が可能になる。 Therefore, it is possible to reduce the number of measurement points and to perform higher speed processing.
本発明の周辺監視装置は、以上のように、移動体に搭載されて周囲の対象物体を監視する周辺監視装置において、時系列画像から2次元オプティカルフローなどの移動成分を算出して、その移動成分を基に衝突対象物体が存在する可能性の高い候補領域を抽出し、その候補領域の3次元情報と、該周辺監視装置との位置関係から、衝突可能性を判定する。 As described above, the periphery monitoring device of the present invention calculates a moving component such as a two-dimensional optical flow from a time-series image in a periphery monitoring device that is mounted on a moving body and monitors a surrounding target object, and moves the same. Based on the components, candidate areas where there is a high possibility that a collision target object is present are extracted, and the possibility of collision is determined from the three-dimensional information of the candidate areas and the positional relationship with the periphery monitoring device.
それゆえ、時系列画像から算出された移動成分から、側方飛び出しなどの衝突予測が難しい対象物体が存在する可能性の高い候補領域を限定し、その候補領域だけの3次元情報を算出するので、複雑な物体認識処理や道路モデルなどを必要とせず、処理速度を速く(フレームレートを向上)することができる。 Therefore, from the moving components calculated from the time-series images, the candidate areas where there is a high possibility that there is a target object that is difficult to predict the collision, such as side jumping out, are limited, and the three-dimensional information of only the candidate areas is calculated. The processing speed can be increased (the frame rate can be improved) without requiring complicated object recognition processing or a road model.
図1は、本発明の実施の一形態に係る周辺監視装置1の概略構成図である。この周辺監視装置1は、車両2に搭載されて被写体の2次元入力画像をそれぞれ得るステレオカメラ11,12に、取得したステレオ画像から3次元画像を得て、路面3上に存在する対象物体4,5に対する衝突危険度を判定し、危険度が高い場合に、ブザー6を鳴動して警告を行うコントローラ13を備えて構成され、衝突判定システムに使用される。他にも、警告処理としては、運転者に回避処置を促すように表示ディスプレイに情報を表示したり、衝突対象までの距離や時間、或いは対象の大きさを表示する等の動作を、単独、或いは複数組合わせて行うことができる。一方、前記ブザー6に代えて、記録部が設けられると、前記危険度が高い場合にそのシーンを自動記録するドライブレコーダを実現することができ、ブレーキ装置が設けられると、前記危険度が高い場合に自動的にブレーキを掛ける衝突防止システムを実現することができる。
FIG. 1 is a schematic configuration diagram of a
前記ステレオカメラ11,12は、被写体を同じタイミングで撮影した左右一対の画像(基準画像と参照画像)を出力する。本実施の形態においては、説明の簡単化の為に、ステレオカメラ11,12の収差は良好に補正されており、かつ相互に平行に設置されているものとする。また、実際のハードがこのような条件に無くても、画像処理によって、同等の画像に変換することも可能である。ステレオカメラ11,12からは、前記ステレオ画像が前記コントローラ13に通信線を介して送信される。ステレオカメラ11,12とコントローラ13との間での画像データの通信方式は、有線方式に限定されず、無線方式であってもよい。
The
ここで、前記特許文献4のように、3次元移動成分を用いた衝突可能性の解析の利点は、対象物体4,5と自車両2との衝突可能性の判定を高精度に行うことが可能である点である。しかしながら、図2で示すように、ステレオカメラ11,12の撮像画像から3次元移動成分を算出する場合、画像間の対応付け回数が大きくなり、計算コストが大幅に掛かるという問題点がある。
Here, as in
図2は、前記衝突可能性の解析にあたっての前記対象物体4,5の距離と移動量との一般的な求め方を説明するための図である。ステレオカメラ11,12の一方による画像を基準画像I1とし、他方を参照画像I2とし、時刻tおよびそれからΔt(1フレーム期間)経過した後の計4枚の画像を得ている。この場合、先ず時刻tにおける基準画像I1t上の画素P1(i,j,t)に対し、対応点探索処理によって、参照画像I2t上の対応点P2(i,j,t)を算出し、3次元情報F(i,j,t)が求められ、前記対象物体4,5までの距離が分る。同様に、時刻t+Δtにおける基準画像I1t+Δt上の画素P(i,j,t+Δt)に対し、対応点探索処理によって、参照画像I2t+Δt上の対応点P2(i,j,t+Δt)を算出し、3次元情報F(i,j,t+Δt)が求められる。続いて、基準画像I1t,I1t+Δt同士で対応点探索処理が行われ、画素P1(i,j,t),P1(i,j,t+Δt)間の対応付けが行われる。これによって、3次元情報F(i,j,t),F(i,j,t+Δt)間も対応付けが行われ、前記対象物体4,5の移動量が算出できる。
FIG. 2 is a diagram for explaining a general method for obtaining the distance and the moving amount of the target objects 4 and 5 in the analysis of the collision possibility. An image obtained by one of the
しかしながら、ステレオカメラ11,12による3次元計測で最も時間の掛かるのは、この対応付けであり、それを減らす程、処理速度が速くなる(フレームレートを上げることができる)。そこで、本実施の形態では、先ず基準の時系列画像I1t,I1t+Δt間で、対象物体4,5の距離と移動量とを用いた3次元移動成分から、これらの対象物体4,5が衝突の可能性の高い候補領域に有るかを判定する。
However, it is this correspondence that takes the most time in the three-dimensional measurement by the
図3は、前記コントローラ13の一構成例を示すブロック図であり、図4はその動作を説明するためのフローチャートである。コントローラ13は、時系列情報算出部21と、対象物体候補領域抽出部22と、3次元情報取得部23と、衝突可能性判定部24とを備えて構成される。画像取得部である前記ステレオカメラ11,12は、ステップS1で、車両2の周囲の画像を時系列に取得し、得られた時系列画像から、注目すべきは、先ず時系列情報算出部21は、ステップS2で、図5で示すように、前記基準画像I1t,I1t+Δt間の対応点探索処理によって、画素単位の高精度な2次元オプティカルフローなどの移動(ベクトル)成分OFXY(i,j,t+Δt)を算出することである。すなわち、
OFXY(i,j,t+Δt)=P1(i,j,t+Δt)−P(i,j,t)
である。
FIG. 3 is a block diagram showing an example of the configuration of the
OF XY (i, j, t + Δt) = P1 (i, j, t + Δt) −P (i, j, t)
It is.
前記2次元オプティカルフローの算出方法としては、勾配法や相関演算法などを用いることができる。前記勾配法は、画像の時空間微分の拘束方程式による条件から2次元オプティカルフローを推定する一般的な手法である。また、前記相関演算法は、ウィンドウ内の相関演算によって対応点探索処理を行うものであり、既に確立されている一般的な手法である。ただし、この前記相関演算法の中でも、2つの入力画像に設定したウインドウ内のパターンを周波数分解し、振幅成分を抑制した信号の類似度に基づいて、サブピクセル単位で対応位置を演算することができるPOC(位相限定相関法)を用いることによって、前記基準画像I1t,I1t+Δt間の輝度差やノイズの影響を受け難くなり、それらの対応付けを、安定かつ高精度に行うことが可能となる。前記ウィンドウ内のパターンを周波数分解する方法としては、FFT、DFT、DCT、DST、ウエーブレット変換、アダマール変換などの既に確立されている方法を用いることができ、これらの方法で周波数分解を確実に行うことができる。このように2次元オプティカルフローを求めるにあたって、対応点探索処理を画素単位毎に行うことで、後続の対象物体候補領域抽出部22は、背景や路面3を含まない対象物候補領域を詳細に抽出することができるようになる。
As a method for calculating the two-dimensional optical flow, a gradient method, a correlation calculation method, or the like can be used. The gradient method is a general technique for estimating a two-dimensional optical flow from a condition based on a constraint equation of spatiotemporal differentiation of an image. In addition, the correlation calculation method performs corresponding point search processing by correlation calculation within a window, and is a general technique already established. However, among these correlation calculation methods, it is possible to calculate the corresponding position in units of subpixels based on the similarity of the signals in which the pattern in the window set for two input images is frequency-resolved and the amplitude component is suppressed. By using the POC (phase-only correlation method) that can be performed, it becomes difficult to be affected by the luminance difference and noise between the reference images I1 t and I1 t + Δt , and the correspondence can be performed stably and with high accuracy. Become. As a method for frequency-resolving the pattern in the window, an already established method such as FFT, DFT, DCT, DST, wavelet transform, Hadamard transform, etc. can be used. It can be carried out. In this way, when obtaining the two-dimensional optical flow, the corresponding target candidate
続いて、対象物体候補領域抽出部22が、ステップS3で、前記移動成分OFXY(i,j,t+Δt)を基に、図6で示すように、前記対象物体4,5が存在する可能性の高い候補領域OB(t,n)を抽出する。nは、1,2,・・・で、グループ化された候補領域(対象物体)の番号であるが、グループ化しない場合は静止物体か対象物体かのフラグとして使用してもよい。図6の例では、時刻tにおける1番目の候補領域OB(t,1)で、それを構成する画素は、P1(2,2,t),P1(3,2,t),P1(2,3,t),P1(3,3,t),P1(2,4,t),P1(3,4,t)である。
Subsequently, the target object candidate
こうして候補領域OB(t,1)が抽出されると、3次元情報取得部23が、ステップS4で、それを構成する画素P1(2,2,t),P1(3,2,t),P1(2,3,t),P1(3,3,t),P1(2,4,t),P1(3,4,t)に対して、参照画像I2t上の対応点P2(i,j,t)を対応点探索し、さらに対応する画素間の視差情報から、図7で示すような3次元(実空間上における位置)情報XYZ(i,j,t)(図6の場合には、XYZ(2,2,t,1),XYZ(3,2,t,1),XYZ(2,3,t,1),XYZ(3,3,t,1),XYZ(2,4,t,1),XYZ(3,4,t,1))を求める。同様に、Δt後の基準画像I1t+Δtについても、前記3次元情報取得部23は、前記候補領域OB(t,1)に対応する候補領域OB(t+Δt,1)の3次元情報XYZ(i,j,t+Δt)を求める。
When the candidate region OB (t, 1) is extracted in this way, the three-dimensional
こうして求められた同じ対象物体に対する時系列の3次元情報XYZ(i,j,t),XYZ(i,j,t+Δt)による3次元移動成分から、衝突判定部24は、その3次元オプティカルフロー算出部24aにおいて、ステップS5で、3次元オプティカルフローOF3を求め、その3次元オプティカルフローOF3と自車両2との位置関係から衝突可能性を判定し、ステップS6で衝突の可能性があれば、ステップS7でブザー6を鳴動して、時間Δt後に前記ステップS1に戻り、衝突の可能性が無ければ、そのまま時間Δt後に前記ステップS1に戻る。
From the three-dimensional movement component based on the time-series three-dimensional information XYZ (i, j, t) and XYZ (i, j, t + Δt) for the same target object thus obtained, the
前記衝突可能性の判定は、図18に示すように、前記3次元オプティカルフローOF3を用いることで、簡単で、高精度な判定を行うことができる。具体的には、その3次元オプティカルフローOF3の延長線と、自車両2とが交差するか否かを判定することで、該自車両2の前方に位置する対象物体4,5が衝突する可能性のある物体であるか否かを判定する。したがって、前記3次元オプティカルフローOF3の向きおよび長さの2つのパラメータを算出できれば、前記延長線を作成でき、その延長線と自車両2との交差判定によって、対象物体4,5が該周辺監視装置1に向ってきているかどうかから、衝突可能性の有無を判定することができる。図18では、自車両2の進路上にある路上障害物(静止体)から成る対象物体5および先行車両から成る対象物体4に加えて、前記進路上にはないものの、車線を横切ることで、前記3次元オプティカルフローOF3が交差する人物から成る対象物体7も、衝突物体と判定される。このように、3次元オプティカルフローOF3は自車両2の速度と対象物体4,5,7の速度との合成ベクトルによって表され、対象物体4,5,7の動きを3次元的に解析することができるので、衝突判定処理を精度良く行うことができ、好適である。この衝突判定処理の詳しくは、本件出願人による特願2008−24478号に詳しく記載されている。
As shown in FIG. 18, the determination of the possibility of collision can be performed easily and with high accuracy by using the three-dimensional optical flow OF3. Specifically, by determining whether or not the extension line of the three-dimensional optical flow OF3 and the
また好ましくは、前記衝突判定部24は、上述のようにして3次元オプティカルフローOF3と自車両2との関係から衝突判定を行うにあたって、上述の判定で衝突可能性が低いと判定される領域でも、前記3次元オプティカルフロー算出部24aで算出された前記候補領域の3次元オプティカルフローOF3の長さが予め定める閾値以上大きい場合には衝突可能性領域と判定する。したがって、3次元オプティカルフローOF3の長さは対象物体4,5,6の単位時間当りの相対的な移動量を表すので、それが前記閾値以上大きい場合には、急速に近付いている可能性があるので、衝突可能性領域と判定しておくことで、判定遅れとなることを回避することができる。
In addition, preferably, the
ここで、画像から算出された2次元オプティカルフローから、対象物体が静止物体であるか、移動物体であるかを判定した場合、その結果は、図8で示すようになる。すなわち、2次元オプティカルフローの大きさが或るレベルOF1を超えると、対象物体の速度が或るレベルV1を境に、大きければ移動物体の候補、小さければ静止物体の候補と明確に判定できるが、前記2次元オプティカルフローの大きさが前記レベルOF1以下であると、対象物体が移動物体の候補であるのか、静止物体の候補であるのかの切り分けが困難になってしまう。すなわち、たとえば対象物体が自車両2の比較的正面にあるような場合には、相対速度が大きくても、前記2次元でのオプティカルフローは小さくなってしまう。したがって、このオプティカルフローが小さいような場合においても、衝突の危険性が多く含まれていることから、対象物体を含むような領域を、漏れの無いように抽出する必要がある。そこで、本実施の形態では、前記対象物体候補領域抽出部22に、以下の2つの対象物候補領域抽出方法を用いることで、図9で示すように、前記2次元オプティカルフローの大きさが前記レベルOF1未満であっても、移動速度が予め定める値V1以下である場合は前記候補領域として抽出することで、演算処理量を抑えつつ、そのような抽出の漏れを無くす。
Here, when it is determined from the two-dimensional optical flow calculated from the image whether the target object is a stationary object or a moving object, the result is as shown in FIG. That is, when the size of the two-dimensional optical flow exceeds a certain level OF1, it can be clearly determined that the speed of the target object is a certain level V1, and if it is large, it is a moving object candidate, and if it is small, it is a stationary object candidate. If the size of the two-dimensional optical flow is equal to or less than the level OF1, it becomes difficult to determine whether the target object is a moving object candidate or a stationary object candidate. That is, for example, when the target object is relatively in front of the
先ず、前記2次元オプティカルフローの大きさが前記レベルOF1以上であり、かつ対称物体の移動速度が予め定める値V1より大きい場合に適用される第1の対象物候補領域抽出方法では、以下の3つの物体の切出し方法を用い、衝突判定を行うべき移動物体であるか、衝突判定の必要のない静止物体であるのかの切分けを行い、対象物体の領域を対象物体候補領域として抽出する。第1の切出し方法では、ステレオカメラ11,12が前方へ向けて取付けられ、自車両2が前方へ直進移動する場合、図10で示すように、静止物体8の2次元オプティカルフローOFSを延長した直線OFSaは、或る1点で交わることを利用するものである。この点は、消失点(FOE:Focus of Expansion)と呼ばれ、自車両2の移動方向に応じて定まる定点となる。たとえば、この図10のように静止物体8だけ存在するシーンにおいて、時刻tとt+Δtとの時系列画像から算出された2次元オプティカルフローOFSの延長線OFSaは、画像の中央付近に定まる。
First, in the first object candidate region extraction method applied when the magnitude of the two-dimensional optical flow is equal to or higher than the level OF1 and the moving speed of the symmetric object is larger than a predetermined value V1, Using two object extraction methods, it is determined whether the object is a moving object to be subjected to collision determination or a stationary object that does not need collision determination, and the target object region is extracted as a target object candidate region. In the first cutting-out method, when the
これに対して、図11のように移動物体7と静止物体8とが混在するようなシーンのFOEは、静止物体8のFOEが、前述のように画像の中央付近に定まるのに対し、移動物体7の2次元オプティカルフローOFMの延長線OFMaのFOEは、前記画像中央とは限らず、任意に散在する。つまり静止物体8以外の対象物体においては、それぞれ独立のFOEが存在する。第1の切出し方法では、このFOEの特徴を用いて、対象物候補領域を抽出する。
On the other hand, the FOE of the scene in which the moving
抽出方法としては、単純に、各FOEに集まる計測点の数から算出することができる。たとえば、2次元オプティカルフローOFM,OFSの計測点数がN点存在した中で、最も集まっているFOEを算出し、そのFOEに集まる計測点を除外することで、移動物体7の候補領域を抽出することができる。すなわち、移動体に搭載したカメラ11,12の時系列画像間に生じる2次元オプティカルフローOFS,OFMの中で、その2次元オプティカルフローOFS,OFMの延長線OFSa,OFMaの最も集まる消失点(FOE)は移動体の移動方向に応じて定まり、しかも道路などの静止物体8の2次元オプティカルフローが集まるので、この領域を除外した領域を前記対象物体4,5(移動物体7)の候補領域として抽出することで、より効率的に、移動する対象物体のみを抽出することができる。
As an extraction method, it can be simply calculated from the number of measurement points gathered in each FOE. For example, among N measurement points of the two-dimensional optical flows OFM and OFS, the most gathered FOE is calculated, and the candidate points of the moving
そして、移動物体7が複数存在する場合にも、同様に移動している物体はFOEが略一致するので、FOE毎に複数の物体をグループ化することが可能である。また、図12のように路面3における2次元オプティカルフローOFRの延長線OFRaのFOEも、静止物体8と同様の画像中央のFOEに集まることから、この方法によって路面3を含んだ静止物体8と、それ以外の移動物体との判別を行うことが可能となる。
Even in the case where there are a plurality of moving
一方、第2の切出し方法では、上述のように全ての計測点毎に2次元オプティカルフローを計算するのではなく、画面を予め複数の領域に分割しておき、その各領域の代表点に対して計測を行う。具体的には図13で示すように、画像領域10を、等間隔の局所領域Aに分割し、それぞれの局所領域の代表計測点OB(i,j,t+Δt,n)の結果から、対象物体候補の抽出を行う。この方法の利点は、計測点数を減らすことが可能となり、より高速な処理が可能なことである。
On the other hand, in the second cutout method, the two-dimensional optical flow is not calculated for every measurement point as described above, but the screen is divided into a plurality of areas in advance, and the representative points of each area are calculated. To measure. Specifically, as shown in FIG. 13, the
なお、各局所領域Aの設定方法としては、上述のような等間隔となるようにしてもよいが、図14で示すような、不等間隔であてもよい。この図14の例では、自車両2の近傍(画面下部)側の局所領域A1が大きく、遠去かる(画面上部に行く)程、参照符号A2,A3,・・・というように、小さくなっている。これは、車載カメラの場合、画像上部に行くに従ってより距離が遠くなる、つまり画像上で対象物体が小さくなることからである。これによって、計測点数を一層減らすことが可能となり、より高速な処理が可能になる。
In addition, as a setting method of each local area | region A, you may make it become equal intervals as above-mentioned, but it may be unequal intervals as shown in FIG. In the example of FIG. 14, the local area A1 in the vicinity (lower part of the screen) side of the
さらにまた、第3の切出し方法は、たとえば(「主成分分析を用いた移動物体認識法の検討」情報処理学会研究報告、コンピュータビジョン研究会報告 IPSJ SIG Notes 96(31) pp,51−58 19960321)で示されるように既存技術であり、局所領域に切分けた領域毎にFOEを推定する際の推定誤差を加算、閾値処理することによって、対象物体を検出するような手法(消失点推定残差法)である。この手法は、歩行者を含む領域における推定残差は、背景における推定残差に比べ大きな値となることから、推定誤差が大きい領域を対象物候補領域OB(i,j,t+Δt,n)として検出することができる。これら第1〜第3の切出し方法を用いて、第1の対象物候補領域抽出方法を実現することができる。 Furthermore, the third clipping method is, for example, “(Examination of moving object recognition method using principal component analysis” Information Processing Society of Japan Research Report, Computer Vision Research Group Report IPSJ SIG Notes 96 (31) pp, 51-58 19960321. ), Which is an existing technology, and adds a estimation error when estimating the FOE for each area divided into local areas and performs threshold processing to detect the target object (remaining vanishing point estimation residual). Difference method). In this method, since the estimated residual in the area including the pedestrian is larger than the estimated residual in the background, the area having a large estimation error is set as the object candidate area OB (i, j, t + Δt, n). Can be detected. Using these first to third cutout methods, the first object candidate region extraction method can be realized.
これに対して、前記2次元オプティカルフローの大きさが前記レベルOF1未満の場合に適用される第2の対象物候補領域抽出方法では、前述のようにして算出された2次元オプティカルフロー(移動成分)OFXY(i,j,t+Δt)のベクトルの大きさがある範囲より小さいものだけを抽出し、抽出された領域を対象物候補OB(i,j,t+Δt,n)の存在する領域として抽出する。つまり、2次元画像から算出したオプティカルフローOFXY(i,j,t+Δt)がある程度大きなフローとして算出することができ(図8,9でOF1を超えるもの)、路面3との切り分けが容易に行える場合においては、その2次元オプティカルフローOFXY(i,j,t+Δt)で衝突可能性の判断を行うことができるが、小さい場合(図8,9でOF1以下のもの)は、対象物体の移動成分が、自車両2の走行によって発生しているのか、対象物体自体の移動によるものを含んでいるのかの切り分けが難しい。そこで、小さいものだけに対して3次元オプティカルフローを算出し、衝突の有無を判断することで、前述のように演算量を減らし、精度良く判定を行うことが可能である。
In contrast, in the second object candidate region extraction method applied when the size of the two-dimensional optical flow is less than the level OF1, the two-dimensional optical flow (movement component) calculated as described above is used. ) OF XY (i, j, t + Δt) is extracted only when the vector size is smaller than a certain range, and the extracted region is extracted as a region where the object candidate OB (i, j, t + Δt, n) exists. To do. That is, the optical flow OF XY (i, j, t + Δt) calculated from the two-dimensional image can be calculated as a somewhat large flow (that exceeds OF1 in FIGS. 8 and 9), and can be easily separated from the
以上のようにして、前記ステップS3での対象物候補抽出部22による対象物候補領域OB(i,j,t+Δt,n)の抽出が終了すると、前記ステップS4で、3次元情報取得部23が、該対象物体候補領域OB(i,j,t+Δt,n)に対応する時刻tの撮影画像I1(i,j,t)と位置的な対応関係を持つ3次元情報XYZ(i,j,t,n)と、時刻t+Δtの撮影画像I1(i,j,t+Δt)と、位置的な対応関係を持つ3次元情報XYZ(i,j,t+Δt,n)とを算出する。
As described above, when the extraction of the candidate object region OB (i, j, t + Δt, n) by the candidate
その算出にあたっては、上述の説明では、画像取得手段をステレオカメラ11,12として、3次元情報取得部23では、そのステレオ画像から、前記対象物体候補領域抽出部22で算出された前記対象物体の候補領域OB(i,j,t+Δt,n)と判断された位置に対応する3次元(実空間上における位置)情報を、前記ステレオ画像間の対応点探索処理によって算出する。この場合は、別途距離情報を得る手段を用いることなく、画像のみの情報から距離情報を算出することができるので、シンプルな構成で衝突判定システムを構築することができる。
In the calculation, in the above description, the image acquisition unit is the
しかしながら、本実施の形態で3次元情報を求めるには、対象物体までの距離情報が分ればよいので、カメラをモノラル(単眼)のカメラとし、外部の距離計測手段との組合わせに置換えてもよい。 However, in order to obtain the three-dimensional information in this embodiment, it is only necessary to know the distance information to the target object, so that the camera is a monaural (monocular) camera and is replaced with a combination with an external distance measuring means. Also good.
前記距離計測手段としては、たとえば図15で示すように、CMOSセンサ51の周辺に装着されたLED52から近赤外線を照射し、被写体53に当って帰ってくる反射光をCMOSセンサ51が受光するまでの時間をタイマ54で計測する、いわゆるTOF(time of flight)方式で実現することができる。CMOSセンサ51の各画素での受光結果が、画像10上の各領域Aに存在する対象物体までの距離情報となり、こうして前記3次元情報を取得することができる。このような構成の代表的なものとしては、Canesta社によるレーザレンジファインダがあり、3次元計測結果を出力する。この3次元情報を用いることで、前記ステップS3で抽出された各対象物体候補領域OB(i,j,t+Δt,n)に対応する3次元情報の位置的な対応関係を取得することができる。
As the distance measuring means, for example, as shown in FIG. 15, the near infrared light is emitted from the LED 52 mounted around the CMOS sensor 51, and the reflected light returning to the subject 53 is received by the CMOS sensor 51. This time can be realized by a so-called TOF (time of flight) method in which the timer 54 measures time. The light reception result at each pixel of the CMOS sensor 51 becomes distance information to the target object existing in each area A on the
また、別の方法としては、レーダ電波を出射し、対象物体から反射してきた反射波を受信し、伝搬時間やドップラー効果によって生じる周波数差などを基に、前方の障害物までの距離を測定するものがある。代表的なものとしては、ミリ波レーダなどである。これら別機器によって取得された3次元情報取得とカメラ11,12による撮像画像との対応関係は、たとえば特開2000−348199号公報(テクスチャマッピング方法及び装置)のような手法を用い、対応関係を記憶させておけば、カメラの画角とミリ波の物体検知角度とによって、対応関係を得ることは可能である。このように別途距離計測手段を設けた場合、特別な計算を行うことなく、前記距離情報を求めることができる。
Another method is to emit radar radio waves, receive reflected waves reflected from the target object, and measure the distance to obstacles ahead based on the propagation time and frequency difference caused by the Doppler effect. There is something. A typical example is a millimeter wave radar. The correspondence relationship between the acquisition of the three-dimensional information acquired by these different devices and the images captured by the
このようにして、各対象物体候補領域OB(i,j,t+Δt,n)に対応する3次元情報が得られると、前述のようにステップS6で、衝突可能性判定部24は、対象物体4,5が自車両2に衝突するか否かを判定する。それには、ステップS5で算出された2次元オプティカルフロー(移動成分)OFXY(i,j,t+Δt)の向きおよび長さならびに自車両2の速度と、上述のようにして求められた各対象物体候補領域OB(i,j,t+Δt,n)までの距離XYZ(i,j,t,n),XYZ(i,j,t+Δt,n)から、衝突判定を行う。前記速度の情報は、車両2側から得てもよいが、予め定める領域、たとえば正面下方の路面3のオプティカルフローの長さから求めることができる。
When the three-dimensional information corresponding to each target object candidate area OB (i, j, t + Δt, n) is obtained in this way, the collision
好ましくは、前記衝突判定部24は、衝突判定を行う対象距離を固定するのではなく、現在の自車両2の速度に対応して、変更するようにすればよい。このように構成することで、自車両2の速度からして、安全と考えられる範囲、たとえば前記速度に対応した停止可能距離(=空走距離+制動距離)や、ハンドルでの回避距離(運転者の操作遅れに、ステアリング機構の応答遅れ時間を考慮してもハンドル操作で安全に回避できる距離)の範囲は除外するので、判定処理を軽減することができる。
Preferably, the
また、前記衝突可能性判定部24が、衝突判定を行うにあたって、図16で示すように、自車両2のハンドル操作が行われている際には、その操舵による移動方向を加味して衝突判定を行うことが好ましい。詳しくは、移動物体7が矢符F1で示すように直進しているところ、自車両2が矢符F2で示すように、角度θで曲がっていると、見掛け上、移動物体7が矢符F3で示すように前記角度θで曲がって接近して来るものと判定し、自車両2については、矢符F4の直進として、衝突判定を行う。すなわち、移動物体7の2次元オプティカルフローについては、実際に時系列画像I1t,I1t+Δtから求められた2次元オプティカルフローOFXY(i,j,t+Δt)に、前記角度θ分の補正が加えられる。前記角度θは、車体制御のECUなどから、ステアリングセンサ出力などとして取込むことができる。
In addition, when the collision
さらにまた、好ましくは、前記時系列情報算出部21は、前記ステレオカメラ11,12で得られた時系列画像の対応点の探索処理に、図17で示すような多重解像度を用いる。具体的には、上述の説明では、図5で示すように、時刻tの基準画像I1tに対して、時刻t+Δtの基準画像I1t+Δtでの対応点を探索しているので、本来の高解像度の前記基準画像I1t+Δtに対応する1または複数の階層の低解像度の画像(図17の例ではI1’t+Δt,I1''t+Δt)を作成し、最も低解像度の画像I1''t+Δtから、I1’t+Δt,I1t+Δtへと、順次解像度を上げて対応点Qを探してゆくものである。このような手法を採用することで、2つの基準画像I1t,I1t+Δt間で対応点の位置が離れていても、効率的、かつ高精度に対応点を探索することができる。
Furthermore, preferably, the time-series
以上のように、本実施の形態の周辺監視装置1では、車両2に搭載されて周囲の対象物体4,5を監視する周辺監視装置において、単眼またはステレオのカメラ11,12などの画像取得部で前記周囲の画像を時系列に取得し、得られた時系列画像から時系列情報算出部21が2次元オプティカルフローなどの移動成分を算出すると、先ず対象物体候補領域抽出部22が、前記移動成分を基に、前記対象物体4,5が存在する可能性の高い候補領域を抽出し、その後、その候補領域に対して、3次元情報取得部23が前記対象物体4,5の候補領域の3次元(実空間上における位置)情報を取得し、得られた前記対象物体4,5の候補領域の3次元情報と、該周辺監視装置1との位置関係から、衝突判定部24が衝突可能性を判定する。
As described above, in the
したがって、先ず対象物体候補領域抽出部22が、時系列画像から算出された移動成分から、側方飛び出しなどの衝突予測が難しい対象物体4,5が存在する可能性の高い候補領域を限定し、次に3次元情報取得部23が、その候補領域だけの3次元情報を算出し、衝突判定部24でその抽出された対象物体の候補領域と監視装置1との関係から衝突可能性の判定を行う、すなわち自走状態で撮影された2次元時系列画像から、衝突予測が難しい対象物体候補領域のみに対し、詳しい3次元情報を求めて衝突危険性を判定するので、複雑な物体認識処理や道路モデルなどを必要とせず、時系列画像から算出された情報のみを用いて対象物体4,5の候補領域を限定することで、処理速度を速く(フレームレートを向上)することができる。
Therefore, first, the target object candidate
また、前記時系列情報算出部21は、前記画像取得部で得られた時系列画像の対応点探索処理によって、2次元オプティカルフローを前記移動成分として算出するので、画素単位の高精度な移動成分を求めることができる。
In addition, the time-series
1 周辺監視装置
2 車両
3 路面
4,5 対象物体
6 ブザー
7 移動物体
8 静止物体
11,12 ステレオカメラ
13 コントローラ
21 時系列情報算出部
22 対象物体候補領域抽出部
23 3次元情報取得部
24 衝突可能性判定部
24a 3次元オプティカルフロー算出部
51 CMOSセンサ
52 LED
53 被写体
54 タイマ
DESCRIPTION OF
53 Subject 54 Timer
Claims (10)
前記周囲の画像を時系列に取得する画像取得部と、
前記画像取得部で得られた時系列画像から移動成分を算出する時系列情報算出部と、
前記時系列情報算出部で得られた前記移動成分を基に、前記対象物体が存在する可能性の高い候補領域を抽出する対象物体候補領域抽出部と、
前記対象物体候補領域抽出部で算出された前記候補領域の3次元情報を取得する3次元情報取得部と、
前記3次元情報取得部で得られた前記候補領域の3次元情報と、該周辺監視装置との位置関係とから、衝突可能性を判定する衝突判定部とを含み、
前記時系列情報算出部は、前記画像取得部で得られた時系列画像の対応点探索処理によって、2次元オプティカルフローを前記移動成分として算出し、
前記対象物体候補領域抽出部は、前記2次元オプティカルフローが予め定める第1閾値未満である領域を、前記候補領域として抽出する
ことを特徴とする周辺監視装置。 In a periphery monitoring device that is mounted on a moving body and monitors a target object around the moving body,
An image acquisition unit for acquiring the surrounding images in time series;
A time series information calculation unit that calculates a moving component from the time series image obtained by the image acquisition unit;
A target object candidate area extraction unit that extracts a candidate area where the target object is highly likely to exist based on the moving component obtained by the time-series information calculation unit;
A three-dimensional information acquisition unit that acquires the three-dimensional information of the candidate region calculated by the target object candidate region extraction unit;
And three-dimensional information of the candidate area obtained by the three-dimensional information acquisition unit, and a positional relationship between the peripheral monitoring unit, viewed contains a determining collision determination unit a collision possibility,
The time-series information calculation unit calculates a two-dimensional optical flow as the moving component by the corresponding point search process of the time-series image obtained by the image acquisition unit,
The target object candidate region extraction unit extracts a region where the two-dimensional optical flow is less than a predetermined first threshold as the candidate region .
The target object candidate area extraction unit divides the screen into a plurality of areas in advance, and determines whether or not to extract as a target object candidate area by performing measurement on a representative point of each area. surroundings monitoring apparatus according to any one of claims 1 to 8, wherein.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009138692A JP5353455B2 (en) | 2009-06-09 | 2009-06-09 | Perimeter monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009138692A JP5353455B2 (en) | 2009-06-09 | 2009-06-09 | Perimeter monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010286926A JP2010286926A (en) | 2010-12-24 |
JP5353455B2 true JP5353455B2 (en) | 2013-11-27 |
Family
ID=43542598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009138692A Expired - Fee Related JP5353455B2 (en) | 2009-06-09 | 2009-06-09 | Perimeter monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5353455B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5267596B2 (en) * | 2011-02-23 | 2013-08-21 | 株式会社デンソー | Moving body detection device |
JP5772321B2 (en) * | 2011-07-12 | 2015-09-02 | アイシン精機株式会社 | Vehicle detection device, vehicle detection method, and program |
US9183638B2 (en) * | 2011-08-09 | 2015-11-10 | The Boeing Company | Image based position determination |
JP5786941B2 (en) * | 2011-08-25 | 2015-09-30 | 日産自動車株式会社 | Autonomous driving control system for vehicles |
JP2014115978A (en) | 2012-11-19 | 2014-06-26 | Ricoh Co Ltd | Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device |
JP6221292B2 (en) * | 2013-03-26 | 2017-11-01 | 富士通株式会社 | Concentration determination program, concentration determination device, and concentration determination method |
JP6716857B2 (en) | 2014-12-26 | 2020-07-01 | 株式会社リコー | Mobile object, measuring system, measuring method and program |
JP6456405B2 (en) * | 2015-01-16 | 2019-01-23 | 株式会社日立製作所 | Three-dimensional information calculation device, three-dimensional information calculation method, and autonomous mobile device |
JP2016197795A (en) * | 2015-04-03 | 2016-11-24 | 日立オートモティブシステムズ株式会社 | Imaging device |
JP7067370B2 (en) * | 2018-08-27 | 2022-05-16 | 株式会社デンソー | Image recognition device |
JP6643517B2 (en) * | 2019-05-23 | 2020-02-12 | 日立オートモティブシステムズ株式会社 | Imaging device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07262375A (en) * | 1994-03-25 | 1995-10-13 | Toshiba Corp | Mobile object detector |
JP3515926B2 (en) * | 1999-06-23 | 2004-04-05 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP4269781B2 (en) * | 2003-05-27 | 2009-05-27 | 日本電気株式会社 | Optical flow detection system, detection method and detection program |
JP4052650B2 (en) * | 2004-01-23 | 2008-02-27 | 株式会社東芝 | Obstacle detection device, method and program |
JP2009026250A (en) * | 2007-07-23 | 2009-02-05 | Panasonic Corp | Plane component detector, ground plane detector, and obstacle detector |
JP2010204805A (en) * | 2009-03-02 | 2010-09-16 | Konica Minolta Holdings Inc | Periphery-monitoring device and method |
-
2009
- 2009-06-09 JP JP2009138692A patent/JP5353455B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010286926A (en) | 2010-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5353455B2 (en) | Perimeter monitoring device | |
US10690770B2 (en) | Navigation based on radar-cued visual imaging | |
CN107272021B (en) | Object detection using radar and visually defined image detection areas | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
CN109017570B (en) | Vehicle surrounding scene presenting method and device and vehicle | |
JP5689907B2 (en) | Method for improving the detection of a moving object in a vehicle | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
US10580155B2 (en) | Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium | |
US10846542B2 (en) | Systems and methods for augmentating upright object detection | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
JP2014222429A (en) | Image processor, distance measuring device, mobile object apparatus control system, mobile object, and program for image processing | |
JP2010204805A (en) | Periphery-monitoring device and method | |
JP2011134207A (en) | Drive recorder and map generation system | |
KR100962329B1 (en) | Road area detection method and system from a stereo camera image and the recording media storing the program performing the said method | |
KR101491305B1 (en) | Apparatus and method for detecting obstacle | |
JP5256482B2 (en) | Ranging device | |
JP5163164B2 (en) | 3D measuring device | |
JP2020086884A (en) | Lane marking estimation device, display control device, method and computer program | |
JP2018088234A (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and program | |
JP4872943B2 (en) | Analysis device | |
JP4506299B2 (en) | Vehicle periphery monitoring device | |
Teutsch et al. | 3d-segmentation of traffic environments with u/v-disparity supported by radar-given masterpoints | |
JP7309630B2 (en) | Image processing device | |
JP2023003924A (en) | Arithmetic device and speed calculation method | |
WO2021232031A2 (en) | Detection of hidden object using non-line-of-sight (nlos) imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130812 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |