JP5353455B2 - Perimeter monitoring device - Google Patents

Perimeter monitoring device Download PDF

Info

Publication number
JP5353455B2
JP5353455B2 JP2009138692A JP2009138692A JP5353455B2 JP 5353455 B2 JP5353455 B2 JP 5353455B2 JP 2009138692 A JP2009138692 A JP 2009138692A JP 2009138692 A JP2009138692 A JP 2009138692A JP 5353455 B2 JP5353455 B2 JP 5353455B2
Authority
JP
Japan
Prior art keywords
target object
dimensional
optical flow
unit
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009138692A
Other languages
Japanese (ja)
Other versions
JP2010286926A (en
Inventor
宏 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2009138692A priority Critical patent/JP5353455B2/en
Publication of JP2010286926A publication Critical patent/JP2010286926A/en
Application granted granted Critical
Publication of JP5353455B2 publication Critical patent/JP5353455B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To increase the speed of processing (improve a frame rate) in a surroundings monitoring device mounted on a vehicle to determine the possibility of collision with a target object around. <P>SOLUTION: When a time-series information calculation part 21 calculates a two-dimensional optical flow by corresponding point search from time-series images obtained by stereo cameras 11 and 12, a target object candidate region extraction part 22 extracts a candidate region having a high possibility of presence of a target object. A three-dimensional information acquisition part 23 obtains three-dimensional information of the candidate region for the target object from the images by the stereo cameras 11 and 12, and from positional relationship between the obtained three-dimensional information and the surroundings monitoring device 1, a collision determination part 24 determines collision possibility. The processing speed can be increased when three-dimensional collision determination is carried out while limiting the candidate region for the target object by using only the two-dimensional optical flow calculated from the time-series images without requiring any complicated object recognition processing or a road model. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、車両やロボットなどの自走する移動体に搭載されて、該移動体の周囲の対象物体を監視する周辺監視装置に関し、特に前記移動体の前記対象物体への衝突判定の方法に関する。   The present invention relates to a periphery monitoring device that is mounted on a self-propelled mobile body such as a vehicle or a robot and monitors a target object around the mobile body, and more particularly to a method for determining a collision of the mobile body with the target object. .

前記のような衝突判定を行う周辺監視装置として用いることができる典型的な従来技術には、たとえば以下の特許文献1〜3が挙げられる。特許文献1では、単一カメラの時系列2次元画像から縦または横の着目エッジのオプティカルフローを算出し、そのオプティカルフローから衝突時間を算出することで、衝突危険性を高速で検出できるようにした車両用衝突警報方法及び装置が提案されている。   Examples of typical conventional techniques that can be used as the periphery monitoring device that performs the collision determination as described above include the following Patent Documents 1 to 3. In Patent Document 1, an optical flow of a vertical or horizontal edge of interest is calculated from a time-series two-dimensional image of a single camera, and a collision time is calculated from the optical flow so that a collision risk can be detected at high speed. A vehicle collision warning method and apparatus have been proposed.

特許文献2も同様に、単一カメラの時系列2次元画像から縦・横エッジのオプティカルフローを算出し、そのオプティカルフロー上での横方向の移動速度成分を用いて対象領域を抽出し、抽出した対象領域に含まれる縦方向の移動速度成分を基に、自車両に到達するまでの時間を算出することで衝突の危険性を判定するようにした衝突判定装置および方法が提案されている。   Similarly, Patent Document 2 calculates an optical flow of vertical and horizontal edges from a time-series two-dimensional image of a single camera, extracts a target region using a moving velocity component in the horizontal direction on the optical flow, and extracts There has been proposed a collision determination device and method for determining the risk of collision by calculating the time to reach the host vehicle based on the vertical movement speed component included in the target area.

また、特許文献3には、単一カメラの時系列2次元画像上の同一対象物体に属する任意の2点を評価点として抽出し、画像上に設定された任意の座標軸を基準として、抽出された2点から算出した情報を基に対象物体がカメラの撮像面と衝突するのに要する時間を算出するようにした衝突時間算出装置および障害物検出装置が提案されている。   In Patent Document 3, any two points belonging to the same target object on a time-series two-dimensional image of a single camera are extracted as evaluation points, and are extracted with reference to any coordinate axis set on the image. In addition, a collision time calculation device and an obstacle detection device have been proposed that calculate the time required for the target object to collide with the imaging surface of the camera based on the information calculated from the two points.

これらの手法では、1台(単眼)のカメラによって衝突が生じる可能性のある時間を算出することが可能であるが、相対速度が小さい場合や、対象物体が遠くに存在するような場合で、対象物体の画面上での移動速度が小さいと、精度良く検出することができない可能性がある。また、単眼の時系列画像による衝突可能性の判断は、対象物体の種類(車種・人)などの判別や抽出が必要となり、処理も複雑となる。   With these methods, it is possible to calculate the time when a collision can occur with one (monocular) camera, but when the relative speed is low or the target object exists far away, If the moving speed of the target object on the screen is low, there is a possibility that it cannot be accurately detected. In addition, the determination of the possibility of collision using a monocular time-series image requires determination and extraction of the type of target object (vehicle type / person), and the processing becomes complicated.

そこで、このような問題に対応することができる従来技術としては、特許文献4が挙げられる。その従来技術によれば、2台の(ステレオ)カメラによる撮像画像から3次元オプティカルフローを算出し、3次元情報で静止物体と対象物体とを判定している。具体的には、ステレオ画像から距離情報を算出し、道路モデルに基づいて、視差方向において位置的に対応する道路面の高さと比較して、道路面より上にある場合には、その位置のデータを立体物として抽出し、抽出した立体物に対して3次元オプティカルフローを算出し、自走速度と操舵方向とのオプティカルフロー成分を除いた結果、移動ベクトルが残るものを対象物体、そうでない物を静止物体として判定している。   Therefore, Patent Document 4 is cited as a conventional technique that can cope with such a problem. According to the prior art, a three-dimensional optical flow is calculated from images captured by two (stereo) cameras, and a stationary object and a target object are determined based on the three-dimensional information. Specifically, the distance information is calculated from the stereo image, and compared with the height of the road surface corresponding in position in the parallax direction based on the road model, if the position is above the road surface, Data is extracted as a three-dimensional object, and a three-dimensional optical flow is calculated for the extracted three-dimensional object. As a result of removing the optical flow component between the self-running speed and the steering direction, the object that remains as a moving vector is not. An object is determined as a stationary object.

特開平11−353565号公報JP 11-353565 A 特開2006−99155号公報JP 2006-99155 A 特開2006−107422号公報JP 2006-107422 A 特開2006−134035号公報JP 2006-134035 A

上述の従来技術では、先ず基準画像と参照画像との間の対応付け結果に対して、路面モデルを用いて、静止物体と対象物体との両方を抽出し、その後の動きから、いずれの物体であるのかの判定を行う必要がある。したがって、対応付け回数が大幅に削減されたわけではないので、処理の高速化(フレームレートの向上)を実現できないという問題がある。   In the above-described conventional technology, first, both the stationary object and the target object are extracted from the correspondence result between the standard image and the reference image by using the road surface model. It is necessary to determine whether there is any. Therefore, since the number of associations is not significantly reduced, there is a problem that it is not possible to realize high-speed processing (frame rate improvement).

本発明の目的は、処理の高速化(フレームレートの向上)を実現することができる周辺監視装置および周辺監視方法を提供することである。   An object of the present invention is to provide a periphery monitoring device and a periphery monitoring method capable of realizing high-speed processing (improving the frame rate).

本発明の周辺監視装置は、移動体に搭載され、該移動体の周囲の対象物体を監視する周辺監視装置において、前記周囲の画像を時系列に取得する画像取得部と、前記画像取得部で得られた時系列画像から移動成分を算出する時系列情報算出部と、前記時系列情報算出部で得られた前記移動成分を基に、前記対象物体が存在する可能性の高い候補領域を抽出する対象物体候補領域抽出部と、前記対象物体候補領域抽出部で算出された前記候補領域の3次元情報を取得する3次元情報取得部と、前記3次元情報取得部で得られた前記候補領域の3次元情報と、該周辺監視装置との位置関係とから、衝突可能性を判定する衝突判定部とを含み、前記時系列情報算出部は、前記画像取得部で得られた時系列画像の対応点探索処理によって、2次元オプティカルフローを前記移動成分として算出し、前記対象物体候補領域抽出部は、前記2次元オプティカルフローが予め定める第1閾値未満である領域を、前記候補領域として抽出することを特徴とする。
The periphery monitoring device of the present invention is mounted on a moving body, and in a periphery monitoring device that monitors a target object around the moving body, an image acquisition unit that acquires the surrounding images in time series, and the image acquisition unit Based on the time-series information calculation unit that calculates a movement component from the obtained time-series image and the movement component obtained by the time-series information calculation unit, a candidate area where the target object is likely to exist is extracted A target object candidate area extraction unit, a three-dimensional information acquisition unit that acquires three-dimensional information of the candidate area calculated by the target object candidate area extraction unit, and the candidate area obtained by the three-dimensional information acquisition unit and the three-dimensional information, and a positional relationship between the peripheral monitoring unit, viewed contains a determining collision determination unit a collision possibility, the time-series information calculation unit, the time-series images obtained by the image acquisition unit The corresponding point search process of Calculates Ikarufuro as the moving component, the target object candidate region extraction unit, an area the two-dimensional optical flow is less than the first predetermined threshold value, and extracts as the candidate region.

上記の構成によれば、移動体に搭載されて周囲の対象物体を監視する周辺監視装置において、単眼またはステレオのカメラなどの画像取得部で前記周囲の画像を時系列に取得し、得られた時系列画像から時系列情報算出部が2次元オプティカルフローなどの移動成分を算出すると、先ず対象物体候補領域抽出部が、前記移動成分を基に、前記対象物体が存在する可能性の高い候補領域を抽出する。その後、その候補領域に対して、3次元情報取得部が、前記単眼のカメラとは別途設けた距離測定部などで距離を算出することで、前記対象物体の候補領域の3次元(実空間上における位置)情報を取得する。或いは、前記ステレオカメラの場合、前記移動成分の算出に用いられた撮像画像を基準画像とするとき、もう1台のカメラによる撮像画像を参照画像として、前記対象物体の候補領域の3次元(実空間上における位置)情報を取得する。こうして得られた前記対象物体の候補領域の3次元情報と、該周辺監視装置との位置関係から、衝突判定部が衝突可能性を判定する。   According to the above configuration, in the periphery monitoring device that is mounted on a moving body and monitors a surrounding target object, the surrounding image is obtained in time series by an image obtaining unit such as a monocular or stereo camera, and obtained. When the time-series information calculating unit calculates a moving component such as a two-dimensional optical flow from the time-series image, first, the target object candidate region extracting unit is based on the moving component and the candidate region where the target object is likely to exist To extract. After that, the three-dimensional information acquisition unit calculates a distance for the candidate region using a distance measurement unit or the like provided separately from the monocular camera. Get position) information. Alternatively, in the case of the stereo camera, when a captured image used for calculating the moving component is used as a reference image, a three-dimensional (actual) of the candidate region of the target object is obtained using a captured image obtained by another camera as a reference image. (Location in space) information is acquired. The collision determination unit determines the possibility of collision from the three-dimensional information of the candidate area of the target object obtained in this way and the positional relationship with the periphery monitoring device.

したがって、先ず対象物体候補領域抽出部が、時系列画像から算出された移動成分から、側方飛び出しなどの衝突予測が難しい対象物体が存在する可能性の高い候補領域を限定し、次に3次元情報取得部が、その候補領域だけの3次元情報を算出し、衝突判定部でその抽出された対象物体の候補領域と監視装置との関係から衝突可能性の判定を行う。すなわち、自走状態で撮影された2次元時系列画像から、衝突予測が難しい対象物体候補領域のみに対し、詳しい3次元情報を求めて衝突危険性を判定する。こうして、複雑な物体認識処理や道路モデルなどを必要とせず、時系列画像から算出された情報のみを用いて対象物体の候補領域を限定することで、処理速度を速く(フレームレートを向上)することができる。   Therefore, first, the target object candidate area extraction unit limits candidate areas where there is a high possibility that a target object that is difficult to predict a collision, such as a side jump, from the moving components calculated from the time-series images, and then three-dimensionally. The information acquisition unit calculates three-dimensional information of only the candidate area, and the collision determination unit determines the possibility of collision from the relationship between the extracted candidate area of the target object and the monitoring device. That is, the risk of collision is determined by obtaining detailed three-dimensional information for only a target object candidate region that is difficult to predict from a two-dimensional time-series image captured in a self-running state. In this way, complicated object recognition processing and road models are not required, and the processing speed is increased (frame rate is improved) by limiting candidate object candidate regions using only information calculated from time-series images. be able to.

また、上記の構成によれば、前記移動成分として、対応点探索処理によって求めた2次元オプティカルフローを用いることで、画素単位の高精度な移動成分を求めることができる。
Moreover, according to said structure, the highly accurate movement component of a pixel unit can be calculated | required by using the two-dimensional optical flow calculated | required by the corresponding point search process as said movement component.

上記の構成によれば、前記3次元情報取得部で前記対象物体の候補領域と判断された位置に対応する3次元(実空間上における位置)情報を取得するにあたって、対象物体が正面に位置するような場合では、前記2次元オプティカルフローは小さくなり、相対速度が大きい場合には衝突の可能性が生じるので、該対象物体候補領域抽出部は、前記2次元オプティカルフローが予め定める値(第1閾値)未満である場合は、前記候補領域として抽出する。
According to the above structure, in order to obtain the 3-dimensional corresponding to the position determined that the candidate region of the target object (the position in the real space) information by the three-dimensional information acquisition unit, Target object positioned in front In such a case, the two-dimensional optical flow becomes small, and when the relative velocity is high, there is a possibility of a collision. Therefore, the target object candidate region extraction unit determines a value (first value ) determined in advance by the two-dimensional optical flow . If first threshold value) less than der Ru extracts as the candidate region.

したがって、演算処理量を抑えつつ、衝突の可能性のある対象物体を漏れなく抽出することができる。   Therefore, it is possible to extract a target object with a possibility of collision without omission while suppressing a calculation processing amount.

また、本発明の周辺監視装置では、前記対象物体候補領域抽出部は、前記予め定める第1閾値以上である2次元オプティカルフローを延長した直線の消失点の中から、最もフローが集まる領域を除外した領域を前記候補領域として抽出することを特徴とする。
In the periphery monitoring device of the present invention, the target object candidate region extraction unit excludes a region where the flow gathers most from a vanishing point of a straight line obtained by extending a two-dimensional optical flow that is equal to or more than the predetermined first threshold. The extracted area is extracted as the candidate area.

上記の構成によれば、移動体に搭載したカメラの時系列画像間に生じる2次元オプティカルフローの中で、その2次元オプティカルフローの延長線の最も集まる消失点は移動体の移動方向に応じて定まり、しかも道路などの静止物体の2次元オプティカルフローが集まる。   According to the above configuration, in the two-dimensional optical flow generated between the time-series images of the camera mounted on the moving body, the vanishing point where the extension lines of the two-dimensional optical flow are most collected depends on the moving direction of the moving body. In addition, two-dimensional optical flows of stationary objects such as roads are collected.

したがって、この領域を除外した領域を前記対象物体の候補領域として抽出することで、より効率的に、移動する対象物体のみを抽出することができる。   Therefore, by extracting an area excluding this area as a candidate area for the target object, it is possible to extract only the target object that moves more efficiently.

また、本発明の周辺監視装置では、前記3次元情報取得部は、前記画像取得部をステレオカメラとして得られたステレオ画像から、前記対象物体候補領域抽出部で算出された前記対象物体の候補領域と判断された位置に対応する3次元(実空間上における位置)情報を、前記ステレオ画像間の対応点探索処理によって算出することを特徴とする。   In the periphery monitoring device of the present invention, the three-dimensional information acquisition unit may calculate the target object candidate region calculated by the target object candidate region extraction unit from a stereo image obtained using the image acquisition unit as a stereo camera. The three-dimensional (position in the real space) information corresponding to the determined position is calculated by the corresponding point search process between the stereo images.

上記の構成によれば、別途距離情報を得る手段を用いることなく、画像のみの情報から距離情報を算出することができるので、シンプルな構成で衝突判定システムを構築することができる。   According to the above configuration, the distance information can be calculated from the information of only the image without using a means for obtaining the distance information separately, so that the collision determination system can be constructed with a simple configuration.

さらにまた、本発明の周辺監視装置では、前記3次元情報取得部は、前記対象物体候補領域抽出部で算出された前記対象物体の候補領域と判断された位置に対応する3次元(実空間上における位置)情報を取得する距離センサであることを特徴とする。   Furthermore, in the periphery monitoring device of the present invention, the three-dimensional information acquisition unit is a three-dimensional (in real space) corresponding to the position determined as the target object candidate region calculated by the target object candidate region extraction unit. The position sensor is a distance sensor that acquires information.

上記の構成によれば、ミリ波レーダなどの別途距離情報を得る手段を用いることで、特別な計算を行うことなく、前記距離情報を求めることができる。   According to said structure, the said distance information can be calculated | required without performing a special calculation by using the means to acquire distance information separately, such as a millimeter wave radar.

また、本発明の周辺監視装置では、前記衝突判定部は、前記時系列情報算出部で得られた前記移動成分と、前記3次元情報取得部で得られた前記候補領域の3次元情報とを用いて、前記候補領域の3次元オプティカルフローを算出する3次元オプティカルフロー算出部を備え、該3次元オプティカルフロー算出部で算出された3次元オプティカルフローと、該周辺監視装置との位置関係とから、衝突可能性を判定することを特徴とする。   In the periphery monitoring device of the present invention, the collision determination unit includes the movement component obtained by the time series information calculation unit and the three-dimensional information of the candidate area obtained by the three-dimensional information acquisition unit. And a three-dimensional optical flow calculation unit that calculates a three-dimensional optical flow of the candidate region, and the three-dimensional optical flow calculated by the three-dimensional optical flow calculation unit and the positional relationship between the periphery monitoring device and Determining the possibility of collision.

上記の構成によれば、3次元オプティカルフローと、該周辺監視装置との位置関係とから、衝突可能性を判定するので、判定処理が簡単である。   According to the above configuration, since the possibility of collision is determined from the three-dimensional optical flow and the positional relationship with the periphery monitoring device, the determination process is simple.

さらにまた、本発明の周辺監視装置では、前記衝突判定部は、前記3次元オプティカルフロー算出部で算出された前記候補領域の3次元オプティカルフローの向きおよび長さと、該周辺監視装置との交差判定によって衝突判定を行うことを特徴とする。   Furthermore, in the periphery monitoring device of the present invention, the collision determination unit determines the intersection and the direction and length of the three-dimensional optical flow of the candidate area calculated by the three-dimensional optical flow calculation unit and the periphery monitoring device. The collision determination is performed by

上記の構成によれば、前記3次元オプティカルフローの向きおよび長さの2つのパラメータを算出できれば、交差判定によって、対象物体が該周辺監視装置に向ってきているかどうかから、衝突可能性の有無を判定することができる。   According to the above configuration, if the two parameters of the direction and length of the three-dimensional optical flow can be calculated, whether or not there is a possibility of collision is determined based on whether or not the target object is facing the periphery monitoring device by the intersection determination. Can be determined.

また、本発明の周辺監視装置では、前記衝突判定部は、前記移動体の速度に対応して、衝突判定を行う前記対象物体までの距離を変更することを特徴とする。 In the periphery monitoring device of the present invention, the collision determination unit changes a distance to the target object on which the collision determination is performed according to the speed of the moving body.

上記の構成によれば、衝突判定を行う対象距離を固定するのではなく、現在の移動体の速度からして、安全と考えられる範囲、たとえば前記速度に対応した停止可能距離の範囲は除外するので、判定処理を軽減することができる。   According to the above configuration, the target distance for performing the collision determination is not fixed, but the range considered to be safe based on the current speed of the moving body, for example, the range of the stoppable distance corresponding to the speed is excluded. Therefore, the determination process can be reduced.

さらにまた、本発明の周辺監視装置では、前記衝突判定部は、前記3次元オプティカルフロー算出部で算出された前記候補領域の3次元オプティカルフローの長さが予め定める閾値以上大きい場合には衝突可能性領域と判定することを特徴とする。   Furthermore, in the periphery monitoring device of the present invention, the collision determination unit can collide when the length of the three-dimensional optical flow of the candidate area calculated by the three-dimensional optical flow calculation unit is greater than a predetermined threshold. It is characterized in that it is determined as a sex region.

上記の構成によれば、上述のようにして前記3次元オプティカルフローと該周辺監視装置との関係から衝突判定を行うにあたって、上述の判定で衝突可能性が低いと判定される領域でも、3次元オプティカルフローの長さが予め定める閾値以上大きい場合には、衝突可能性領域と判定する。   According to the above configuration, when performing a collision determination from the relationship between the three-dimensional optical flow and the periphery monitoring device as described above, even in a region where the possibility of collision is determined to be low in the above determination, the three-dimensional When the length of the optical flow is larger than a predetermined threshold value, it is determined as a collision possibility region.

したがって、3次元オプティカルフローの長さは対象物体の単位時間当りの相対的な移動量を表すので、それが前記閾値以上大きい場合には、急速に近付いている可能性があるので、衝突可能性領域と判定しておくことで、判定遅れとなることを回避することができる。   Therefore, since the length of the three-dimensional optical flow represents the relative movement amount of the target object per unit time, if it is larger than the threshold, there is a possibility that the target object is approaching rapidly. By determining the region, it is possible to avoid a determination delay.

また、本発明の周辺監視装置では、前記時系列情報算出部は、計測点毎に対応点探索処理を行うことを特徴とする。   In the periphery monitoring device of the present invention, the time series information calculation unit performs a corresponding point search process for each measurement point.

上記の構成によれば、前記移動成分としての2次元オプティカルフローを求めるにあたって、対応点探索処理を画素単位毎に行うことで、対象物体候補領域抽出部は、背景や路面を含まない対象物候補領域を詳細に抽出することができる。   According to the above configuration, when obtaining the two-dimensional optical flow as the moving component, the target object candidate area extraction unit performs the corresponding point search process for each pixel, so that the target object candidate area extraction unit does not include the background or the road surface. Regions can be extracted in detail.

さらにまた、本発明の周辺監視装置では、前記対象物体候補領域抽出部は、画面を予め複数の領域に分割しておき、その各領域の代表点に対して計測を行うことで、対象物体候補領域として抽出するか否かを判断することを特徴とする。   Furthermore, in the periphery monitoring device of the present invention, the target object candidate area extracting unit divides the screen into a plurality of areas in advance, and performs measurement on the representative point of each area, thereby the target object candidate It is characterized by determining whether to extract as a region.

上記の構成によれば、対象物体候補領域への切出しを行うにあたって、全ての計測点毎に2次元オプティカルフローを計算するのではなく、画面を予め複数の領域に分割しておき、その各領域の代表点に対して計測を行う。   According to the above configuration, when cutting out to the target object candidate area, instead of calculating the two-dimensional optical flow for every measurement point, the screen is divided into a plurality of areas in advance and each area is divided. Measurement is performed on the representative points.

したがって、計測点数を減らすことが可能となり、より高速な処理が可能になる。   Therefore, it is possible to reduce the number of measurement points and to perform higher speed processing.

本発明の周辺監視装置は、以上のように、移動体に搭載されて周囲の対象物体を監視する周辺監視装置において、時系列画像から2次元オプティカルフローなどの移動成分を算出して、その移動成分を基に衝突対象物体が存在する可能性の高い候補領域を抽出し、その候補領域の3次元情報と、該周辺監視装置との位置関係から、衝突可能性を判定する。   As described above, the periphery monitoring device of the present invention calculates a moving component such as a two-dimensional optical flow from a time-series image in a periphery monitoring device that is mounted on a moving body and monitors a surrounding target object, and moves the same. Based on the components, candidate areas where there is a high possibility that a collision target object is present are extracted, and the possibility of collision is determined from the three-dimensional information of the candidate areas and the positional relationship with the periphery monitoring device.

それゆえ、時系列画像から算出された移動成分から、側方飛び出しなどの衝突予測が難しい対象物体が存在する可能性の高い候補領域を限定し、その候補領域だけの3次元情報を算出するので、複雑な物体認識処理や道路モデルなどを必要とせず、処理速度を速く(フレームレートを向上)することができる。   Therefore, from the moving components calculated from the time-series images, the candidate areas where there is a high possibility that there is a target object that is difficult to predict the collision, such as side jumping out, are limited, and the three-dimensional information of only the candidate areas is calculated. The processing speed can be increased (the frame rate can be improved) without requiring complicated object recognition processing or a road model.

本発明の実施の一形態に係る周辺監視装置の概略構成図である。It is a schematic block diagram of the periphery monitoring apparatus which concerns on one Embodiment of this invention. 衝突可能性の解析にあたっての対象物体の距離と移動量との一般的な求め方を説明するための図である。It is a figure for demonstrating the general method of calculating | requiring the distance and moving amount | distance of a target object in the case of a collision possibility analysis. 前記周辺監視装置におけるコントローラの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the controller in the said periphery monitoring apparatus. 前記コントローラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the said controller. 時系列画像から2次元オプティカルフローを求める様子を説明するための図である。It is a figure for demonstrating a mode that a two-dimensional optical flow is calculated | required from a time-sequential image. 衝突の可能性のある対象物体が存在する可能性の高い候補領域を説明するための図である。It is a figure for demonstrating a candidate area | region with high possibility that the target object with possibility of a collision exists. 前記候補領域を3次元空間上に示す図である。It is a figure which shows the said candidate area | region on three-dimensional space. 前記対象物体が静止物体であるか移動物体であるかを旧来の方法で判定した結果を示す図である。It is a figure which shows the result of having determined whether the said target object is a stationary object or a moving object by the conventional method. 前記対象物体が静止物体であるか移動物体であるかを本実施の形態で判定した結果を示す図である。It is a figure which shows the result of having determined whether the said target object is a stationary object or a moving object in this Embodiment. 静止物体の2次元オプティカルフローの例を示す図である。It is a figure which shows the example of the two-dimensional optical flow of a stationary object. 移動物体と静止物体とが混在する場合の2次元オプティカルフローの例を示す図である。It is a figure which shows the example of a two-dimensional optical flow in case a moving object and a stationary object coexist. 路面の2次元オプティカルフローの例を示す図である。It is a figure which shows the example of the two-dimensional optical flow of a road surface. 2次元オプティカルフローの計算にあたっての画面の領域分割の一例を説明するための図である。It is a figure for demonstrating an example of the area | region division of the screen in the case of calculation of a two-dimensional optical flow. 2次元オプティカルフローの計算にあたっての画面の領域分割の他の例を説明するための図である。It is a figure for demonstrating the other example of the area | region division of the screen in the case of calculation of a two-dimensional optical flow. 対象物体までの距離測定の他の例を説明するための図である。It is a figure for demonstrating the other example of the distance measurement to a target object. 衝突判定の他の例を説明するための図である。It is a figure for demonstrating the other example of collision determination. 対応点探索処理時に用いる多重解像度の手法を説明するための図である。It is a figure for demonstrating the method of the multiresolution used at the time of a corresponding point search process. 衝突判定の一例を説明するための図である。It is a figure for demonstrating an example of collision determination.

図1は、本発明の実施の一形態に係る周辺監視装置1の概略構成図である。この周辺監視装置1は、車両2に搭載されて被写体の2次元入力画像をそれぞれ得るステレオカメラ11,12に、取得したステレオ画像から3次元画像を得て、路面3上に存在する対象物体4,5に対する衝突危険度を判定し、危険度が高い場合に、ブザー6を鳴動して警告を行うコントローラ13を備えて構成され、衝突判定システムに使用される。他にも、警告処理としては、運転者に回避処置を促すように表示ディスプレイに情報を表示したり、衝突対象までの距離や時間、或いは対象の大きさを表示する等の動作を、単独、或いは複数組合わせて行うことができる。一方、前記ブザー6に代えて、記録部が設けられると、前記危険度が高い場合にそのシーンを自動記録するドライブレコーダを実現することができ、ブレーキ装置が設けられると、前記危険度が高い場合に自動的にブレーキを掛ける衝突防止システムを実現することができる。   FIG. 1 is a schematic configuration diagram of a periphery monitoring device 1 according to an embodiment of the present invention. The periphery monitoring device 1 is mounted on a vehicle 2 and obtains a three-dimensional image from the acquired stereo image by stereo cameras 11 and 12 that respectively obtain a two-dimensional input image of a subject, and a target object 4 existing on the road surface 3. , 5 is judged, and when the danger level is high, the controller 13 is provided with a controller 13 that issues a warning by sounding the buzzer 6, and is used in the collision judgment system. In addition, as warning processing, an operation such as displaying information on a display display so as to prompt the driver for avoidance measures, displaying the distance and time to the collision target, or the size of the target alone, Or it can carry out combining two or more. On the other hand, if a recording unit is provided instead of the buzzer 6, a drive recorder that automatically records the scene when the degree of danger is high can be realized. If a brake device is provided, the degree of danger is high. It is possible to realize a collision prevention system that automatically brakes the case.

前記ステレオカメラ11,12は、被写体を同じタイミングで撮影した左右一対の画像(基準画像と参照画像)を出力する。本実施の形態においては、説明の簡単化の為に、ステレオカメラ11,12の収差は良好に補正されており、かつ相互に平行に設置されているものとする。また、実際のハードがこのような条件に無くても、画像処理によって、同等の画像に変換することも可能である。ステレオカメラ11,12からは、前記ステレオ画像が前記コントローラ13に通信線を介して送信される。ステレオカメラ11,12とコントローラ13との間での画像データの通信方式は、有線方式に限定されず、無線方式であってもよい。   The stereo cameras 11 and 12 output a pair of left and right images (a standard image and a reference image) obtained by photographing the subject at the same timing. In this embodiment, for the sake of simplicity of explanation, it is assumed that the aberrations of the stereo cameras 11 and 12 are well corrected and installed parallel to each other. Further, even if the actual hardware is not under such conditions, it is possible to convert it to an equivalent image by image processing. From the stereo cameras 11 and 12, the stereo image is transmitted to the controller 13 via a communication line. The communication method of the image data between the stereo cameras 11 and 12 and the controller 13 is not limited to the wired method, and may be a wireless method.

ここで、前記特許文献4のように、3次元移動成分を用いた衝突可能性の解析の利点は、対象物体4,5と自車両2との衝突可能性の判定を高精度に行うことが可能である点である。しかしながら、図2で示すように、ステレオカメラ11,12の撮像画像から3次元移動成分を算出する場合、画像間の対応付け回数が大きくなり、計算コストが大幅に掛かるという問題点がある。   Here, as in Patent Document 4, the advantage of the collision possibility analysis using the three-dimensional moving component is that the collision possibility between the target objects 4 and 5 and the host vehicle 2 can be determined with high accuracy. That is possible. However, as shown in FIG. 2, when the three-dimensional movement component is calculated from the captured images of the stereo cameras 11 and 12, there is a problem that the number of associations between the images increases and the calculation cost increases significantly.

図2は、前記衝突可能性の解析にあたっての前記対象物体4,5の距離と移動量との一般的な求め方を説明するための図である。ステレオカメラ11,12の一方による画像を基準画像I1とし、他方を参照画像I2とし、時刻tおよびそれからΔt(1フレーム期間)経過した後の計4枚の画像を得ている。この場合、先ず時刻tにおける基準画像I1上の画素P1(i,j,t)に対し、対応点探索処理によって、参照画像I2上の対応点P2(i,j,t)を算出し、3次元情報F(i,j,t)が求められ、前記対象物体4,5までの距離が分る。同様に、時刻t+Δtにおける基準画像I1t+Δt上の画素P(i,j,t+Δt)に対し、対応点探索処理によって、参照画像I2t+Δt上の対応点P2(i,j,t+Δt)を算出し、3次元情報F(i,j,t+Δt)が求められる。続いて、基準画像I1,I1t+Δt同士で対応点探索処理が行われ、画素P1(i,j,t),P1(i,j,t+Δt)間の対応付けが行われる。これによって、3次元情報F(i,j,t),F(i,j,t+Δt)間も対応付けが行われ、前記対象物体4,5の移動量が算出できる。 FIG. 2 is a diagram for explaining a general method for obtaining the distance and the moving amount of the target objects 4 and 5 in the analysis of the collision possibility. An image obtained by one of the stereo cameras 11 and 12 is a standard image I1, and the other is a reference image I2, and a total of four images after time t and after Δt (one frame period) have been obtained. In this case, first, the corresponding point P2 (i, j, t) on the reference image I2 t is calculated by the corresponding point search process for the pixel P1 (i, j, t) on the standard image I1 t at time t. Three-dimensional information F (i, j, t) is obtained, and the distance to the target objects 4 and 5 is known. Similarly, the corresponding point P2 (i, j, t + Δt) on the reference image I2 t + Δt is calculated by the corresponding point search process for the pixel P (i, j, t + Δt) on the standard image I1 t + Δt at time t + Δt, Three-dimensional information F (i, j, t + Δt) is obtained. Subsequently, corresponding point search processing is performed between the reference images I1 t and I1 t + Δt, and association between the pixels P1 (i, j, t) and P1 (i, j, t + Δt) is performed. As a result, the three-dimensional information F (i, j, t) and F (i, j, t + Δt) are also associated, and the amount of movement of the target objects 4 and 5 can be calculated.

しかしながら、ステレオカメラ11,12による3次元計測で最も時間の掛かるのは、この対応付けであり、それを減らす程、処理速度が速くなる(フレームレートを上げることができる)。そこで、本実施の形態では、先ず基準の時系列画像I1,I1t+Δt間で、対象物体4,5の距離と移動量とを用いた3次元移動成分から、これらの対象物体4,5が衝突の可能性の高い候補領域に有るかを判定する。 However, it is this correspondence that takes the most time in the three-dimensional measurement by the stereo cameras 11 and 12, and the processing speed increases (the frame rate can be increased) as it is reduced. Therefore, in the present embodiment, first, the target objects 4 and 5 are obtained from the three-dimensional movement component using the distance and the movement amount of the target objects 4 and 5 between the reference time-series images I1 t and I1 t + Δt. It is determined whether or not the candidate area has a high possibility of collision.

図3は、前記コントローラ13の一構成例を示すブロック図であり、図4はその動作を説明するためのフローチャートである。コントローラ13は、時系列情報算出部21と、対象物体候補領域抽出部22と、3次元情報取得部23と、衝突可能性判定部24とを備えて構成される。画像取得部である前記ステレオカメラ11,12は、ステップS1で、車両2の周囲の画像を時系列に取得し、得られた時系列画像から、注目すべきは、先ず時系列情報算出部21は、ステップS2で、図5で示すように、前記基準画像I1,I1t+Δt間の対応点探索処理によって、画素単位の高精度な2次元オプティカルフローなどの移動(ベクトル)成分OFXY(i,j,t+Δt)を算出することである。すなわち、
OFXY(i,j,t+Δt)=P1(i,j,t+Δt)−P(i,j,t)
である。
FIG. 3 is a block diagram showing an example of the configuration of the controller 13, and FIG. 4 is a flowchart for explaining the operation thereof. The controller 13 includes a time series information calculation unit 21, a target object candidate region extraction unit 22, a three-dimensional information acquisition unit 23, and a collision possibility determination unit 24. In step S1, the stereo cameras 11 and 12 as image acquisition units acquire images around the vehicle 2 in time series. From the obtained time series images, the time series information calculation unit 21 should be noted first. In step S2, as shown in FIG. 5, the movement (vector) component OF XY (i) such as high-precision two-dimensional optical flow in pixel units is obtained by the corresponding point search process between the reference images I1 t and I1 t + Δt. , J, t + Δt). That is,
OF XY (i, j, t + Δt) = P1 (i, j, t + Δt) −P (i, j, t)
It is.

前記2次元オプティカルフローの算出方法としては、勾配法や相関演算法などを用いることができる。前記勾配法は、画像の時空間微分の拘束方程式による条件から2次元オプティカルフローを推定する一般的な手法である。また、前記相関演算法は、ウィンドウ内の相関演算によって対応点探索処理を行うものであり、既に確立されている一般的な手法である。ただし、この前記相関演算法の中でも、2つの入力画像に設定したウインドウ内のパターンを周波数分解し、振幅成分を抑制した信号の類似度に基づいて、サブピクセル単位で対応位置を演算することができるPOC(位相限定相関法)を用いることによって、前記基準画像I1,I1t+Δt間の輝度差やノイズの影響を受け難くなり、それらの対応付けを、安定かつ高精度に行うことが可能となる。前記ウィンドウ内のパターンを周波数分解する方法としては、FFT、DFT、DCT、DST、ウエーブレット変換、アダマール変換などの既に確立されている方法を用いることができ、これらの方法で周波数分解を確実に行うことができる。このように2次元オプティカルフローを求めるにあたって、対応点探索処理を画素単位毎に行うことで、後続の対象物体候補領域抽出部22は、背景や路面3を含まない対象物候補領域を詳細に抽出することができるようになる。 As a method for calculating the two-dimensional optical flow, a gradient method, a correlation calculation method, or the like can be used. The gradient method is a general technique for estimating a two-dimensional optical flow from a condition based on a constraint equation of spatiotemporal differentiation of an image. In addition, the correlation calculation method performs corresponding point search processing by correlation calculation within a window, and is a general technique already established. However, among these correlation calculation methods, it is possible to calculate the corresponding position in units of subpixels based on the similarity of the signals in which the pattern in the window set for two input images is frequency-resolved and the amplitude component is suppressed. By using the POC (phase-only correlation method) that can be performed, it becomes difficult to be affected by the luminance difference and noise between the reference images I1 t and I1 t + Δt , and the correspondence can be performed stably and with high accuracy. Become. As a method for frequency-resolving the pattern in the window, an already established method such as FFT, DFT, DCT, DST, wavelet transform, Hadamard transform, etc. can be used. It can be carried out. In this way, when obtaining the two-dimensional optical flow, the corresponding target candidate region extraction unit 22 extracts the target candidate region that does not include the background or the road surface 3 in detail by performing the corresponding point search process for each pixel unit. Will be able to.

続いて、対象物体候補領域抽出部22が、ステップS3で、前記移動成分OFXY(i,j,t+Δt)を基に、図6で示すように、前記対象物体4,5が存在する可能性の高い候補領域OB(t,n)を抽出する。nは、1,2,・・・で、グループ化された候補領域(対象物体)の番号であるが、グループ化しない場合は静止物体か対象物体かのフラグとして使用してもよい。図6の例では、時刻tにおける1番目の候補領域OB(t,1)で、それを構成する画素は、P1(2,2,t),P1(3,2,t),P1(2,3,t),P1(3,3,t),P1(2,4,t),P1(3,4,t)である。 Subsequently, the target object candidate area extraction unit 22 may cause the target objects 4 and 5 to exist as shown in FIG. 6 based on the movement component OF XY (i, j, t + Δt) in step S3. Candidate region OB (t, n) having a high value is extracted. n is 1, 2,..., and is the number of the grouped candidate area (target object), but may be used as a flag indicating whether the object is a stationary object or a target object when not grouped. In the example of FIG. 6, in the first candidate region OB (t, 1) at time t, the pixels constituting it are P1 (2,2, t), P1 (3,2, t), P1 (2 , 3, t), P1 (3, 3, t), P1 (2, 4, t), P1 (3,4, t).

こうして候補領域OB(t,1)が抽出されると、3次元情報取得部23が、ステップS4で、それを構成する画素P1(2,2,t),P1(3,2,t),P1(2,3,t),P1(3,3,t),P1(2,4,t),P1(3,4,t)に対して、参照画像I2上の対応点P2(i,j,t)を対応点探索し、さらに対応する画素間の視差情報から、図7で示すような3次元(実空間上における位置)情報XYZ(i,j,t)(図6の場合には、XYZ(2,2,t,1),XYZ(3,2,t,1),XYZ(2,3,t,1),XYZ(3,3,t,1),XYZ(2,4,t,1),XYZ(3,4,t,1))を求める。同様に、Δt後の基準画像I1t+Δtについても、前記3次元情報取得部23は、前記候補領域OB(t,1)に対応する候補領域OB(t+Δt,1)の3次元情報XYZ(i,j,t+Δt)を求める。 When the candidate region OB (t, 1) is extracted in this way, the three-dimensional information acquisition unit 23, in step S4, the pixels P1 (2,2, t), P1 (3,2, t), For P1 (2,3, t), P1 (3,3, t), P1 (2,4, t), P1 (3,4, t), the corresponding point P2 (i on the reference image I2 t , J, t), the corresponding points are searched, and the three-dimensional (position in the real space) information XYZ (i, j, t) as shown in FIG. XYZ (2, 2, t, 1), XYZ (3, 2, t, 1), XYZ (2, 3, t, 1), XYZ (3, 3, t, 1), XYZ (2 , 4, t, 1), XYZ (3,4, t, 1)). Similarly, for the reference image I1 t + Δt after Δt , the three-dimensional information acquisition unit 23 also sets the three-dimensional information XYZ (i, i) of the candidate area OB (t + Δt, 1) corresponding to the candidate area OB (t, 1). j, t + Δt).

こうして求められた同じ対象物体に対する時系列の3次元情報XYZ(i,j,t),XYZ(i,j,t+Δt)による3次元移動成分から、衝突判定部24は、その3次元オプティカルフロー算出部24aにおいて、ステップS5で、3次元オプティカルフローOF3を求め、その3次元オプティカルフローOF3と自車両2との位置関係から衝突可能性を判定し、ステップS6で衝突の可能性があれば、ステップS7でブザー6を鳴動して、時間Δt後に前記ステップS1に戻り、衝突の可能性が無ければ、そのまま時間Δt後に前記ステップS1に戻る。   From the three-dimensional movement component based on the time-series three-dimensional information XYZ (i, j, t) and XYZ (i, j, t + Δt) for the same target object thus obtained, the collision determination unit 24 calculates the three-dimensional optical flow. The unit 24a obtains the three-dimensional optical flow OF3 in step S5, determines the possibility of collision from the positional relationship between the three-dimensional optical flow OF3 and the host vehicle 2, and if there is a possibility of collision in step S6, In step S7, the buzzer 6 is sounded and the process returns to step S1 after time Δt. If there is no possibility of collision, the process returns to step S1 after time Δt.

前記衝突可能性の判定は、図18に示すように、前記3次元オプティカルフローOF3を用いることで、簡単で、高精度な判定を行うことができる。具体的には、その3次元オプティカルフローOF3の延長線と、自車両2とが交差するか否かを判定することで、該自車両2の前方に位置する対象物体4,5が衝突する可能性のある物体であるか否かを判定する。したがって、前記3次元オプティカルフローOF3の向きおよび長さの2つのパラメータを算出できれば、前記延長線を作成でき、その延長線と自車両2との交差判定によって、対象物体4,5が該周辺監視装置1に向ってきているかどうかから、衝突可能性の有無を判定することができる。図18では、自車両2の進路上にある路上障害物(静止体)から成る対象物体5および先行車両から成る対象物体4に加えて、前記進路上にはないものの、車線を横切ることで、前記3次元オプティカルフローOF3が交差する人物から成る対象物体7も、衝突物体と判定される。このように、3次元オプティカルフローOF3は自車両2の速度と対象物体4,5,7の速度との合成ベクトルによって表され、対象物体4,5,7の動きを3次元的に解析することができるので、衝突判定処理を精度良く行うことができ、好適である。この衝突判定処理の詳しくは、本件出願人による特願2008−24478号に詳しく記載されている。   As shown in FIG. 18, the determination of the possibility of collision can be performed easily and with high accuracy by using the three-dimensional optical flow OF3. Specifically, by determining whether or not the extension line of the three-dimensional optical flow OF3 and the host vehicle 2 intersect, the target objects 4 and 5 positioned in front of the host vehicle 2 can collide with each other. It is determined whether the object is a sex object. Therefore, if the two parameters of the direction and length of the three-dimensional optical flow OF3 can be calculated, the extension line can be created, and the target objects 4 and 5 can monitor the surroundings based on the intersection determination between the extension line and the host vehicle 2. Whether or not there is a possibility of collision can be determined from whether or not the device 1 is facing. In FIG. 18, in addition to the target object 5 consisting of a road obstacle (stationary body) on the path of the host vehicle 2 and the target object 4 consisting of a preceding vehicle, although not on the path, crossing the lane, The target object 7 made up of persons intersecting with the three-dimensional optical flow OF3 is also determined as a collision object. As described above, the three-dimensional optical flow OF3 is represented by a combined vector of the speed of the host vehicle 2 and the speeds of the target objects 4, 5, and 7, and the movement of the target objects 4, 5, and 7 is analyzed three-dimensionally. Therefore, the collision determination process can be performed with high accuracy, which is preferable. Details of this collision determination processing are described in detail in Japanese Patent Application No. 2008-24478 by the applicant of the present application.

また好ましくは、前記衝突判定部24は、上述のようにして3次元オプティカルフローOF3と自車両2との関係から衝突判定を行うにあたって、上述の判定で衝突可能性が低いと判定される領域でも、前記3次元オプティカルフロー算出部24aで算出された前記候補領域の3次元オプティカルフローOF3の長さが予め定める閾値以上大きい場合には衝突可能性領域と判定する。したがって、3次元オプティカルフローOF3の長さは対象物体4,5,6の単位時間当りの相対的な移動量を表すので、それが前記閾値以上大きい場合には、急速に近付いている可能性があるので、衝突可能性領域と判定しておくことで、判定遅れとなることを回避することができる。   In addition, preferably, the collision determination unit 24 performs the collision determination from the relationship between the three-dimensional optical flow OF3 and the host vehicle 2 as described above, even in an area where the possibility of a collision is determined to be low in the above determination. When the length of the three-dimensional optical flow OF3 of the candidate area calculated by the three-dimensional optical flow calculation unit 24a is larger than a predetermined threshold, it is determined as a collision possibility area. Therefore, since the length of the three-dimensional optical flow OF3 represents the relative movement amount of the target objects 4, 5, and 6 per unit time, if it is larger than the threshold value, there is a possibility that it is approaching rapidly. Since there is a collision possibility region, it is possible to avoid a determination delay.

ここで、画像から算出された2次元オプティカルフローから、対象物体が静止物体であるか、移動物体であるかを判定した場合、その結果は、図8で示すようになる。すなわち、2次元オプティカルフローの大きさが或るレベルOF1を超えると、対象物体の速度が或るレベルV1を境に、大きければ移動物体の候補、小さければ静止物体の候補と明確に判定できるが、前記2次元オプティカルフローの大きさが前記レベルOF1以下であると、対象物体が移動物体の候補であるのか、静止物体の候補であるのかの切り分けが困難になってしまう。すなわち、たとえば対象物体が自車両2の比較的正面にあるような場合には、相対速度が大きくても、前記2次元でのオプティカルフローは小さくなってしまう。したがって、このオプティカルフローが小さいような場合においても、衝突の危険性が多く含まれていることから、対象物体を含むような領域を、漏れの無いように抽出する必要がある。そこで、本実施の形態では、前記対象物体候補領域抽出部22に、以下の2つの対象物候補領域抽出方法を用いることで、図9で示すように、前記2次元オプティカルフローの大きさが前記レベルOF1未満であっても、移動速度が予め定める値V1以下である場合は前記候補領域として抽出することで、演算処理量を抑えつつ、そのような抽出の漏れを無くす。   Here, when it is determined from the two-dimensional optical flow calculated from the image whether the target object is a stationary object or a moving object, the result is as shown in FIG. That is, when the size of the two-dimensional optical flow exceeds a certain level OF1, it can be clearly determined that the speed of the target object is a certain level V1, and if it is large, it is a moving object candidate, and if it is small, it is a stationary object candidate. If the size of the two-dimensional optical flow is equal to or less than the level OF1, it becomes difficult to determine whether the target object is a moving object candidate or a stationary object candidate. That is, for example, when the target object is relatively in front of the host vehicle 2, the two-dimensional optical flow is small even if the relative speed is high. Therefore, even when the optical flow is small, there is a high risk of collision, so it is necessary to extract an area including the target object without leakage. Therefore, in the present embodiment, by using the following two candidate object region extraction methods for the target object candidate region extraction unit 22, as shown in FIG. 9, the size of the two-dimensional optical flow is Even if it is less than level OF1, if the moving speed is equal to or less than a predetermined value V1, it is extracted as the candidate area, so that such extraction omission is eliminated while suppressing the amount of calculation processing.

先ず、前記2次元オプティカルフローの大きさが前記レベルOF1以上であり、かつ対称物体の移動速度が予め定める値V1より大きい場合に適用される第1の対象物候補領域抽出方法では、以下の3つの物体の切出し方法を用い、衝突判定を行うべき移動物体であるか、衝突判定の必要のない静止物体であるのかの切分けを行い、対象物体の領域を対象物体候補領域として抽出する。第1の切出し方法では、ステレオカメラ11,12が前方へ向けて取付けられ、自車両2が前方へ直進移動する場合、図10で示すように、静止物体8の2次元オプティカルフローOFSを延長した直線OFSaは、或る1点で交わることを利用するものである。この点は、消失点(FOE:Focus of Expansion)と呼ばれ、自車両2の移動方向に応じて定まる定点となる。たとえば、この図10のように静止物体8だけ存在するシーンにおいて、時刻tとt+Δtとの時系列画像から算出された2次元オプティカルフローOFSの延長線OFSaは、画像の中央付近に定まる。   First, in the first object candidate region extraction method applied when the magnitude of the two-dimensional optical flow is equal to or higher than the level OF1 and the moving speed of the symmetric object is larger than a predetermined value V1, Using two object extraction methods, it is determined whether the object is a moving object to be subjected to collision determination or a stationary object that does not need collision determination, and the target object region is extracted as a target object candidate region. In the first cutting-out method, when the stereo cameras 11 and 12 are mounted forward and the host vehicle 2 moves straight forward, the two-dimensional optical flow OFS of the stationary object 8 is extended as shown in FIG. The straight line OFSa uses the intersection at a certain point. This point is called a vanishing point (FOE: Focus of Expansion) and is a fixed point determined according to the moving direction of the host vehicle 2. For example, in a scene where only the stationary object 8 exists as shown in FIG. 10, the extension line OFSa of the two-dimensional optical flow OFS calculated from the time-series images at time t and t + Δt is determined near the center of the image.

これに対して、図11のように移動物体7と静止物体8とが混在するようなシーンのFOEは、静止物体8のFOEが、前述のように画像の中央付近に定まるのに対し、移動物体7の2次元オプティカルフローOFMの延長線OFMaのFOEは、前記画像中央とは限らず、任意に散在する。つまり静止物体8以外の対象物体においては、それぞれ独立のFOEが存在する。第1の切出し方法では、このFOEの特徴を用いて、対象物候補領域を抽出する。   On the other hand, the FOE of the scene in which the moving object 7 and the stationary object 8 are mixed as shown in FIG. 11 moves while the FOE of the stationary object 8 is determined near the center of the image as described above. The FOE of the extension line OFMa of the two-dimensional optical flow OFM of the object 7 is not limited to the center of the image but is arbitrarily scattered. In other words, each target object other than the stationary object 8 has an independent FOE. In the first cutout method, an object candidate region is extracted using the feature of the FOE.

抽出方法としては、単純に、各FOEに集まる計測点の数から算出することができる。たとえば、2次元オプティカルフローOFM,OFSの計測点数がN点存在した中で、最も集まっているFOEを算出し、そのFOEに集まる計測点を除外することで、移動物体7の候補領域を抽出することができる。すなわち、移動体に搭載したカメラ11,12の時系列画像間に生じる2次元オプティカルフローOFS,OFMの中で、その2次元オプティカルフローOFS,OFMの延長線OFSa,OFMaの最も集まる消失点(FOE)は移動体の移動方向に応じて定まり、しかも道路などの静止物体8の2次元オプティカルフローが集まるので、この領域を除外した領域を前記対象物体4,5(移動物体7)の候補領域として抽出することで、より効率的に、移動する対象物体のみを抽出することができる。   As an extraction method, it can be simply calculated from the number of measurement points gathered in each FOE. For example, among N measurement points of the two-dimensional optical flows OFM and OFS, the most gathered FOE is calculated, and the candidate points of the moving object 7 are extracted by excluding the measurement points gathered in the FOE. be able to. That is, among the two-dimensional optical flows OFS and OFM generated between the time-series images of the cameras 11 and 12 mounted on the moving body, the vanishing point (FOE) where the extension lines OFSa and OFMa of the two-dimensional optical flows OFS and OFM gather most. ) Is determined according to the moving direction of the moving body, and the two-dimensional optical flow of the stationary object 8 such as a road is gathered. By extracting, it is possible to extract only the moving target object more efficiently.

そして、移動物体7が複数存在する場合にも、同様に移動している物体はFOEが略一致するので、FOE毎に複数の物体をグループ化することが可能である。また、図12のように路面3における2次元オプティカルフローOFRの延長線OFRaのFOEも、静止物体8と同様の画像中央のFOEに集まることから、この方法によって路面3を含んだ静止物体8と、それ以外の移動物体との判別を行うことが可能となる。   Even in the case where there are a plurality of moving objects 7, since the FOEs of the moving objects are substantially the same, it is possible to group a plurality of objects for each FOE. Further, as shown in FIG. 12, the FOE of the extension line OFRa of the two-dimensional optical flow OFR on the road surface 3 also gathers in the FOE at the center of the image similar to the stationary object 8, so that the stationary object 8 including the road surface 3 can be obtained by this method. It is possible to discriminate from other moving objects.

一方、第2の切出し方法では、上述のように全ての計測点毎に2次元オプティカルフローを計算するのではなく、画面を予め複数の領域に分割しておき、その各領域の代表点に対して計測を行う。具体的には図13で示すように、画像領域10を、等間隔の局所領域Aに分割し、それぞれの局所領域の代表計測点OB(i,j,t+Δt,n)の結果から、対象物体候補の抽出を行う。この方法の利点は、計測点数を減らすことが可能となり、より高速な処理が可能なことである。   On the other hand, in the second cutout method, the two-dimensional optical flow is not calculated for every measurement point as described above, but the screen is divided into a plurality of areas in advance, and the representative points of each area are calculated. To measure. Specifically, as shown in FIG. 13, the image region 10 is divided into equally spaced local regions A, and the target object is obtained from the result of the representative measurement points OB (i, j, t + Δt, n) of each local region. Extract candidates. The advantage of this method is that the number of measurement points can be reduced and higher speed processing is possible.

なお、各局所領域Aの設定方法としては、上述のような等間隔となるようにしてもよいが、図14で示すような、不等間隔であてもよい。この図14の例では、自車両2の近傍(画面下部)側の局所領域A1が大きく、遠去かる(画面上部に行く)程、参照符号A2,A3,・・・というように、小さくなっている。これは、車載カメラの場合、画像上部に行くに従ってより距離が遠くなる、つまり画像上で対象物体が小さくなることからである。これによって、計測点数を一層減らすことが可能となり、より高速な処理が可能になる。   In addition, as a setting method of each local area | region A, you may make it become equal intervals as above-mentioned, but it may be unequal intervals as shown in FIG. In the example of FIG. 14, the local area A1 in the vicinity (lower part of the screen) side of the own vehicle 2 is larger, and the farther away (going to the upper part of the screen), the smaller the reference symbols A2, A3,. ing. This is because in the case of a vehicle-mounted camera, the distance is further increased as it goes to the upper part of the image, that is, the target object becomes smaller on the image. As a result, the number of measurement points can be further reduced, and higher-speed processing is possible.

さらにまた、第3の切出し方法は、たとえば(「主成分分析を用いた移動物体認識法の検討」情報処理学会研究報告、コンピュータビジョン研究会報告 IPSJ SIG Notes 96(31) pp,51−58 19960321)で示されるように既存技術であり、局所領域に切分けた領域毎にFOEを推定する際の推定誤差を加算、閾値処理することによって、対象物体を検出するような手法(消失点推定残差法)である。この手法は、歩行者を含む領域における推定残差は、背景における推定残差に比べ大きな値となることから、推定誤差が大きい領域を対象物候補領域OB(i,j,t+Δt,n)として検出することができる。これら第1〜第3の切出し方法を用いて、第1の対象物候補領域抽出方法を実現することができる。   Furthermore, the third clipping method is, for example, “(Examination of moving object recognition method using principal component analysis” Information Processing Society of Japan Research Report, Computer Vision Research Group Report IPSJ SIG Notes 96 (31) pp, 51-58 19960321. ), Which is an existing technology, and adds a estimation error when estimating the FOE for each area divided into local areas and performs threshold processing to detect the target object (remaining vanishing point estimation residual). Difference method). In this method, since the estimated residual in the area including the pedestrian is larger than the estimated residual in the background, the area having a large estimation error is set as the object candidate area OB (i, j, t + Δt, n). Can be detected. Using these first to third cutout methods, the first object candidate region extraction method can be realized.

これに対して、前記2次元オプティカルフローの大きさが前記レベルOF1未満の場合に適用される第2の対象物候補領域抽出方法では、前述のようにして算出された2次元オプティカルフロー(移動成分)OFXY(i,j,t+Δt)のベクトルの大きさがある範囲より小さいものだけを抽出し、抽出された領域を対象物候補OB(i,j,t+Δt,n)の存在する領域として抽出する。つまり、2次元画像から算出したオプティカルフローOFXY(i,j,t+Δt)がある程度大きなフローとして算出することができ(図8,9でOF1を超えるもの)、路面3との切り分けが容易に行える場合においては、その2次元オプティカルフローOFXY(i,j,t+Δt)で衝突可能性の判断を行うことができるが、小さい場合(図8,9でOF1以下のもの)は、対象物体の移動成分が、自車両2の走行によって発生しているのか、対象物体自体の移動によるものを含んでいるのかの切り分けが難しい。そこで、小さいものだけに対して3次元オプティカルフローを算出し、衝突の有無を判断することで、前述のように演算量を減らし、精度良く判定を行うことが可能である。 In contrast, in the second object candidate region extraction method applied when the size of the two-dimensional optical flow is less than the level OF1, the two-dimensional optical flow (movement component) calculated as described above is used. ) OF XY (i, j, t + Δt) is extracted only when the vector size is smaller than a certain range, and the extracted region is extracted as a region where the object candidate OB (i, j, t + Δt, n) exists. To do. That is, the optical flow OF XY (i, j, t + Δt) calculated from the two-dimensional image can be calculated as a somewhat large flow (that exceeds OF1 in FIGS. 8 and 9), and can be easily separated from the road surface 3. In some cases, the possibility of collision can be determined by the two-dimensional optical flow OF XY (i, j, t + Δt), but if it is small (the one below OF1 in FIGS. 8 and 9), the movement of the target object It is difficult to determine whether the component is generated by the traveling of the host vehicle 2 or includes the component due to the movement of the target object itself. Therefore, by calculating the three-dimensional optical flow for only small ones and determining the presence or absence of a collision, it is possible to reduce the amount of calculation as described above and perform the determination with high accuracy.

以上のようにして、前記ステップS3での対象物候補抽出部22による対象物候補領域OB(i,j,t+Δt,n)の抽出が終了すると、前記ステップS4で、3次元情報取得部23が、該対象物体候補領域OB(i,j,t+Δt,n)に対応する時刻tの撮影画像I1(i,j,t)と位置的な対応関係を持つ3次元情報XYZ(i,j,t,n)と、時刻t+Δtの撮影画像I1(i,j,t+Δt)と、位置的な対応関係を持つ3次元情報XYZ(i,j,t+Δt,n)とを算出する。   As described above, when the extraction of the candidate object region OB (i, j, t + Δt, n) by the candidate object extraction unit 22 in step S3 is completed, the three-dimensional information acquisition unit 23 performs the step S4. , Three-dimensional information XYZ (i, j, t) having a positional correspondence with the captured image I1 (i, j, t) at time t corresponding to the target object candidate region OB (i, j, t + Δt, n). , N), the captured image I1 (i, j, t + Δt) at time t + Δt, and three-dimensional information XYZ (i, j, t + Δt, n) having a positional correspondence relationship are calculated.

その算出にあたっては、上述の説明では、画像取得手段をステレオカメラ11,12として、3次元情報取得部23では、そのステレオ画像から、前記対象物体候補領域抽出部22で算出された前記対象物体の候補領域OB(i,j,t+Δt,n)と判断された位置に対応する3次元(実空間上における位置)情報を、前記ステレオ画像間の対応点探索処理によって算出する。この場合は、別途距離情報を得る手段を用いることなく、画像のみの情報から距離情報を算出することができるので、シンプルな構成で衝突判定システムを構築することができる。   In the calculation, in the above description, the image acquisition unit is the stereo cameras 11 and 12, and the three-dimensional information acquisition unit 23 calculates the target object calculated by the target object candidate region extraction unit 22 from the stereo image. Three-dimensional (position in the real space) information corresponding to the position determined as the candidate area OB (i, j, t + Δt, n) is calculated by the corresponding point search process between the stereo images. In this case, since the distance information can be calculated from the information of only the image without using a separate means for obtaining the distance information, a collision determination system can be constructed with a simple configuration.

しかしながら、本実施の形態で3次元情報を求めるには、対象物体までの距離情報が分ればよいので、カメラをモノラル(単眼)のカメラとし、外部の距離計測手段との組合わせに置換えてもよい。   However, in order to obtain the three-dimensional information in this embodiment, it is only necessary to know the distance information to the target object, so that the camera is a monaural (monocular) camera and is replaced with a combination with an external distance measuring means. Also good.

前記距離計測手段としては、たとえば図15で示すように、CMOSセンサ51の周辺に装着されたLED52から近赤外線を照射し、被写体53に当って帰ってくる反射光をCMOSセンサ51が受光するまでの時間をタイマ54で計測する、いわゆるTOF(time of flight)方式で実現することができる。CMOSセンサ51の各画素での受光結果が、画像10上の各領域Aに存在する対象物体までの距離情報となり、こうして前記3次元情報を取得することができる。このような構成の代表的なものとしては、Canesta社によるレーザレンジファインダがあり、3次元計測結果を出力する。この3次元情報を用いることで、前記ステップS3で抽出された各対象物体候補領域OB(i,j,t+Δt,n)に対応する3次元情報の位置的な対応関係を取得することができる。   As the distance measuring means, for example, as shown in FIG. 15, the near infrared light is emitted from the LED 52 mounted around the CMOS sensor 51, and the reflected light returning to the subject 53 is received by the CMOS sensor 51. This time can be realized by a so-called TOF (time of flight) method in which the timer 54 measures time. The light reception result at each pixel of the CMOS sensor 51 becomes distance information to the target object existing in each area A on the image 10, and thus the three-dimensional information can be acquired. A typical example of such a configuration is a laser range finder manufactured by Canesta, which outputs a three-dimensional measurement result. By using this three-dimensional information, it is possible to acquire the positional correspondence of the three-dimensional information corresponding to each target object candidate region OB (i, j, t + Δt, n) extracted in step S3.

また、別の方法としては、レーダ電波を出射し、対象物体から反射してきた反射波を受信し、伝搬時間やドップラー効果によって生じる周波数差などを基に、前方の障害物までの距離を測定するものがある。代表的なものとしては、ミリ波レーダなどである。これら別機器によって取得された3次元情報取得とカメラ11,12による撮像画像との対応関係は、たとえば特開2000−348199号公報(テクスチャマッピング方法及び装置)のような手法を用い、対応関係を記憶させておけば、カメラの画角とミリ波の物体検知角度とによって、対応関係を得ることは可能である。このように別途距離計測手段を設けた場合、特別な計算を行うことなく、前記距離情報を求めることができる。   Another method is to emit radar radio waves, receive reflected waves reflected from the target object, and measure the distance to obstacles ahead based on the propagation time and frequency difference caused by the Doppler effect. There is something. A typical example is a millimeter wave radar. The correspondence relationship between the acquisition of the three-dimensional information acquired by these different devices and the images captured by the cameras 11 and 12 is based on, for example, a method as disclosed in JP 2000-348199 A (texture mapping method and apparatus). If stored, it is possible to obtain a correspondence between the angle of view of the camera and the object detection angle of the millimeter wave. When the distance measuring means is separately provided as described above, the distance information can be obtained without performing a special calculation.

このようにして、各対象物体候補領域OB(i,j,t+Δt,n)に対応する3次元情報が得られると、前述のようにステップS6で、衝突可能性判定部24は、対象物体4,5が自車両2に衝突するか否かを判定する。それには、ステップS5で算出された2次元オプティカルフロー(移動成分)OFXY(i,j,t+Δt)の向きおよび長さならびに自車両2の速度と、上述のようにして求められた各対象物体候補領域OB(i,j,t+Δt,n)までの距離XYZ(i,j,t,n),XYZ(i,j,t+Δt,n)から、衝突判定を行う。前記速度の情報は、車両2側から得てもよいが、予め定める領域、たとえば正面下方の路面3のオプティカルフローの長さから求めることができる。 When the three-dimensional information corresponding to each target object candidate area OB (i, j, t + Δt, n) is obtained in this way, the collision possibility determination unit 24 determines that the target object 4 in step S6 as described above. , 5 collide with the host vehicle 2. For this purpose, the direction and length of the two-dimensional optical flow (movement component) OF XY (i, j, t + Δt) calculated in step S5, the speed of the host vehicle 2, and each target object obtained as described above. The collision determination is performed from the distances XYZ (i, j, t, n) and XYZ (i, j, t + Δt, n) to the candidate area OB (i, j, t + Δt, n). The speed information may be obtained from the vehicle 2 side, but can be obtained from a predetermined area, for example, the length of the optical flow on the road surface 3 below the front.

好ましくは、前記衝突判定部24は、衝突判定を行う対象距離を固定するのではなく、現在の自車両2の速度に対応して、変更するようにすればよい。このように構成することで、自車両2の速度からして、安全と考えられる範囲、たとえば前記速度に対応した停止可能距離(=空走距離+制動距離)や、ハンドルでの回避距離(運転者の操作遅れに、ステアリング機構の応答遅れ時間を考慮してもハンドル操作で安全に回避できる距離)の範囲は除外するので、判定処理を軽減することができる。   Preferably, the collision determination unit 24 may change the distance corresponding to the current speed of the host vehicle 2 instead of fixing the target distance for performing the collision determination. By configuring in this way, the range considered safe based on the speed of the host vehicle 2, for example, the stoppable distance corresponding to the speed (= free running distance + braking distance), avoidance distance at the steering wheel (driving Since the range of the distance that can be safely avoided by the steering operation even if the response delay time of the steering mechanism is taken into account, the determination process can be reduced.

また、前記衝突可能性判定部24が、衝突判定を行うにあたって、図16で示すように、自車両2のハンドル操作が行われている際には、その操舵による移動方向を加味して衝突判定を行うことが好ましい。詳しくは、移動物体7が矢符F1で示すように直進しているところ、自車両2が矢符F2で示すように、角度θで曲がっていると、見掛け上、移動物体7が矢符F3で示すように前記角度θで曲がって接近して来るものと判定し、自車両2については、矢符F4の直進として、衝突判定を行う。すなわち、移動物体7の2次元オプティカルフローについては、実際に時系列画像I1,I1t+Δtから求められた2次元オプティカルフローOFXY(i,j,t+Δt)に、前記角度θ分の補正が加えられる。前記角度θは、車体制御のECUなどから、ステアリングセンサ出力などとして取込むことができる。 In addition, when the collision possibility determination unit 24 performs the collision determination, as shown in FIG. 16, when the steering operation of the host vehicle 2 is performed, the collision determination is performed in consideration of the moving direction by the steering. It is preferable to carry out. Specifically, when the moving object 7 is moving straight as indicated by the arrow F1, if the host vehicle 2 is bent at an angle θ as indicated by the arrow F2, the moving object 7 appears to be the arrow F3. As shown by, it is determined that the vehicle is bent at the angle θ and approaches, and the collision determination is performed with respect to the host vehicle 2 as the straight travel of the arrow F4. That is, for the two-dimensional optical flow of the moving object 7, correction for the angle θ is added to the two-dimensional optical flow OF XY (i, j, t + Δt) actually obtained from the time-series images I1 t and I1 t + Δt. It is done. The angle θ can be taken in as a steering sensor output or the like from a body control ECU or the like.

さらにまた、好ましくは、前記時系列情報算出部21は、前記ステレオカメラ11,12で得られた時系列画像の対応点の探索処理に、図17で示すような多重解像度を用いる。具体的には、上述の説明では、図5で示すように、時刻tの基準画像I1に対して、時刻t+Δtの基準画像I1t+Δtでの対応点を探索しているので、本来の高解像度の前記基準画像I1t+Δtに対応する1または複数の階層の低解像度の画像(図17の例ではI1’t+Δt,I1''t+Δt)を作成し、最も低解像度の画像I1''t+Δtから、I1’t+Δt,I1t+Δtへと、順次解像度を上げて対応点Qを探してゆくものである。このような手法を採用することで、2つの基準画像I1,I1t+Δt間で対応点の位置が離れていても、効率的、かつ高精度に対応点を探索することができる。 Furthermore, preferably, the time-series information calculation unit 21 uses a multi-resolution as shown in FIG. 17 for the corresponding point search process of the time-series images obtained by the stereo cameras 11 and 12. Specifically, in the above description, as shown in FIG. 5, since the corresponding point in the reference image I1 t + Δt at time t + Δt is searched for the reference image I1 t at time t, the original high resolution from the reference image I1 t + (in the example of FIG. 17 I1 't + Δt, I1 ''t + Δt) corresponding one or more hierarchies of low-resolution images to Delta] t to create the lowest-resolution image I1''t + Δt, I1 ' t + Δt and I1 t + Δt are sequentially searched for the corresponding point Q by increasing the resolution. By adopting such a method, even if the position of the corresponding point is separated between the two reference images I1 t and I1 t + Δt , the corresponding point can be searched efficiently and with high accuracy.

以上のように、本実施の形態の周辺監視装置1では、車両2に搭載されて周囲の対象物体4,5を監視する周辺監視装置において、単眼またはステレオのカメラ11,12などの画像取得部で前記周囲の画像を時系列に取得し、得られた時系列画像から時系列情報算出部21が2次元オプティカルフローなどの移動成分を算出すると、先ず対象物体候補領域抽出部22が、前記移動成分を基に、前記対象物体4,5が存在する可能性の高い候補領域を抽出し、その後、その候補領域に対して、3次元情報取得部23が前記対象物体4,5の候補領域の3次元(実空間上における位置)情報を取得し、得られた前記対象物体4,5の候補領域の3次元情報と、該周辺監視装置1との位置関係から、衝突判定部24が衝突可能性を判定する。   As described above, in the periphery monitoring device 1 according to the present embodiment, in the periphery monitoring device that is mounted on the vehicle 2 and monitors the surrounding target objects 4 and 5, an image acquisition unit such as a monocular or stereo camera 11 or 12. When the surrounding image is acquired in time series, and the time series information calculating unit 21 calculates a moving component such as a two-dimensional optical flow from the obtained time series image, first, the target object candidate region extracting unit 22 first moves the moving object. Based on the components, candidate areas where the target objects 4 and 5 are likely to exist are extracted, and then the three-dimensional information acquisition unit 23 extracts the candidate areas of the target objects 4 and 5 from the candidate areas. The three-dimensional (position in the real space) information is acquired, and the collision determination unit 24 can collide from the obtained three-dimensional information of the candidate regions of the target objects 4 and 5 and the positional relationship with the periphery monitoring device 1. Determine sex.

したがって、先ず対象物体候補領域抽出部22が、時系列画像から算出された移動成分から、側方飛び出しなどの衝突予測が難しい対象物体4,5が存在する可能性の高い候補領域を限定し、次に3次元情報取得部23が、その候補領域だけの3次元情報を算出し、衝突判定部24でその抽出された対象物体の候補領域と監視装置1との関係から衝突可能性の判定を行う、すなわち自走状態で撮影された2次元時系列画像から、衝突予測が難しい対象物体候補領域のみに対し、詳しい3次元情報を求めて衝突危険性を判定するので、複雑な物体認識処理や道路モデルなどを必要とせず、時系列画像から算出された情報のみを用いて対象物体4,5の候補領域を限定することで、処理速度を速く(フレームレートを向上)することができる。   Therefore, first, the target object candidate area extraction unit 22 limits candidate areas where there is a high possibility that the target objects 4 and 5 that are difficult to predict a collision, such as side jump, from the moving components calculated from the time-series images, Next, the three-dimensional information acquisition unit 23 calculates three-dimensional information only for the candidate area, and the collision determination unit 24 determines the possibility of collision from the relationship between the extracted candidate area of the target object and the monitoring device 1. Since the collision risk is determined by obtaining detailed three-dimensional information for only the target object candidate region that is difficult to predict from a two-dimensional time-series image captured in a self-running state, complicated object recognition processing or By limiting the candidate areas of the target objects 4 and 5 using only information calculated from the time-series images without requiring a road model or the like, the processing speed can be increased (the frame rate can be improved).

また、前記時系列情報算出部21は、前記画像取得部で得られた時系列画像の対応点探索処理によって、2次元オプティカルフローを前記移動成分として算出するので、画素単位の高精度な移動成分を求めることができる。   In addition, the time-series information calculation unit 21 calculates a two-dimensional optical flow as the movement component by the corresponding point search process of the time-series image obtained by the image acquisition unit. Can be requested.

1 周辺監視装置
2 車両
3 路面
4,5 対象物体
6 ブザー
7 移動物体
8 静止物体
11,12 ステレオカメラ
13 コントローラ
21 時系列情報算出部
22 対象物体候補領域抽出部
23 3次元情報取得部
24 衝突可能性判定部
24a 3次元オプティカルフロー算出部
51 CMOSセンサ
52 LED
53 被写体
54 タイマ
DESCRIPTION OF SYMBOLS 1 Perimeter monitoring apparatus 2 Vehicle 3 Road surface 4, 5 Target object 6 Buzzer 7 Moving object 8 Still object 11, 12 Stereo camera 13 Controller 21 Time series information calculation part 22 Target object candidate area extraction part 23 3D information acquisition part 24 Possible collision Sex determination unit 24a 3D optical flow calculation unit 51 CMOS sensor 52 LED
53 Subject 54 Timer

Claims (10)

移動体に搭載され、該移動体の周囲の対象物体を監視する周辺監視装置において、
前記周囲の画像を時系列に取得する画像取得部と、
前記画像取得部で得られた時系列画像から移動成分を算出する時系列情報算出部と、
前記時系列情報算出部で得られた前記移動成分を基に、前記対象物体が存在する可能性の高い候補領域を抽出する対象物体候補領域抽出部と、
前記対象物体候補領域抽出部で算出された前記候補領域の3次元情報を取得する3次元情報取得部と、
前記3次元情報取得部で得られた前記候補領域の3次元情報と、該周辺監視装置との位置関係とから、衝突可能性を判定する衝突判定部とを含み、
前記時系列情報算出部は、前記画像取得部で得られた時系列画像の対応点探索処理によって、2次元オプティカルフローを前記移動成分として算出し、
前記対象物体候補領域抽出部は、前記2次元オプティカルフローが予め定める第1閾値未満である領域を、前記候補領域として抽出する
ことを特徴とする周辺監視装置。
In a periphery monitoring device that is mounted on a moving body and monitors a target object around the moving body,
An image acquisition unit for acquiring the surrounding images in time series;
A time series information calculation unit that calculates a moving component from the time series image obtained by the image acquisition unit;
A target object candidate area extraction unit that extracts a candidate area where the target object is highly likely to exist based on the moving component obtained by the time-series information calculation unit;
A three-dimensional information acquisition unit that acquires the three-dimensional information of the candidate region calculated by the target object candidate region extraction unit;
And three-dimensional information of the candidate area obtained by the three-dimensional information acquisition unit, and a positional relationship between the peripheral monitoring unit, viewed contains a determining collision determination unit a collision possibility,
The time-series information calculation unit calculates a two-dimensional optical flow as the moving component by the corresponding point search process of the time-series image obtained by the image acquisition unit,
The target object candidate region extraction unit extracts a region where the two-dimensional optical flow is less than a predetermined first threshold as the candidate region .
前記対象物体候補領域抽出部は、前記予め定める第1閾値以上である2次元オプティカルフローを延長した直線の消失点の中から、最もフローが集まる領域を除外した領域を前記候補領域として抽出することを特徴とする請求項記載の周辺監視装置。 The target object candidate area extraction unit extracts, as the candidate area, an area excluding an area where the flow gathers most from a vanishing point of a straight line obtained by extending a two-dimensional optical flow that is equal to or greater than the predetermined first threshold. The perimeter monitoring device according to claim 1 . 前記3次元情報取得部は、前記画像取得部をステレオカメラとして得られたステレオ画像から、前記対象物体候補領域抽出部で算出された前記対象物体の候補領域と判断された位置に対応する3次元情報を、前記ステレオ画像間の対応点探索処理によって算出することを特徴とする請求項または記載の周辺監視装置。 The three-dimensional information acquisition unit corresponds to a position determined as a candidate region of the target object calculated by the target object candidate region extraction unit from a stereo image obtained by using the image acquisition unit as a stereo camera. information, environment monitoring device according to claim 1 or 2, wherein the calculating the corresponding point search process between the stereo images. 前記3次元情報取得部は、前記対象物体候補領域抽出部で算出された前記対象物体の候補領域と判断された位置に対応する3次元情報を取得する距離センサであることを特徴とする請求項または記載の周辺監視装置。 The three-dimensional information acquisition unit is a distance sensor that acquires three-dimensional information corresponding to a position determined as a candidate region of the target object calculated by the target object candidate region extraction unit. The surroundings monitoring apparatus according to 1 or 2 . 前記衝突判定部は、前記時系列情報算出部で得られた前記移動成分と、前記3次元情報取得部で得られた前記候補領域の3次元情報とを用いて、前記候補領域の3次元オプティカルフローを算出する3次元オプティカルフロー算出部を備え、該3次元オプティカルフロー算出部で算出された3次元オプティカルフローと、該周辺監視装置との位置関係とから、衝突可能性を判定することを特徴とする請求項1〜のいずれか1項に記載の周辺監視装置。 The collision determination unit uses the movement component obtained by the time-series information calculation unit and the three-dimensional information of the candidate region obtained by the three-dimensional information acquisition unit, and uses the three-dimensional optical of the candidate region. A three-dimensional optical flow calculation unit for calculating a flow is provided, and the possibility of collision is determined from the three-dimensional optical flow calculated by the three-dimensional optical flow calculation unit and the positional relationship between the peripheral monitoring device. The periphery monitoring device according to any one of claims 1 to 4 . 前記衝突判定部は、前記3次元オプティカルフロー算出部で算出された前記候補領域の3次元オプティカルフローの向きおよび長さと、該周辺監視装置との交差判定によって衝突判定を行うことを特徴とする請求項記載の周辺監視装置。 The collision determination unit performs a collision determination based on an intersection determination between the direction and length of the three-dimensional optical flow of the candidate area calculated by the three-dimensional optical flow calculation unit and the periphery monitoring device. Item 6. The periphery monitoring device according to item 5 . 前記衝突判定部は、前記移動体の速度に対応して、衝突判定を行う前記対象物体までの距離を変更することを特徴とする請求項1〜のいずれか1項に記載の周辺監視装置。 The collision determination unit, depending on the speed of the moving body, environment monitoring device according to any one of claims 1 to 6, characterized in that to change the distance to the target object to perform the collision determination . 前記衝突判定部は、前記3次元オプティカルフロー算出部で算出された前記候補領域の3次元オプティカルフローの長さが予め定める第2閾値以上大きい場合には衝突可能性領域と判定することを特徴とする請求項または記載の周辺監視装置。 The collision determination unit determines that the candidate region is a collision possibility region when the length of the three-dimensional optical flow of the candidate region calculated by the three-dimensional optical flow calculation unit is larger than a predetermined second threshold value. The periphery monitoring device according to claim 5 or 6 . 前記時系列情報算出部は、計測点毎に対応点探索処理を行うことを特徴とする請求項1〜のいずれか1項に記載の周辺監視装置。 The time-series information calculating unit, periphery monitoring device according to any one of claims 1 to 8, characterized in that the corresponding point searching process for each measurement point. 前記対象物体候補領域抽出部は、画面を予め複数の領域に分割しておき、その各領域の代表点に対して計測を行うことで、対象物体候補領域として抽出するか否かを判断することを特徴とする請求項1〜のいずれか1項に記載の周辺監視装置。
The target object candidate area extraction unit divides the screen into a plurality of areas in advance, and determines whether or not to extract as a target object candidate area by performing measurement on a representative point of each area. surroundings monitoring apparatus according to any one of claims 1 to 8, wherein.
JP2009138692A 2009-06-09 2009-06-09 Perimeter monitoring device Expired - Fee Related JP5353455B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009138692A JP5353455B2 (en) 2009-06-09 2009-06-09 Perimeter monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009138692A JP5353455B2 (en) 2009-06-09 2009-06-09 Perimeter monitoring device

Publications (2)

Publication Number Publication Date
JP2010286926A JP2010286926A (en) 2010-12-24
JP5353455B2 true JP5353455B2 (en) 2013-11-27

Family

ID=43542598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009138692A Expired - Fee Related JP5353455B2 (en) 2009-06-09 2009-06-09 Perimeter monitoring device

Country Status (1)

Country Link
JP (1) JP5353455B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5267596B2 (en) * 2011-02-23 2013-08-21 株式会社デンソー Moving body detection device
JP5772321B2 (en) * 2011-07-12 2015-09-02 アイシン精機株式会社 Vehicle detection device, vehicle detection method, and program
US9183638B2 (en) * 2011-08-09 2015-11-10 The Boeing Company Image based position determination
JP5786941B2 (en) * 2011-08-25 2015-09-30 日産自動車株式会社 Autonomous driving control system for vehicles
JP2014115978A (en) 2012-11-19 2014-06-26 Ricoh Co Ltd Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
JP6221292B2 (en) * 2013-03-26 2017-11-01 富士通株式会社 Concentration determination program, concentration determination device, and concentration determination method
JP6716857B2 (en) 2014-12-26 2020-07-01 株式会社リコー Mobile object, measuring system, measuring method and program
JP6456405B2 (en) * 2015-01-16 2019-01-23 株式会社日立製作所 Three-dimensional information calculation device, three-dimensional information calculation method, and autonomous mobile device
JP2016197795A (en) * 2015-04-03 2016-11-24 日立オートモティブシステムズ株式会社 Imaging device
JP7067370B2 (en) * 2018-08-27 2022-05-16 株式会社デンソー Image recognition device
JP6643517B2 (en) * 2019-05-23 2020-02-12 日立オートモティブシステムズ株式会社 Imaging device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262375A (en) * 1994-03-25 1995-10-13 Toshiba Corp Mobile object detector
JP3515926B2 (en) * 1999-06-23 2004-04-05 本田技研工業株式会社 Vehicle periphery monitoring device
JP4269781B2 (en) * 2003-05-27 2009-05-27 日本電気株式会社 Optical flow detection system, detection method and detection program
JP4052650B2 (en) * 2004-01-23 2008-02-27 株式会社東芝 Obstacle detection device, method and program
JP2009026250A (en) * 2007-07-23 2009-02-05 Panasonic Corp Plane component detector, ground plane detector, and obstacle detector
JP2010204805A (en) * 2009-03-02 2010-09-16 Konica Minolta Holdings Inc Periphery-monitoring device and method

Also Published As

Publication number Publication date
JP2010286926A (en) 2010-12-24

Similar Documents

Publication Publication Date Title
JP5353455B2 (en) Perimeter monitoring device
US10690770B2 (en) Navigation based on radar-cued visual imaging
CN107272021B (en) Object detection using radar and visually defined image detection areas
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
CN109017570B (en) Vehicle surrounding scene presenting method and device and vehicle
JP5689907B2 (en) Method for improving the detection of a moving object in a vehicle
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
US10846542B2 (en) Systems and methods for augmentating upright object detection
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP2014222429A (en) Image processor, distance measuring device, mobile object apparatus control system, mobile object, and program for image processing
JP2010204805A (en) Periphery-monitoring device and method
JP2011134207A (en) Drive recorder and map generation system
KR100962329B1 (en) Road area detection method and system from a stereo camera image and the recording media storing the program performing the said method
KR101491305B1 (en) Apparatus and method for detecting obstacle
JP5256482B2 (en) Ranging device
JP5163164B2 (en) 3D measuring device
JP2020086884A (en) Lane marking estimation device, display control device, method and computer program
JP2018088234A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
JP4872943B2 (en) Analysis device
JP4506299B2 (en) Vehicle periphery monitoring device
Teutsch et al. 3d-segmentation of traffic environments with u/v-disparity supported by radar-given masterpoints
JP7309630B2 (en) Image processing device
JP2023003924A (en) Arithmetic device and speed calculation method
WO2021232031A2 (en) Detection of hidden object using non-line-of-sight (nlos) imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees