JP2014044521A - Device and method for recognizing vehicle exterior environment - Google Patents

Device and method for recognizing vehicle exterior environment Download PDF

Info

Publication number
JP2014044521A
JP2014044521A JP2012185695A JP2012185695A JP2014044521A JP 2014044521 A JP2014044521 A JP 2014044521A JP 2012185695 A JP2012185695 A JP 2012185695A JP 2012185695 A JP2012185695 A JP 2012185695A JP 2014044521 A JP2014044521 A JP 2014044521A
Authority
JP
Japan
Prior art keywords
flow vector
flow
vector
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012185695A
Other languages
Japanese (ja)
Other versions
JP5973843B2 (en
Inventor
Shu Ito
周 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2012185695A priority Critical patent/JP5973843B2/en
Publication of JP2014044521A publication Critical patent/JP2014044521A/en
Application granted granted Critical
Publication of JP5973843B2 publication Critical patent/JP5973843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve precision of detection of a moving body even when an own vehicle turns.SOLUTION: A device 120 for recognizing a vehicle exterior environment includes: an image data acquisition part which acquires image data; an image segmentation part 160 which segments a partial image; a flow vector derivation part 162 which derives a flow vector; a moving state acquisition part 164 which acquires a moving state; a correction flow vector generation part 166 which assumes two stationary bodies at two distances different from each other from a wide-angle lens, estimates flow vectors of the two stationary bodies based upon the moving state, and generates one correction flow vector; a flow vector subtraction part 168 which subtracts the correction flow vector from the derived flow vectors; and a grouping part 170 which groups flow vectors showing a moving body among the subtracted flow vectors based upon a criterion line 204 in the horizontal center of the image data.

Description

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法に関する。   The present invention relates to a vehicle environment recognition apparatus and a vehicle environment recognition method for recognizing an environment outside a host vehicle.

従来、自車両の前方に広角(広画角)カメラを搭載し、かかる広角カメラで撮像した自車両外の環境映像を、車室内のディスプレイに表示して運転者の目視確認を補助する技術が知られている。このような技術では、例えば、車両内の制御情報を通じて自車両が一時的に停止したことを検出し、モニタ装置の表示を広角カメラで撮像した環境映像に自動的に切り換える等の制御が行われている。   Conventionally, there has been a technology for mounting a wide-angle (wide-angle) camera in front of the host vehicle and displaying the environmental image outside the host vehicle captured by the wide-angle camera on the display in the vehicle interior to assist the driver with visual confirmation. Are known. In such a technique, for example, it is detected that the host vehicle is temporarily stopped through the control information in the vehicle, and the display of the monitor device is automatically switched to the environmental image captured by the wide-angle camera. ing.

このような広角カメラを通じた環境映像から、自車両の前方に位置する車両や障害物といった物を検出するために、オプティカルフロー等の画像処理技術が検討されている。ここで、オプティカルフローは、画像上の2次元速度ベクトル場、すなわち画像上の移動物の移動に伴う速度場で表される。このような技術では、例えば、所定周期で撮像された時間方向に連続する2枚の画像間において、同一の部位として認識可能な点を特徴点として設定し、この特徴点の移動をベクトル(以下、フローベクトルという。)として算出する。そして撮像した画像内の全領域において、このフローベクトルを算出することで、例えば、自車両が停止した状態におけるフローベクトルの有無のみによって、画像内の移動物の位置および移動方向等の情報を検出することができる。   In order to detect an object such as a vehicle or an obstacle located in front of the host vehicle from an environmental image through such a wide-angle camera, an image processing technique such as an optical flow has been studied. Here, the optical flow is represented by a two-dimensional velocity vector field on the image, that is, a velocity field accompanying movement of a moving object on the image. In such a technique, for example, a point that can be recognized as the same part is set as a feature point between two images consecutive in the time direction imaged in a predetermined cycle, and the movement of the feature point is a vector (hereinafter referred to as a feature point). , Referred to as a flow vector). Then, by calculating this flow vector in all areas in the captured image, for example, information such as the position and moving direction of the moving object in the image is detected based only on the presence or absence of the flow vector when the host vehicle is stopped. can do.

オプティカルフローでは上記のように自車両が停止している状態において移動物の接近を好適に検出することができるが、走行中において移動物を検出する技術も検討されている。例えば、走行中において、広角カメラで撮像した環境映像からフローベクトルを生成し、それぞれを複数の群に分類し、自車両の移動により生じる見かけのフローベクトルを差し引いて、画像中央に向かう方向のフローベクトル群を移動物として特定する技術が知られている(例えば、特許文献1)。   In the optical flow, the approach of a moving object can be suitably detected when the host vehicle is stopped as described above, but a technique for detecting a moving object while traveling is also being studied. For example, while traveling, flow vectors are generated from environmental images captured with a wide-angle camera, each is classified into a plurality of groups, and the apparent flow vector generated by the movement of the host vehicle is subtracted to flow toward the center of the image. A technique for specifying a vector group as a moving object is known (for example, Patent Document 1).

ただし、オプティカルフローでは、自車両が旋回すると、撮像範囲中の静止物にも中央に向かう方向のフローベクトルが生じてしまい、静止物を移動物と誤判定してしまうことがある。そこで、自車両が旋回する際には、旋回の内側に相当する領域における移動物の判定を行わないことで、誤判定を回避する技術が開示されている(例えば、特許文献2)。   However, in the optical flow, when the host vehicle turns, a flow vector in the direction toward the center is also generated in the stationary object in the imaging range, and the stationary object may be erroneously determined as a moving object. Therefore, a technique for avoiding erroneous determination is disclosed by not determining the moving object in the area corresponding to the inside of the turn when the host vehicle turns (for example, Patent Document 2).

特許第3239521号Japanese Patent No. 3239521 特許第4193740号Japanese Patent No. 4193740

上述したように、特許文献1の技術では、自車両が旋回したときに、静止物を移動物と誤判定してしまう場合がある。また、特許文献2の技術では、そのような領域を予め検出の対象外として排除することで誤判定は回避できるものの、その領域に移動物が存在していた場合には、その移動物を検知できず、衝突のリスクを高めるおそれがあった。   As described above, in the technique of Patent Document 1, when the host vehicle turns, a stationary object may be erroneously determined as a moving object. Further, in the technique of Patent Document 2, erroneous determination can be avoided by excluding such a region as a detection target in advance, but if a moving object exists in that region, the moving object is detected. This could not be done and could increase the risk of collision.

また、特許文献1の技術では、移動物を適切に判断すべく、自車両の移動により静止物に生じてしまうフローベクトルの大きさや向きを導出しているが、それらを導出するためには、自車両の移動速度および角速度のみならず、自車両から静止物までの距離も必要となる。このような静止物までの距離は、ステレオカメラを用い3点測位法に基づく演算を行ったり、レーザレーダを用いたりすることで導出できるが、そのような装置を設けるのにコストが増大し、また、計算が煩雑になって処理負荷が高まるといった問題がある。   Moreover, in the technique of Patent Document 1, in order to appropriately determine the moving object, the size and direction of the flow vector generated in the stationary object due to the movement of the host vehicle are derived. Not only the moving speed and angular speed of the host vehicle but also the distance from the host vehicle to a stationary object is required. Such a distance to a stationary object can be derived by performing a calculation based on a three-point positioning method using a stereo camera or using a laser radar, but the cost for providing such a device increases. In addition, there is a problem that the calculation becomes complicated and the processing load increases.

本発明は、このような課題に鑑み、自車両と静止物との距離を演算する特別な装置を設けることなく、自車両が旋回した場合であっても、移動物の検出精度の向上を図ることが可能な、車外環境認識装置および車外環境認識方法を提供することを目的としている。   In view of such a problem, the present invention aims to improve the detection accuracy of a moving object even when the host vehicle turns without providing a special device for calculating the distance between the host vehicle and a stationary object. It is an object of the present invention to provide a vehicle exterior environment recognition device and a vehicle exterior environment recognition method.

上記課題を解決するために、本発明の車外環境認識装置は、広角レンズを通じて車外環境を撮像した画像データを取得する画像データ取得部と、画像データに基づく画像から予め定められた位置および大きさの部分画像を切り出す画像切出部と、部分画像の任意の部位におけるフローベクトルを導出するフローベクトル導出部と、広角レンズの移動状態を取得する移動状態取得部と、広角レンズから相異なる2つの距離にある2つの静止物を仮定し、移動状態に基づいて2つの静止物のフローベクトルを推定し、1の補正フローベクトルを生成する補正フローベクトル生成部と、導出されたフローベクトルから補正フローベクトルを減算するフローベクトル減算部と、画像データの水平方向中央における判定基準線に基づき、減算されたフローベクトルのうち移動物を示すフローベクトルをグループ化するグループ化部と、を備えることを特徴とする。   In order to solve the above-described problems, an external environment recognition apparatus according to the present invention includes an image data acquisition unit that acquires image data obtained by imaging the external environment through a wide-angle lens, and a position and size that are determined in advance from an image based on the image data. An image cutout unit that cuts out the partial image, a flow vector derivation unit that derives a flow vector at an arbitrary part of the partial image, a movement state acquisition unit that acquires a movement state of the wide-angle lens, and two different types from the wide-angle lens Assuming two stationary objects at a distance, the flow vectors of the two stationary objects are estimated based on the moving state, and a correction flow vector generation unit that generates one correction flow vector, and a correction flow from the derived flow vector Based on the flow vector subtraction unit that subtracts the vector and the judgment reference line at the center in the horizontal direction of the image data, Characterized in that it and a grouping unit for grouping the flow vector indicating the moving object out of the vector.

補正フローベクトル生成部は、推定した2つのフローベクトルのうち、相対的に、判定基準線に向かうスカラー量が大きい、または、判定基準線と反対方向に向かうスカラー量が小さいフローベクトルを補正フローベクトルとしてもよい。   The corrected flow vector generation unit corrects a flow vector having a relatively large scalar amount toward the determination reference line or a small scalar amount toward the determination reference line out of the two estimated flow vectors. It is good.

補正フローベクトル生成部は、推定した2つのフローベクトルのうち、判定基準線の左側領域では、右向き最長または左向き最短のフローベクトルを補正フローベクトルとし、判定基準線の右側領域では、左向き最長または右向き最短のフローベクトルを補正フローベクトルとしてもよい。   Of the two estimated flow vectors, the corrected flow vector generation unit uses the longest rightward flow or the shortest leftward flow vector as the corrected flow vector in the left area of the determination reference line, and the left longest or right direction in the right area of the determination reference line. The shortest flow vector may be used as the correction flow vector.

移動状態取得部は、広角レンズの移動速度および角速度を取得し、補正フローベクトル生成部は、移動速度および角速度に基づいてフローベクトルを推定してもよい。   The movement state acquisition unit may acquire the movement speed and angular velocity of the wide-angle lens, and the correction flow vector generation unit may estimate the flow vector based on the movement speed and angular velocity.

上記課題を解決するために、本発明の車外環境認識方法は、広角レンズを通じて車外環境を撮像した画像データを取得し、画像データに基づく画像から予め定められた位置および大きさの部分画像を切り出し、部分画像の任意の部位におけるフローベクトルを導出し、広角レンズの移動状態を取得し、広角レンズから相異なる2つの距離にある2つの静止物を仮定し、移動状態に基づいて2つの静止物のフローベクトルを推定し、1の補正フローベクトルを生成し、導出されたフローベクトルから補正フローベクトルを減算し、画像データの水平方向中央における判定基準線に基づき、減算されたフローベクトルのうち移動物を示すフローベクトルをグループ化することを特徴とする。   In order to solve the above-described problems, an external environment recognition method of the present invention acquires image data obtained by capturing an external environment through a wide-angle lens, and cuts out a partial image having a predetermined position and size from an image based on the image data. Deriving the flow vector at an arbitrary part of the partial image, obtaining the moving state of the wide-angle lens, assuming two stationary objects at two different distances from the wide-angle lens, and based on the moving state, two stationary objects The flow vector is estimated, a corrected flow vector is generated, the corrected flow vector is subtracted from the derived flow vector, and the subtracted flow vector is moved based on the determination reference line at the horizontal center of the image data. It is characterized by grouping flow vectors indicating objects.

本発明によれば、自車両と静止物との距離を演算する特別な装置を設けないことで、コストや処理負荷の増大を回避しつつ、自車両が旋回した場合であっても、移動物の検出精度の向上を図ることが可能となる。   According to the present invention, even if the host vehicle turns, even if the host vehicle turns, by avoiding an increase in cost and processing load by not providing a special device for calculating the distance between the host vehicle and a stationary object. The detection accuracy can be improved.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 撮像装置で生成される画像を説明するための説明図である。It is explanatory drawing for demonstrating the image produced | generated with an imaging device. 部分画像を説明するための説明図である。It is explanatory drawing for demonstrating a partial image. フローベクトルによる移動物の判定処理を説明するための説明図である。It is explanatory drawing for demonstrating the determination process of the moving object by a flow vector. フローベクトルによる移動物の判定処理を説明するための説明図である。It is explanatory drawing for demonstrating the determination process of the moving object by a flow vector. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. フローベクトル導出部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a flow vector derivation | leading-out part. フローベクトル導出部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a flow vector derivation | leading-out part. 自車両が直進する場合の移動速度の影響を説明するための説明図である。It is explanatory drawing for demonstrating the influence of the moving speed when the own vehicle goes straight. 自車両が旋回する場合の角速度の影響を説明するための説明図である。It is explanatory drawing for demonstrating the influence of angular velocity when the own vehicle turns. フローベクトルの推移を示した説明図である。It is explanatory drawing which showed transition of the flow vector. フローベクトルの推移を示した説明図である。It is explanatory drawing which showed transition of the flow vector. 補正フローベクトルの効果を示した説明図である。It is explanatory drawing which showed the effect of the correction | amendment flow vector. フローベクトルの推移を示した説明図である。It is explanatory drawing which showed transition of the flow vector. フローベクトルの推移を示した説明図である。It is explanatory drawing which showed transition of the flow vector. 車外環境認識方法の全体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the whole process of the environment recognition method outside a vehicle. 画像切出処理を説明するためのフローチャートである。It is a flowchart for demonstrating an image cutting-out process. フローベクトル導出処理を説明するためのフローチャートである。It is a flowchart for demonstrating a flow vector derivation process. 補正フローベクトル生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating a correction | amendment flow vector generation process. フローベクトル減算処理を説明するためのフローチャートである。It is a flowchart for demonstrating a flow vector subtraction process. グループ化処理を説明するためのフローチャートである。It is a flowchart for demonstrating a grouping process.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、広角(広画角)レンズ、および、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方において、水平より少し下方に向けて設けられる。撮像装置110は、自車両1の前方に相当する環境を撮像し、3つの色相(R(赤)、G(緑)、B(青))からなるカラー画像やモノクロ画像を生成することができる。ここで、広角レンズは、標準レンズに比べ画角(視野角)が比較的広い(例えば、120度以上)、または、焦点距離が比較的短いレンズをいい、例えば、広角レンズとして魚眼レンズを用い、撮像装置110を中心とする半球状に広がる空間を撮像することができる。なお、本実施形態の撮像装置110の射影方式は、立体射影を用いているが、例えば、透視射影等、既存の様々な射影方法を採用することができる。ここでは、広角レンズとして魚眼レンズを用いる例を挙げて説明するが、円錐状(アキシコン)プリズム等、様々な広角レンズを用いることもできる。また、レンズの画角を120度以上としたのは、十字路またはT字路において、自車両1が停止線に停止した場合に、直交する道路の状況まで適切に把握するためである。   The imaging device 110 is configured to include a wide-angle (wide-angle) lens and an imaging device such as a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and in front of the host vehicle 1 from the horizontal. It is provided slightly downward. The imaging device 110 can capture an environment corresponding to the front of the host vehicle 1 and generate a color image or a monochrome image composed of three hues (R (red), G (green), and B (blue)). . Here, the wide-angle lens refers to a lens having a relatively wide angle of view (viewing angle) compared to a standard lens (for example, 120 degrees or more) or a relatively short focal length. For example, a fish-eye lens is used as a wide-angle lens, A hemispherical space centered on the imaging device 110 can be imaged. Note that the projection method of the imaging apparatus 110 according to the present embodiment uses a three-dimensional projection, but various existing projection methods such as a perspective projection can be employed. Here, an example in which a fish-eye lens is used as the wide-angle lens will be described, but various wide-angle lenses such as a conical (axicon) prism can also be used. The reason why the angle of view of the lens is set to 120 degrees or more is to appropriately grasp the situation of the orthogonal road when the host vehicle 1 stops on the stop line on the cross road or the T-shaped road.

図2は、撮像装置110で生成される画像を説明するための説明図である。図2を参照して理解できるように、撮像装置110で生成された画像(以下、「環境画像」という。)200は、円周魚眼レンズを通じて、画像の中心からの距離に対して角度が単調増加するように描かれている(立体射影方式)。したがって、自車両1の走行方向の画像の分解能を維持しつつ、広範囲の環境画像200を一度に取得することができる。   FIG. 2 is an explanatory diagram for explaining an image generated by the imaging apparatus 110. As can be understood with reference to FIG. 2, an image 200 (hereinafter referred to as “environment image”) 200 generated by the imaging device 110 has a monotonically increasing angle with respect to the distance from the center of the image through a circumferential fisheye lens. (3D projection method). Accordingly, it is possible to acquire a wide range of environment images 200 at a time while maintaining the resolution of the image in the traveling direction of the host vehicle 1.

また、撮像装置110は、環境画像200をデータ化した画像データを、例えば1/10秒毎(10fps)に連続して生成する。以下の実施形態における各機能部は、このような画像データの更新を契機として各処理を遂行する。したがって、各機能部は、フレーム単位で処理を繰り返すこととなる。   In addition, the imaging device 110 continuously generates image data obtained by converting the environment image 200 into data, for example, every 1/10 second (10 fps). Each functional unit in the following embodiment performs each process triggered by such update of image data. Therefore, each functional unit repeats the process in units of frames.

車外環境認識装置120は、撮像装置110から、環境画像200を示す画像データを取得し、所謂、パターンマッチングを用いて、オプティカルフローに基づくフローベクトルを導出する。フローベクトルは、画像のエッジ部分(隣り合う画素間で明暗の差分が大きい部分)で特定され易いので、フローベクトルが導出されたブロックは、環境画像200においてもエッジとなっていることが多い。ただし、車外環境認識装置120では、環境画像200中の必要な部分のみ切り出した部分画像を利用してフローベクトルを導出する。   The outside environment recognition device 120 acquires image data indicating the environment image 200 from the imaging device 110, and derives a flow vector based on the optical flow using so-called pattern matching. Since the flow vector is easily specified at the edge portion of the image (the portion where the difference in brightness between adjacent pixels is large), the block from which the flow vector is derived often has an edge in the environment image 200 as well. However, the vehicle environment recognition apparatus 120 derives a flow vector using a partial image obtained by cutting out only a necessary portion in the environmental image 200.

図3は、部分画像202を説明するための説明図である。上述したように、図2に示した環境画像200では、広画角の画像を一度に取得できるので、自車両1の前方のみならず、左右いずれかの方向(水平方向)から接近する移動物も特定することが可能となる。しかし、環境画像200では、画像の中心からの距離と角度がおよそ比例するので、中心からの距離が離れるほど、画像が歪むこととなる。例えば、図2の環境画像200における4つの角に近い領域では、実際には水平に延びている物が、環境画像200では湾曲して表示され、その端部は垂直方向にも延びているように視認できる。ここで、「水平」は、撮像した環境画像200の画面横方向を示し、実空間上の水平方向に相当する。また、「垂直」は、撮像した環境画像200の画面縦方向を示し、実空間上の鉛直方向に相当する。   FIG. 3 is an explanatory diagram for explaining the partial image 202. As described above, in the environment image 200 shown in FIG. 2, an image with a wide angle of view can be acquired at a time, so that the moving object approaches not only in front of the host vehicle 1 but also in either the left or right direction (horizontal direction). Can also be specified. However, in the environment image 200, since the distance from the center of the image and the angle are approximately proportional, the image is distorted as the distance from the center increases. For example, in the area close to the four corners in the environment image 200 of FIG. 2, an object that actually extends horizontally is displayed curved in the environment image 200, and its end portion also extends in the vertical direction. Visible to. Here, “horizontal” indicates the horizontal direction of the captured environment image 200 and corresponds to the horizontal direction in real space. “Vertical” indicates the vertical direction of the captured environment image 200 and corresponds to the vertical direction in real space.

そこで、車外環境認識装置120は、図2に示した環境画像200のうち、交通環境において特定すべき移動物が存在する、図2中破線で示した領域、すなわち、歪みの少ない環境画像200の中央領域と、その水平方向左右の領域とを合わせた、図3に示す部分画像202を切り出す。そして、その部分画像202に対してオプティカルフローに基づくフローベクトルを導出する。   Therefore, the outside environment recognition apparatus 120 includes a region indicated by a broken line in FIG. 2 where there is a moving object to be specified in the traffic environment in the environment image 200 shown in FIG. A partial image 202 shown in FIG. 3 is cut out by combining the central region and the left and right regions in the horizontal direction. Then, a flow vector based on the optical flow is derived for the partial image 202.

続いて、車外環境認識装置120は、近似するフローベクトル同士をグループ化して移動物を特定し、移動物の大きさおよびその速度(フローベクトルの大きさ)に基づいて、移動物の種別を判定する。ここで、移動物は、車両、自転車、歩行者といった独立して移動する物である。また、移動物に対応する静止物は、建物、道路、ガードレール、背景空間といった物を示す。また、車外環境認識装置120は、図1に示す、自車両1の移動速度を検出する速度センサ124、および、自車両1が旋回した際の鉛直軸を中心とした角速度を検出する角速度センサ126を通じて静止物のフローベクトルを推定する。   Subsequently, the vehicle environment recognition apparatus 120 groups the approximate flow vectors to identify the moving object, and determines the type of the moving object based on the size of the moving object and its speed (the magnitude of the flow vector). To do. Here, the moving object is an object that moves independently, such as a vehicle, a bicycle, or a pedestrian. In addition, stationary objects corresponding to moving objects indicate objects such as buildings, roads, guardrails, and background spaces. Further, the outside environment recognition apparatus 120 includes a speed sensor 124 that detects the moving speed of the host vehicle 1 and an angular speed sensor 126 that detects an angular speed centered on the vertical axis when the host vehicle 1 turns as shown in FIG. The flow vector of the stationary object is estimated through

車外環境認識装置120は、例えば、水平方向に高速に移動している移動物を先行車両と認識する。また、車外環境認識装置120は、特定した移動物と衝突する可能性が高いか否かの判定を行うことができる。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、ディスプレイ122を通じて運転者に報知するとともに、車両制御装置130に対して、その旨を示す情報を出力する。かかる車外環境認識装置120の処理に関しては、後ほど詳述する。   For example, the outside environment recognition device 120 recognizes a moving object moving at high speed in the horizontal direction as a preceding vehicle. Moreover, the vehicle exterior environment recognition apparatus 120 can determine whether or not there is a high possibility of collision with the identified moving object. Here, when it is determined that the possibility of a collision is high, the vehicle exterior environment recognition device 120 notifies the driver of the fact through the display 122 and outputs information indicating the fact to the vehicle control device 130. . The processing of the outside environment recognition device 120 will be described in detail later.

車両制御装置130は、車外環境認識装置120で特定された移動物との衝突を回避する。具体的に、車両制御装置130は、操舵の角度を検出する舵角センサ132や、上述した速度センサ124等を通じて現在の自車両1の走行状態を取得し、アクチュエータ134を制御して先行車両との車間距離を安全な距離に保つ。ここで、アクチュエータ134は、ブレーキ、スロットルバルブ、舵角等を制御するために用いられる車両制御用のアクチュエータである。また、車両制御装置130は、移動物との衝突が想定される場合、アクチュエータ134を制御して自車両1を自動的に制動する。かかる車両制御装置130は、車外環境認識装置120と一体的に形成することもできる。   The vehicle control device 130 avoids a collision with a moving object specified by the outside environment recognition device 120. Specifically, the vehicle control device 130 acquires the current traveling state of the host vehicle 1 through the steering angle sensor 132 that detects the steering angle, the speed sensor 124 described above, and the like, and controls the actuator 134 to determine the preceding vehicle. Keep the distance between cars safe. Here, the actuator 134 is a vehicle control actuator used for controlling a brake, a throttle valve, a steering angle, and the like. Further, when a collision with a moving object is assumed, the vehicle control device 130 controls the actuator 134 to automatically brake the host vehicle 1. Such a vehicle control device 130 can also be formed integrally with the outside environment recognition device 120.

(フローベクトルによる移動物の判定処理)
図4および図5は、本実施形態のオプティカルフローのフローベクトルによる移動物の判定処理を説明するための説明図である。ここでは、従来の問題点と比較しつつ本実施形態の特徴を説明する。
(Moving object judgment process by flow vector)
4 and 5 are explanatory diagrams for explaining the moving object determination processing based on the optical flow flow vector according to the present embodiment. Here, the features of the present embodiment will be described in comparison with conventional problems.

仮に、図4(a)に示すように自車両1が旋回を伴うことなく直進しているときに、図3に示した部分画像202に対してフローベクトルを導出すると、フローベクトルは、図4(b)のように複数の矢印で示される。かかる矢印の長さがフローベクトルの大きさ、矢印の向きがフローベクトルの向きを示す。また、フローベクトルは、本来、導出単位であるブロックと同数あるが、ここでは、理解を容易にするためフローベクトルの数を制限して表している。   If the flow vector is derived with respect to the partial image 202 shown in FIG. 3 when the host vehicle 1 is traveling straight without turning as shown in FIG. It is indicated by a plurality of arrows as in (b). The length of the arrow indicates the size of the flow vector, and the direction of the arrow indicates the direction of the flow vector. The number of flow vectors is essentially the same as the number of blocks that are derived units, but here, the number of flow vectors is limited to facilitate understanding.

フローベクトルは、画像中の特徴点の移動によって生成されるので、図4を参照して理解できるように、自車両1の移動に伴い、移動物2のみならず、静止物3にもフローベクトルが生じる。また、本実施形態では、広角レンズが用いられているので、部分画像202の中心と比較して側方にずれるに連れて、静止物3のフローベクトルの大きさが大きくなっているのが分かる。   Since the flow vector is generated by the movement of the feature point in the image, as can be understood with reference to FIG. 4, as the vehicle 1 moves, the flow vector is applied not only to the moving object 2 but also to the stationary object 3. Occurs. In this embodiment, since a wide-angle lens is used, it can be seen that the flow vector of the stationary object 3 increases in size as it shifts to the side as compared with the center of the partial image 202. .

このような静止物3のフローベクトルの水平方向の向きが左右で反転する部分画像202上の部位(境界)は、図4(b)に示すように垂直に延びる破線で示した線分上に出現する。本実施形態では、かかる線分を、移動物2の判定基準に用いる判定基準線204とする。判定基準線204は、撮像装置110を自車両1の前方先端かつ車幅方向の中央に位置させ、撮像方向を進行方向と等しくなるように設置した場合に、図4(b)に示すように部分画像202の水平方向に対して中央に位置することとなる。ただし、撮像装置110の位置や撮像方向が異なると、判定基準線204が、必ずしも部分画像202の水平方向に対して中央に位置するとは限らない。いずれにしても、自車両1が直進した場合に生じる静止物3のフローベクトルの水平方向の向きが左右で反転する境界線を判定基準線204とすればよい。   The part (boundary) on the partial image 202 where the horizontal direction of the flow vector of the stationary object 3 is reversed left and right is on the line segment indicated by the dashed line extending vertically as shown in FIG. Appear. In the present embodiment, such a line segment is set as a determination reference line 204 used as a determination reference for the moving object 2. The determination reference line 204 is as shown in FIG. 4B when the imaging device 110 is positioned at the front end of the host vehicle 1 and at the center in the vehicle width direction and the imaging direction is set equal to the traveling direction. The partial image 202 is positioned at the center with respect to the horizontal direction. However, if the position and imaging direction of the imaging device 110 are different, the determination reference line 204 is not necessarily positioned at the center with respect to the horizontal direction of the partial image 202. In any case, a boundary line where the horizontal direction of the flow vector of the stationary object 3 generated when the host vehicle 1 goes straight may be set as the determination reference line 204.

このとき、図4(b)に示した部分画像202を、判定基準線204を基準に、左側領域と右側領域とに分けると、静止物3のフローベクトルが判定基準線204から遠ざかる方向に生じるのに対し、接近する移動物2のフローベクトルは判定基準線204に近づく方向に生じているのが分かる。   At this time, if the partial image 202 shown in FIG. 4B is divided into a left region and a right region based on the determination reference line 204, the flow vector of the stationary object 3 is generated in a direction away from the determination reference line 204. On the other hand, it can be seen that the flow vector of the moving object 2 approaching is generated in a direction approaching the determination reference line 204.

したがって、判定基準線204に従って水平方向に領域を二分し、左側領域において右方向を向いているフローベクトル、または、右側領域において左方向を向いているフローベクトルを検出し、それらを移動物2として特定することができる。   Therefore, the horizontal region is divided into two in accordance with the judgment reference line 204, and the flow vector facing the right direction in the left region or the flow vector facing the left direction in the right region is detected, and these are detected as the moving object 2. Can be identified.

しかし、図5(a)に示すように、自車両1が旋回を伴いながら進行する場合、フローベクトルは、図5(b)のように表される。ここでは、一点鎖線で示した領域206内の静止物3が判定基準線204の右側領域に存在するにも拘わらず、静止物3のフローベクトルが判定基準線204に近づく方向に生じている。これは、自車両1の直進時には、フローベクトルの水平方向の向きが左右で反転する位置が、前方の消失点(無限遠)と一致するが、自車両1の旋回時には、自車両1の移動速度および角速度ならびに静止物3との距離によって反転する位置が水平方向に変化することに起因する。   However, as shown in FIG. 5A, when the host vehicle 1 travels with a turn, the flow vector is expressed as shown in FIG. 5B. Here, the flow vector of the stationary object 3 is generated in the direction approaching the determination reference line 204 even though the stationary object 3 in the region 206 indicated by the one-dot chain line exists in the right region of the determination reference line 204. This is because when the host vehicle 1 goes straight, the position where the horizontal direction of the flow vector is reversed on the left and right coincides with the vanishing point ahead (infinity), but when the host vehicle 1 turns, the host vehicle 1 moves. This is due to the fact that the reverse position changes in the horizontal direction depending on the velocity and angular velocity and the distance to the stationary object 3.

すると、一点鎖線で示した領域206内のフローベクトルは、それが移動物2のものであるか静止物3のものであるかに拘わらず、移動物2として誤判定されてしまう。この場合に、旋回の内側に相当する領域、すなわち、右側領域において移動物2の判定を行わないとすることも可能であるが、その領域に存在する移動物2を検知できなくなるので、衝突のリスクを高めるおそれがある。   Then, the flow vector in the area 206 indicated by the alternate long and short dash line is erroneously determined as the moving object 2 regardless of whether it is the moving object 2 or the stationary object 3. In this case, it is possible not to perform the determination of the moving object 2 in the area corresponding to the inside of the turn, that is, the right area, but the moving object 2 existing in the area cannot be detected. May increase risk.

そこで、移動物2を適切に判断するために、まず、静止物3のフローベクトルを正しく推定し、そのフローベクトルを補正フローベクトルとし、部分画像202上で検出されたフローベクトルから減算する。こうすることで静止物3に生じるフローベクトルを相殺(フローベクトルの長さ0)することができ、移動物2のフローベクトルのみを残すことが可能となる。   Therefore, in order to appropriately determine the moving object 2, first, the flow vector of the stationary object 3 is correctly estimated, and the flow vector is set as a corrected flow vector, and is subtracted from the flow vector detected on the partial image 202. By doing so, the flow vector generated in the stationary object 3 can be canceled (the length of the flow vector is 0), and only the flow vector of the moving object 2 can be left.

しかし、自車両1の移動により静止物3に生じるフローベクトルの大きさや向きを正確に推定するためには、自車両1の移動速度および角速度のみならず、自車両1から静止物3までの距離も必要となる。このような静止物3までの距離は、ステレオカメラを用い3点測位法に基づく演算を行ったり、レーザレーダを用いたりすることで導出できるが、そのような装置を設けるのにコストが増大し、また、計算が煩雑になって処理負荷が高まる。   However, in order to accurately estimate the magnitude and direction of the flow vector generated in the stationary object 3 due to the movement of the own vehicle 1, not only the moving speed and angular velocity of the own vehicle 1 but also the distance from the own vehicle 1 to the stationary object 3 Is also required. Such a distance to the stationary object 3 can be derived by performing a calculation based on a three-point positioning method using a stereo camera or using a laser radar. However, the cost for providing such a device increases. In addition, the calculation becomes complicated and the processing load increases.

そこで、本実施形態においては、静止物3までの距離を敢えて導出せず、静止物3までの距離の最大値と最小値を想定して、静止物3は、全て、最小値から最大値のいずれかの位置に存在するとする。そして、自車両1の移動速度および角速度から、自車両1の旋回によって静止物3に生じうるフローベクトルの変動範囲を推定し、補正フローベクトルを適切に選択して、部分画像202上で検出されたフローベクトルから減算する。こうすることで、少なくとも、静止物3のフローベクトルが判定基準線204に近づく方向に生じることがなくなり(誤検出を回避でき)、判定基準線204に近づく方向に生じたフローベクトルを全て移動物2として特定することが可能となる。本実施形態では、このように、自車両1が旋回した場合であっても、移動物2を適切に検出し、その検出精度の向上を図ることを目的とする。   Therefore, in the present embodiment, the distance to the stationary object 3 is not deliberately derived, and assuming that the maximum value and the minimum value of the distance to the stationary object 3 are all, the stationary objects 3 are all from the minimum value to the maximum value. Suppose that it exists in any position. Then, the fluctuation range of the flow vector that can occur in the stationary object 3 due to the turning of the host vehicle 1 is estimated from the moving speed and the angular velocity of the host vehicle 1, and the correction flow vector is appropriately selected and detected on the partial image 202. Subtract from the flow vector. By doing so, at least the flow vector of the stationary object 3 is not generated in the direction approaching the determination reference line 204 (error detection can be avoided), and all the flow vectors generated in the direction approaching the determination reference line 204 are all moving objects. 2 can be specified. In this embodiment, even if it is a case where the own vehicle 1 turns in this way, it aims at detecting the moving object 2 appropriately and aiming at the improvement of the detection accuracy.

以下に、このような処理を実現するための車外環境認識装置120を具体的に説明し、その後で、車外環境認識方法について詳述する。   Hereinafter, the vehicle environment recognition apparatus 120 for realizing such processing will be specifically described, and then the vehicle environment recognition method will be described in detail.

(車外環境認識装置120)
図6は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図6に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 6 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 6, the vehicle exterior environment recognition apparatus 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部(画像データ取得部)150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースであり、例えば、撮像装置110で生成された画像データを取得する。また、I/F部150は、速度センサ124や加速度センサ126から、移動速度および加速度を取得する。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。また、本実施形態においては、フローベクトルの導出処理におけるパターンマッチングのため、画像データを、少なくとも次のフレームまで一時的に保持する。ここで、データ保持部152に記憶された前回のフレームにおける画像データを「前回画像データ」といい、今回のフレームにおける画像データを「今回画像データ」という。また、移動速度および角速度と補正フローベクトルとを対応付けた、後述する補正テーブルを予め保持することもできる。   The I / F unit (image data acquisition unit) 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130, and for example, acquires image data generated by the imaging device 110. . Further, the I / F unit 150 acquires the moving speed and acceleration from the speed sensor 124 and the acceleration sensor 126. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like, and holds various pieces of information necessary for processing of each functional unit described below. In the present embodiment, the image data is temporarily held until at least the next frame for pattern matching in the flow vector derivation process. Here, the image data in the previous frame stored in the data holding unit 152 is referred to as “previous image data”, and the image data in the current frame is referred to as “current image data”. In addition, a correction table, which will be described later, in which the moving speed and angular speed are associated with the correction flow vector can be held in advance.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150やデータ保持部152を制御する。また、本実施形態において、中央制御部154は、画像切出部160、フローベクトル導出部162、移動状態取得部164、補正フローベクトル生成部166、フローベクトル減算部168、グループ化部170、移動物判定部172、衝突判定部174、報知部176、画像保持部178としても機能する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program and the like, a RAM as a work area, and the like, and through the system bus 156, the I / F unit 150 and the data holding unit. 152 is controlled. In the present embodiment, the central control unit 154 includes an image cutout unit 160, a flow vector derivation unit 162, a movement state acquisition unit 164, a corrected flow vector generation unit 166, a flow vector subtraction unit 168, a grouping unit 170, a movement It also functions as an object determination unit 172, a collision determination unit 174, a notification unit 176, and an image holding unit 178.

画像切出部160は、I/F部150が取得した今回画像データに基づく図2に示したような環境画像200から、予め定められた位置および大きさの図3に示したような部分画像202を切り出す。   The image cutout unit 160 is a partial image as shown in FIG. 3 having a predetermined position and size from the environmental image 200 as shown in FIG. 2 based on the current image data acquired by the I / F unit 150. 202 is cut out.

フローベクトル導出部162は、所謂、パターンマッチングを通じて、画像切出部160が切り出した部分画像202の任意の部位におけるフローベクトルを導出する。   The flow vector deriving unit 162 derives a flow vector at an arbitrary part of the partial image 202 cut out by the image cutout unit 160 through so-called pattern matching.

図7および図8は、フローベクトル導出部162の処理を説明するための説明図である。フローベクトル導出部162は、データ保持部152に記憶された前回画像データに基づく図7(a)に示した部分画像202から任意に抽出したブロック(ここでは水平8画素×垂直8画素の配列で構成される)210aに対応する(相関値の高い)ブロック210bを、今回画像データに基づく図7(b)に示した部分画像202から検出する(パターンマッチング)。このとき前回画像データに対応するブロック210aから今回画像データに対応するブロック210bまでの、図7(b)中、矢印で示す移動軌跡がオプティカルフローにおけるフローベクトルとなる。   7 and 8 are explanatory diagrams for explaining the processing of the flow vector deriving unit 162. FIG. The flow vector deriving unit 162 is a block arbitrarily extracted from the partial image 202 shown in FIG. 7A based on the previous image data stored in the data holding unit 152 (here, an array of horizontal 8 pixels × vertical 8 pixels). A block 210b corresponding to (configured) 210a (high correlation value) is detected from the partial image 202 shown in FIG. 7B based on the current image data (pattern matching). At this time, the movement trajectory indicated by the arrow in FIG. 7B from the block 210a corresponding to the previous image data to the block 210b corresponding to the current image data becomes the flow vector in the optical flow.

かかるパターンマッチングとしては、前回画像データおよび今回画像データ間において、任意の画像位置を示すブロック単位で輝度値を比較することが考えられる。例えば、輝度値の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度値から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位のフローベクトル導出処理を部分画像202(例えば、640画素×128画素)に映し出されている全てのブロックについて行う。   As such pattern matching, it is conceivable to compare luminance values in units of blocks indicating arbitrary image positions between previous image data and current image data. For example, the SAD (Sum of Absolute Difference) that takes the difference in luminance value, the SSD (Sum of Squared intensity Difference) that uses the difference squared, and the similarity of the variance value obtained by subtracting the average value from the luminance value of each pixel. There are methods such as NCC (Normalized Cross Correlation). The vehicle exterior environment recognition apparatus 120 performs such block-based flow vector derivation processing for all blocks displayed in the partial image 202 (for example, 640 pixels × 128 pixels).

ブロック内の画素数は任意に設定することができるが、ここでは、ブロックを水平8画素×垂直8画素としている。   The number of pixels in the block can be arbitrarily set. Here, the block is assumed to be 8 horizontal pixels × 8 vertical pixels.

このようにして、フローベクトル導出部162は、前回画像データに対応する部分画像202の例えば車両に相当する移動物2に対して図8の如くフローベクトルを導出することができる。   In this way, the flow vector deriving unit 162 can derive a flow vector as shown in FIG. 8 for the moving object 2 corresponding to, for example, a vehicle in the partial image 202 corresponding to the previous image data.

移動状態取得部164は、広角レンズを有する撮像装置110の移動状態を取得する。なお、撮像装置110の移動状態を直接測定するとしてもよいが、本実施形態では、撮像装置110を固定し、撮像装置110とほぼ同一の移動軌跡で移動する自車両1の移動状態を撮像装置110の移動状態として用いることとする。また、移動状態は、自車両1の直進方向の移動速度と、旋回方向の角速度で表すことができるので、ここでは、移動状態として自車両1の移動速度および角速度を取得している。ただし、移動状態を特定する手段はかかる場合に限らず、移動速度および舵角等、様々なパラメータに基づいて特定することができる。   The movement state acquisition unit 164 acquires the movement state of the imaging device 110 having a wide-angle lens. Although the moving state of the imaging device 110 may be directly measured, in the present embodiment, the imaging device 110 is fixed, and the moving state of the host vehicle 1 that moves on the same movement trajectory as the imaging device 110 is measured. 110 is used as the moving state. Moreover, since the moving state can be expressed by the moving speed in the straight direction of the host vehicle 1 and the angular speed in the turning direction, the moving speed and the angular speed of the host vehicle 1 are acquired here as the moving state. However, the means for specifying the movement state is not limited to this, and can be specified based on various parameters such as the movement speed and the steering angle.

補正フローベクトル生成部166は、広角レンズから相異なる2つの距離にある2つの静止物3を仮定し、移動状態(ここでは、移動速度および角速度)に基づいて2つの静止物3のフローベクトルを推定する。   The corrected flow vector generation unit 166 assumes two stationary objects 3 at two different distances from the wide-angle lens, and calculates the flow vectors of the two stationary objects 3 based on the moving state (here, moving speed and angular velocity). presume.

ここでは、まず、2つの距離にある2つの静止物3を仮定する理由を説明し、2つの静止物3のフローベクトルから補正フローベクトルを生成した場合の作用を詳述する。   Here, first, the reason for assuming two stationary objects 3 at two distances will be described, and the operation when a correction flow vector is generated from the flow vectors of the two stationary objects 3 will be described in detail.

(2つの距離にある2つの静止物3を仮定する理由)
静止物3のフローベクトルは、自車両1が直進する移動速度、および、旋回する角速度の影響を受ける。
(Reason for assuming two stationary objects 3 at two distances)
The flow vector of the stationary object 3 is affected by the moving speed at which the host vehicle 1 goes straight and the angular speed at which the vehicle turns.

図9は、自車両1が直進する場合の移動速度の影響を説明するための説明図であり、図10は、自車両1が旋回する場合の角速度の影響を説明するための説明図である。   FIG. 9 is an explanatory diagram for explaining the influence of the moving speed when the host vehicle 1 goes straight, and FIG. 10 is an explanatory diagram for explaining the influence of the angular velocity when the host vehicle 1 turns. .

自車両1が移動速度Aで直進している場合、自車両1から比較的遠い位置にある静止物3aおよび自車両1から比較的近い位置にある静止物3bは、相対速度Aで自車両1に近づいていることになり、その相対速度Aの相対移動が部分画像202に投影されてフローベクトルとなる。図9に示すように、静止物3aと静止物3bとは同一の相対速度Aであるにも拘わらず、その距離が異なることからフローベクトルの長さが異なり、自車両1から比較的遠い位置にある静止物3aのフローベクトルは、自車両1から比較的近い位置にある静止物3bのフローベクトルより短くなる。   When the host vehicle 1 is traveling straight at the moving speed A, the stationary object 3a that is relatively far from the host vehicle 1 and the stationary object 3b that is relatively close to the host vehicle 1 are at the relative speed A. Therefore, the relative movement at the relative speed A is projected onto the partial image 202 and becomes a flow vector. As shown in FIG. 9, although the stationary object 3 a and the stationary object 3 b have the same relative speed A, the distance is different, so that the length of the flow vector is different, and the position is relatively far from the host vehicle 1. The flow vector of the stationary object 3a is shorter than the flow vector of the stationary object 3b located relatively close to the host vehicle 1.

また、フローベクトルの向きは、撮像装置110が自車両1の前方先端かつ車幅方向の中央に位置している場合、図9のように、部分画像202における判定基準線204より静止物3が左側にある場合は左向きになり、静止物3が判定基準線204より右側にある場合は右向きとなる。   In addition, the flow vector is directed so that the stationary object 3 is determined from the determination reference line 204 in the partial image 202 as shown in FIG. 9 when the imaging device 110 is positioned at the front end of the host vehicle 1 and at the center in the vehicle width direction. When it is on the left side, it turns to the left, and when the stationary object 3 is on the right side of the determination reference line 204, it turns to the right.

一方、図10に示すように、自車両1が角速度Bで旋回している場合、自車両1から比較的遠い位置にある静止物3aおよび自車両1から比較的近い位置にある静止物3bは、相対角速度Bで自車両1と相対回転していることになり、その相対角速度Bの相対回転が部分画像202に投影されてフローベクトルとなる。したがって、静止物3aと静止物3bとは、同一の相対角速度Bによる同一のフローベクトルが生じることとなる。   On the other hand, as shown in FIG. 10, when the host vehicle 1 is turning at an angular velocity B, the stationary object 3 a that is relatively far from the host vehicle 1 and the stationary object 3 b that is relatively close to the host vehicle 1 are Thus, the vehicle is rotating relative to the host vehicle 1 at the relative angular velocity B, and the relative rotation of the relative angular velocity B is projected onto the partial image 202 to become a flow vector. Therefore, the stationary object 3a and the stationary object 3b generate the same flow vector with the same relative angular velocity B.

図9および図10を参照すると、自車両1が直進する移動速度Aの影響による静止物3のフローベクトルは、自車両1の移動速度Aおよび静止物3との距離に基づいて導出することができ、また、自車両1が旋回する角速度Bの影響による静止物3のフローベクトルは、自車両1の角速度Bに基づいて導出することができる。しかし、上述したように、自車両1の移動速度Aおよび角速度Bは、移動状態取得部164によって容易に取得することができるが、静止物3までの距離は容易に導出できない。   Referring to FIGS. 9 and 10, the flow vector of the stationary object 3 due to the influence of the moving speed A at which the host vehicle 1 travels straight can be derived based on the moving speed A of the host vehicle 1 and the distance from the stationary object 3. Further, the flow vector of the stationary object 3 due to the influence of the angular velocity B at which the host vehicle 1 turns can be derived based on the angular velocity B of the host vehicle 1. However, as described above, the moving speed A and the angular speed B of the host vehicle 1 can be easily acquired by the moving state acquisition unit 164, but the distance to the stationary object 3 cannot be easily derived.

そこで、本実施形態では、静止物3までの距離の概念を以下のように取り扱う。すなわち、静止物3が、想定される最大距離と最小距離との間のいずれにあるかについては言及しない。したがって、静止物3が想定される最大距離と最小距離との間のいずれに存在するとしても、自車両1が移動することによる静止物3のフローベクトルへの影響、特に、判定基準線204に向かう静止物3のフローベクトルの出現を抑制する。したがって、移動速度が低い移動物2が検出されない可能性は残るものの、静止物3を移動物2として誤検出してしまうのを確実に回避することができる。   Therefore, in this embodiment, the concept of the distance to the stationary object 3 is handled as follows. That is, it does not mention whether the stationary object 3 is between the assumed maximum distance and the minimum distance. Therefore, even if the stationary object 3 exists between the assumed maximum distance and the minimum distance, the influence of the movement of the host vehicle 1 on the flow vector of the stationary object 3, in particular, the determination reference line 204 Appearance of the flow vector of the stationary stationary object 3 is suppressed. Therefore, although there is a possibility that the moving object 2 having a low moving speed is not detected, it is possible to reliably avoid erroneous detection of the stationary object 3 as the moving object 2.

図11、図12、図14および図15は、フローベクトルの推移を示した説明図であり、図13は、補正フローベクトルの効果を示した説明図である。補正フローベクトル生成部166は、まず、静止物3が想定される最も近距離にある場合と、想定される最も遠距離にある場合の2つの静止物3を仮定し、自車両1の移動状態(移動速度および角速度)に基づいて、2つの静止物3のフローベクトルを導出する。例えば、自車両1の移動速度が7km/hであり、角速度が+15deg/s(右旋回)であった場合に、補正フローベクトル生成部166が、上記移動条件に基づき、空間座標内で計算すると、遠距離の静止物3aと近距離の静止物3bのフローベクトルは、図11のような推移を示すこととなる。   11, 12, 14 and 15 are explanatory diagrams showing the transition of the flow vector, and FIG. 13 is an explanatory diagram showing the effect of the correction flow vector. First, the corrected flow vector generation unit 166 assumes two stationary objects 3 when the stationary object 3 is at the shortest distance assumed and when the stationary object 3 is at the longest distance assumed, and the moving state of the host vehicle 1 is assumed. Based on (moving speed and angular velocity), flow vectors of two stationary objects 3 are derived. For example, when the moving speed of the host vehicle 1 is 7 km / h and the angular speed is +15 deg / s (right turn), the correction flow vector generation unit 166 calculates in spatial coordinates based on the moving condition. Then, the flow vectors of the long-distance stationary object 3a and the short-distance stationary object 3b show transitions as shown in FIG.

図11は、部分画像202のうち、地面と静止物3の境界に相当する垂直位置における部分画像202全体の水平方向の位置を横軸とし、各部位のフローベクトルを縦軸としている。ここで、フローベクトルの長さは縦軸の大きさで示され、フローベクトルの向きは、右方向が正、左方向が負で示される。また静止物3は、旋回前の自車両1の向きと直交し、車両前方における所定の距離にある平面状の壁として当該計算を行っている。ただし、静止物3の定義はかかる場合に限らず、自車両1の向きと平行な左右の壁面を加えてもよいし、撮像装置110から等距離にある円形の壁としてもよい。   In FIG. 11, the horizontal position of the entire partial image 202 at the vertical position corresponding to the boundary between the ground and the stationary object 3 in the partial image 202 is taken as the horizontal axis, and the flow vector of each part is taken as the vertical axis. Here, the length of the flow vector is indicated by the size of the vertical axis, and the direction of the flow vector is indicated by positive in the right direction and negative in the left direction. The stationary object 3 performs the calculation as a planar wall that is orthogonal to the direction of the host vehicle 1 before turning and is at a predetermined distance in front of the vehicle. However, the definition of the stationary object 3 is not limited to this case, and left and right wall surfaces parallel to the direction of the host vehicle 1 may be added, or a circular wall that is equidistant from the imaging device 110 may be used.

図11を参照して理解できるように、遠距離の静止物3aは、自車両1が直進する移動速度の影響が少なく、ほぼ、自車両1が旋回する角速度の影響を受けるため、フローベクトルが負(左方向)の固定値になる。一方、近距離の静止物3bは、遠距離の静止物3a同様、自車両1が旋回する角速度の影響を受けて、フローベクトルが負にオフセットするものの、自車両1が直進する移動速度の影響を受けて、水平方向の比較的右側で正方向のフローベクトルが得られ、水平方向の比較的左側で負方向のフローベクトルが得られる。これは、上述したように、広角レンズが用いられているので、部分画像202の中心と比較して側方にずれるに連れて、静止物3のフローベクトルの大きさが大きくなることに起因する。   As can be understood with reference to FIG. 11, the long-distance stationary object 3a is less affected by the moving speed at which the host vehicle 1 travels straight, and is almost affected by the angular speed at which the host vehicle 1 turns. Negative (leftward) fixed value. On the other hand, the short-distance stationary object 3b, like the long-distance stationary object 3a, is influenced by the angular velocity at which the host vehicle 1 turns, and the flow vector is negatively offset. In response, a positive flow vector is obtained on the relatively right side in the horizontal direction, and a negative flow vector is obtained on the relatively left side in the horizontal direction. This is because, as described above, since the wide-angle lens is used, the magnitude of the flow vector of the stationary object 3 increases as it shifts to the side compared to the center of the partial image 202. .

ただし、近距離の静止物3bのフローベクトルも、水平方向の左右端部において、遠距離の静止物3aと同等のフローベクトルに収束している。これは、上述したように、静止物3として、旋回前の自車両1の向きと直交し、車両前方における所定の距離にある平面状の壁を想定しているため、部分画像202の両端では、撮像装置110の光軸方向とのなす角が大きくなって静止物3までの距離が遠くなり、遠距離の静止物3aとフローベクトルが等しくなるからである。したがって、水平方向の左右両端では、近距離の静止物3bも自車両1が直進する移動速度の影響が小さくなり、ほぼ、自車両1が旋回する角速度の影響を受けることとなる。なお、静止物3として、平面状の壁ではなく、撮像装置110から等距離にある球面を想定した場合、遠距離の静止物3aと近距離の静止物3bとが水平方向の左右両端において同一のフローベクトルには収束しない。   However, the flow vector of the short-distance stationary object 3b also converges to the same flow vector as that of the long-distance stationary object 3a at the left and right ends in the horizontal direction. As described above, this is because the stationary object 3 is assumed to be a planar wall that is orthogonal to the direction of the host vehicle 1 before turning and is at a predetermined distance in front of the vehicle. This is because the angle formed with the optical axis direction of the imaging device 110 is increased, the distance to the stationary object 3 is increased, and the flow vector is equal to the stationary object 3a at a long distance. Therefore, at the left and right ends in the horizontal direction, the influence of the moving speed at which the host vehicle 1 goes straight is also reduced by the short-distance stationary object 3b, and is almost affected by the angular speed at which the host vehicle 1 turns. In addition, when assuming that the stationary object 3 is not a flat wall but a spherical surface that is equidistant from the imaging device 110, the long-distance stationary object 3a and the short-distance stationary object 3b are the same at the left and right ends in the horizontal direction. It does not converge to the flow vector.

また、上記では、遠距離の静止物3aのフローベクトルは負の固定値となると説明したが、実際のフローベクトルは、水平位置の端部において負の方向に凹状に推移している。これは、広角レンズによる立体射影を用いている特性上、部分画像202の端の方が中心部より、旋回に伴う静止物3の移動距離が長くなり、その結果、部分画像202の両端でフローベクトルが拡大されるからである。   In the above description, the flow vector of the long-distance stationary object 3a has been described as having a negative fixed value. However, the actual flow vector has a concave shape in the negative direction at the end of the horizontal position. This is because the moving distance of the stationary object 3 accompanying the turning is longer at the end of the partial image 202 than at the center due to the characteristics of using the stereoscopic projection by the wide-angle lens. This is because the vector is enlarged.

ここで、図11を全体的に観察すると、静止物3が比較的近距離に存在する場合、近距離の静止物3bのフローベクトルが生じ、静止物3のフローベクトルの水平方向の向きが左右で反転する部位(境界)が図11中破線で示した位置に生じる。仮に、旋回における角速度が15deg/sより大きかったとすると、かかる反転部位は、水平方向の右方向にシフトする。逆に、角速度が15deg/sより小さいと、水平方向の左方向にシフトし、中央の判定基準線204に近づくこととなる。   Here, when observing FIG. 11 as a whole, when the stationary object 3 exists at a relatively short distance, a flow vector of the stationary object 3b at a short distance is generated, and the horizontal direction of the flow vector of the stationary object 3 is left and right. A part (boundary) that is reversed at is generated at a position indicated by a broken line in FIG. If the angular velocity in turning is greater than 15 deg / s, the reversal part shifts to the right in the horizontal direction. On the other hand, if the angular velocity is less than 15 deg / s, it shifts to the left in the horizontal direction and approaches the central determination reference line 204.

このような部分画像202に存在しうる静止物3は、全て、想定される最も近距離から最も遠距離の間に存在するので、ここでは、近距離の静止物3bと遠距離の静止物3aのみを考慮することで、その間にある全ての静止物3を考慮したことになる。   Since all the stationary objects 3 that can exist in the partial image 202 exist between the assumed shortest distance to the longest distance, here, the short-distance stationary object 3b and the long-distance stationary object 3a. By considering only, all the stationary objects 3 in between are considered.

(2つの静止物のフローベクトルから補正フローベクトルを生成した場合の作用)
続いて、静止物3と移動物2との関係を述べる。図11の右側領域のみに着目した図12(a)を参照すると、ここでは、静止物3の実際の距離に言及していないので、静止物3は、図12(a)においてハッチングで示した領域内のいずれかに存在することとなる。ハッチングで示した領域に存在する静止物3は、判定基準線204の右側領域において一部を除き左方向のフローベクトルとなり、その静止物3は移動物2として判定されてしまう。このような誤検出を回避すべく、右側領域全てを予め検出の対象外として排除してしまうと、例えば、実際に存在する移動物2aを検出できなくなる。
(Operation when a corrected flow vector is generated from the flow vectors of two stationary objects)
Next, the relationship between the stationary object 3 and the moving object 2 will be described. Referring to FIG. 12 (a) focusing only on the right region of FIG. 11, since the actual distance of the stationary object 3 is not mentioned here, the stationary object 3 is indicated by hatching in FIG. 12 (a). It exists anywhere in the area. The stationary object 3 existing in the hatched area becomes a flow vector in the left direction except for a part in the right area of the determination reference line 204, and the stationary object 3 is determined as the moving object 2. In order to avoid such erroneous detection, if all of the right side area is excluded as a detection target in advance, for example, the actually existing moving object 2a cannot be detected.

そこで、誤検出される可能性のある静止物3のフローベクトルの最大量、すなわち、相対的に、判定基準線204に向かうスカラー量が大きいフローベクトルを補正フローベクトルとし、図12(b)のように、その分だけフローベクトル全体を右方向にオフセットする。こうすることで、少なくとも、静止物3のフローベクトルが判定基準線204に近づく方向に生じることがなくなる。   Therefore, the maximum amount of the flow vector of the stationary object 3 that may be erroneously detected, that is, the flow vector having a relatively large scalar amount toward the determination reference line 204 is set as a correction flow vector, and the flow vector of FIG. Thus, the entire flow vector is offset in the right direction accordingly. By doing so, at least the flow vector of the stationary object 3 does not occur in a direction approaching the determination reference line 204.

また、静止物3のフローベクトルの最大量以上の大きさを持つ移動物2aは、補正フローベクトルのオフセットだけでは、フローベクトルの方向が変化しないため(左方向が維持されるので)、図12(b)の如く、左方向のフローベクトルとして把握され、移動物2aとして特定される。   In addition, the moving object 2a having a size equal to or larger than the maximum amount of the flow vector of the stationary object 3 does not change the direction of the flow vector only by the offset of the correction flow vector (since the left direction is maintained), FIG. As shown in (b), it is grasped as a flow vector in the left direction and specified as the moving object 2a.

例えば、図13の例では、補正フローベクトルのオフセット前の図13(a)において一点鎖線で示したように、判定基準線204の右側領域において、静止物3であるにも拘わらず左方向のフローベクトルとなる部分が存在するが、補正フローベクトルのオフセットを行った後の図13(b)では、それらも右方向のフローベクトルとなり、左方向のフローベクトルは、真に左方向に移動している移動体2aのみとなる。こうして、少なくとも静止物3を移動物2と誤検出するのを回避し、左方向のフローベクトルを全て移動物2として抽出することができる。   For example, in the example of FIG. 13, as indicated by the alternate long and short dash line in FIG. 13A before the offset of the correction flow vector, in the right region of the determination reference line 204, although it is a stationary object 3, In FIG. 13B after the offset of the correction flow vector is performed, they also become the flow vector in the right direction, and the flow vector in the left direction moves to the left truly. Only the moving body 2a is present. In this way, it is possible to avoid erroneously detecting at least the stationary object 3 as the moving object 2 and to extract all the flow vectors in the left direction as the moving object 2.

また、図11の左側領域のみに着目した図14(a)を参照すると、遠距離の静止物3aであるか近距離の静止物3bであるかに拘わらず、静止物3は、少なくとも図14(a)においてハッチングで示した領域内に存在し、判定基準線204の左側領域において、ある程度の長さを有する左方向のフローベクトルとなってしまう。このような自車両1の移動は、静止物3のみならず、移動物2にも影響を与えてしまう。例えば、移動物2bが、本来、右方向のフローベクトルを有していたとしても、自車両1の移動によって左方向のフローベクトルに相殺され、移動物2bも左方向のフローベクトルとなって、移動物2として判定されなくなってしまう。   Further, referring to FIG. 14 (a) focusing only on the left region of FIG. 11, regardless of whether the object is a long-distance stationary object 3a or a short-distance stationary object 3b, the stationary object 3 is at least as shown in FIG. In the area indicated by hatching in (a), the flow vector in the left direction has a certain length in the left area of the determination reference line 204. Such movement of the host vehicle 1 affects not only the stationary object 3 but also the moving object 2. For example, even if the moving object 2b originally has a flow vector in the right direction, it is offset by the flow vector in the left direction by the movement of the host vehicle 1, and the moving object 2b also becomes a flow vector in the left direction. The moving object 2 will not be determined.

そこで、静止物3が影響を受けるフローベクトルの最小量、すなわち、相対的に、判定基準線204と反対方向に向かうスカラー量が小さいフローベクトル(ここでは遠距離の静止物3aのフローベクトル)を補正フローベクトルとし、図14(b)のように、その分だけフローベクトル全体を右方向にオフセットする。   Therefore, the minimum amount of the flow vector affected by the stationary object 3, that is, the flow vector having a relatively small scalar amount in the direction opposite to the determination reference line 204 (here, the flow vector of the long-distance stationary object 3a). As a corrected flow vector, as shown in FIG. 14B, the entire flow vector is offset to the right by that amount.

ここで、仮に、近距離の静止物3bのフローベクトルを採用すると、近距離と遠距離との間にある静止物3を近距離の静止物3bのフローベクトル分オフセットしてしまうことになり、近距離と遠距離との間にある静止物3が右方向のフローベクトルとなって、移動物2として誤検出されてしまうこととなる。したがって、上記のように遠距離の静止物3aのフローベクトルを採用する。   Here, if the flow vector of the short distance stationary object 3b is adopted, the stationary object 3 between the short distance and the long distance is offset by the flow vector of the short distance stationary object 3b. The stationary object 3 between the short distance and the long distance becomes a flow vector in the right direction and is erroneously detected as the moving object 2. Therefore, the flow vector of the long distance stationary object 3a is adopted as described above.

こうすることで、左側領域全てに追加されている左方向のフローベクトルのオフセットを排除することができ、自車両1の移動の影響を最小限に抑えることが可能となる。   By doing so, it is possible to eliminate the offset of the flow vector in the left direction added to the entire left region, and to minimize the influence of the movement of the host vehicle 1.

こうして、自車両1の移動の影響を受けてフローベクトルが反転していた移動物2bも、最低限のオフセットを受けて、右方向のフローベクトルとなり、図14(b)の如く、右方向のフローベクトルとして把握され、移動物2bとして特定される。   In this way, the moving object 2b whose flow vector has been inverted due to the movement of the host vehicle 1 also receives the minimum offset and becomes the right flow vector. As shown in FIG. It is grasped as a flow vector and specified as a moving object 2b.

例えば、図13の例では、補正フローベクトルのオフセット前の図13(a)においては、判定基準線204の左側領域において、移動物2bのフローベクトルが左方向となり、それを移動物2bとして特定することができないが、補正フローベクトルのオフセットを行った後の図13(b)では、移動物2bのフローベクトルが右方向となり、真に右方向に移動している移動体2bとして特定することができる。   For example, in the example of FIG. 13, in FIG. 13A before the offset of the correction flow vector, the flow vector of the moving object 2b is in the left direction in the region on the left side of the determination reference line 204, and is specified as the moving object 2b. In FIG. 13B after the correction flow vector is offset, the flow vector of the moving object 2b is in the right direction, and it is specified as the moving body 2b that is truly moving in the right direction. Can do.

このように、補正フローベクトル生成部166は、近距離と遠距離の2つの距離のフローベクトルを推定し、推定した2つのフローベクトルのうち、相対的に、判定基準線204に向かうスカラー量が大きい、または、判定基準線204と反対方向に向かうスカラー量が小さいフローベクトル、すなわち、判定基準線204の左側領域では、右向き最長または左向き最短のフローベクトルを、判定基準線204の右側領域では、左向き最長または右向き最短のフローベクトルを補正フローベクトルとする。   As described above, the corrected flow vector generation unit 166 estimates the flow vectors of the two distances of the short distance and the long distance, and the scalar amount toward the determination reference line 204 is relatively larger among the two estimated flow vectors. A flow vector that is large or has a small scalar amount in the opposite direction to the determination reference line 204, that is, a longest rightward flow vector or a shortest leftward flow vector in the left region of the determination reference line 204, and a right flow region of the determination reference line 204 The longest leftward flow vector or the shortest rightward flow vector is set as a corrected flow vector.

このようにして導き出された補正フローベクトルは、左側領域と右側領域を連続させると、図15(a)に実線で示したように表すことができる。ここで、静止物3のフローベクトルは、ハッチングで示した範囲内に収まる。かかる補正フローベクトルで、部分画像202全体のフローベクトルをオフセットすると、図15(b)のようになる。このとき、右側領域では、全ての静止物3のフローベクトルを右向きのフローベクトルとすることができ、静止物3を移動物2として誤検出するのを回避でき、また、ある程度の移動速度を有する移動物2を検出することが可能となる。また、左側領域では、全ての静止物3のフローベクトルが右向きとならない範囲、すなわち、静止物3が移動物2と誤検出されない範囲でオフセットされ、自車両1の移動により埋もれてしまった移動物2のフローベクトルを適切に検出することが可能となる。   The correction flow vector derived in this way can be expressed as shown by a solid line in FIG. 15A when the left region and the right region are made continuous. Here, the flow vector of the stationary object 3 falls within the range indicated by hatching. When the flow vector of the entire partial image 202 is offset with such a corrected flow vector, the result is as shown in FIG. At this time, in the right region, the flow vectors of all the stationary objects 3 can be set to the rightward flow vectors, and it is possible to avoid erroneous detection of the stationary object 3 as the moving object 2 and to have a certain movement speed. The moving object 2 can be detected. Further, in the left region, the moving object that is offset by the range in which the flow vectors of all the stationary objects 3 are not directed rightward, that is, the range in which the stationary object 3 is not erroneously detected as the moving object 2 and is buried by the movement of the host vehicle 1. 2 flow vectors can be appropriately detected.

ただし、補正フローベクトルは、自車両1の移動速度および角速度から一義的に導出されるものなので、毎回計算しなくとも、移動速度および角速度に応じて、補正テーブルから抽出することができる。この場合、移動速度と角速度とに基づいて補正フローベクトルを予め計算しておき、移動速度および角速度と補正フローベクトルとを対応付けた補正テーブルを生成し、データ保持部152に保持させる。かかる補正テーブルでは、移動速度1km間隔(範囲1〜15km/h)、角速度1deg間隔(範囲−30〜30deg/s)の分解能で補正フローベクトルを準備する。かかる分解能より高い分解能で補正フローベクトルを導出する場合、複数の補正フローベクトルを用いて線形補間を行うこともできる。また、補正フローベクトルを減算することで、静止物3が移動物2として誤検出されないように補正フローベクトルを選択することも可能である。そして、補正フローベクトル生成部166は、移動状態取得部164が取得した移動速度と角速度に応じて、データ保持部152の補正テーブルを参照し、補正フローベクトルを抽出する。   However, since the correction flow vector is uniquely derived from the moving speed and the angular velocity of the host vehicle 1, it can be extracted from the correction table according to the moving speed and the angular velocity without calculating each time. In this case, a correction flow vector is calculated in advance based on the moving speed and the angular velocity, a correction table in which the moving speed, the angular velocity, and the correction flow vector are associated with each other is generated and held in the data holding unit 152. In such a correction table, correction flow vectors are prepared with a resolution of a movement speed of 1 km interval (range 1 to 15 km / h) and an angular velocity of 1 deg interval (range -30 to 30 deg / s). When the correction flow vector is derived with a resolution higher than the resolution, linear interpolation can be performed using a plurality of correction flow vectors. It is also possible to select the correction flow vector so that the stationary object 3 is not erroneously detected as the moving object 2 by subtracting the correction flow vector. Then, the correction flow vector generation unit 166 extracts a correction flow vector by referring to the correction table of the data holding unit 152 according to the movement speed and the angular velocity acquired by the movement state acquisition unit 164.

フローベクトル減算部168は、フローベクトル導出部162が導出したフローベクトルから、補正フローベクトル生成部166が生成した補正フローベクトルを減算する。こうして、補正フローベクトル分のオフセットが行われ、静止物3を移動物2と誤検出せず、かつ、移動物2の検出精度が高められる。   The flow vector subtracting unit 168 subtracts the corrected flow vector generated by the corrected flow vector generating unit 166 from the flow vector derived by the flow vector deriving unit 162. In this way, the offset corresponding to the correction flow vector is performed, the stationary object 3 is not erroneously detected as the moving object 2, and the detection accuracy of the moving object 2 is improved.

グループ化部170は、フローベクトル導出部162が導出した判定基準線204により領域を左側領域と右側領域に分割し、フローベクトル減算部168が減算したフローベクトルから、左側領域において右方向に向くフローベクトル、または、右側領域において左方向に向くフローベクトルを抽出する。そして、抽出したフローベクトルのうち、隣接するブロック同士のフローベクトルを順次比較し、フローベクトルの方向およびその大きさが近似する(例えば、方向が±45度以内かつ大きさの差分が16画素以内である)ブロックをグループ化する。そして、グループ化したブロック群を移動物2として特定する。例えば、図8に示したフローベクトルは、右側領域において左方向に向いており、互いに近似しているので、対象となるブロックをグループ化し、移動物2として特定することができる。   The grouping unit 170 divides the region into a left region and a right region based on the determination reference line 204 derived by the flow vector deriving unit 162, and the flow directed to the right in the left region from the flow vector subtracted by the flow vector subtracting unit 168. A vector or a flow vector directed to the left in the right region is extracted. Then, among the extracted flow vectors, the flow vectors of adjacent blocks are sequentially compared, and the direction of the flow vector and the size thereof are approximated (for example, the direction is within ± 45 degrees and the difference in size is within 16 pixels. Group the blocks. Then, the grouped block group is specified as the moving object 2. For example, since the flow vectors shown in FIG. 8 are directed to the left in the right region and are close to each other, the target blocks can be grouped and specified as the moving object 2.

移動物判定部172は、グループ化部170がグループ化したブロック群の接地位置、大きさ、および、そのブロック群の速度に応じて、そのブロック群を構成する移動物2の位置、進行方向および速度を判定する。例えば、図8に示したフローベクトルが近似するブロック群を自車両1と直交する方向に移動する物体であると判定する。   The moving object determination unit 172 determines the position, the traveling direction, and the position of the moving object 2 constituting the block group according to the ground contact position, size, and speed of the block group that the grouping unit 170 has grouped. Determine the speed. For example, the block group approximated by the flow vector shown in FIG. 8 is determined to be an object that moves in a direction orthogonal to the host vehicle 1.

衝突判定部174は、自車両1の進行方向および速度と、特定した移動物2の位置、進行方向および速度とに応じて、自車両1と当該移動物2が衝突する可能性が高いか否か判定する。かかる衝突判定については、既存の様々な技術を適用することが可能なので、ここではその詳細な説明を省略する。   The collision determination unit 174 determines whether or not the own vehicle 1 and the moving object 2 are highly likely to collide according to the traveling direction and speed of the own vehicle 1 and the position, traveling direction and speed of the identified moving object 2. To determine. Since various existing techniques can be applied to the collision determination, detailed description thereof is omitted here.

報知部176は、衝突判定部174が衝突の可能性が高いと判定した場合、ブザー(音声出力手段)や警告灯(ディスプレイ122)を通じて、その旨、運転者に報知する。また、I/F部150を通じて、車両制御装置130に、その旨を示す情報を出力する。   When the collision determination unit 174 determines that the possibility of a collision is high, the notification unit 176 notifies the driver to that effect through a buzzer (voice output means) and a warning light (display 122). In addition, information indicating that is output to the vehicle control device 130 through the I / F unit 150.

画像保持部178は、データ保持部152の前回画像データに今回画像データを上書きする。こうして次のフレームでは、かかる今回画像データを前回画像データとして用いることができる。   The image holding unit 178 overwrites the previous image data of the data holding unit 152 with the current image data. Thus, in the next frame, the current image data can be used as the previous image data.

(車外環境認識方法)
以下、車外環境認識装置120の具体的な処理を図16〜図21のフローチャートに基づいて説明する。図16は、撮像装置110から広角レンズを通じて撮像された画像データが送信されたときの割込処理に関する全体的な流れを示し、図17〜図21は、その中の個別のサブルーチンを示している。また、ここでは、処理の対象部位として、画像内の画素またはブロックを挙げている。
(External vehicle environment recognition method)
Hereinafter, specific processing of the vehicle exterior environment recognition device 120 will be described based on the flowcharts of FIGS. FIG. 16 shows an overall flow relating to the interrupt processing when image data picked up through the wide-angle lens is transmitted from the image pickup apparatus 110, and FIGS. 17 to 21 show individual subroutines therein. . In addition, here, pixels or blocks in the image are listed as the processing target parts.

当該車外環境認識方法による割込が発生すると、I/F部150は、撮像装置110から送信された今回画像データを取得する(S300)。そして、画像切出部160は、取得した今回画像データに基づく環境画像200(例えば、水平640画素×垂直480画素)から予め定められた位置および大きさの部分画像202(例えば、水平640画素×垂直128画素:水平80ブロック×垂直16ブロック)を切り出し(S302)、フローベクトル導出部162は、部分画像202における複数のフローベクトルを導出する(S304)。   When the interruption by the vehicle exterior environment recognition method occurs, the I / F unit 150 acquires the current image data transmitted from the imaging device 110 (S300). The image cutout unit 160 then selects a partial image 202 (for example, horizontal 640 pixels × for example) having a predetermined position from the environmental image 200 (for example, horizontal 640 pixels × vertical 480 pixels) based on the acquired current image data. 128 vertical pixels: horizontal 80 blocks × vertical 16 blocks) are cut out (S302), and the flow vector deriving unit 162 derives a plurality of flow vectors in the partial image 202 (S304).

続いて、移動状態取得部164は、その時点の自車両1の移動速度および角速度を取得し(S306)、補正フローベクトル生成部166は、移動速度および角速度に基づいて、広角レンズから相異なる2つの距離(想定される最も近距離および最も遠距離)にある2つの静止物3のフローベクトルを推定し、1の補正フローベクトルを生成する(S308)。フローベクトル減算部168は、導出されたフローベクトルから補正フローベクトルを減算する(S310)。グループ化部170は、判定基準線204に基づいて移動物2を示すフローベクトルをグループ化する(S312)。そして、移動物判定部172は、グループ化部170がグループ化したブロック群の大きさ、および、そのブロック群の速度に応じて、そのブロック群を構成する移動物2の位置、進行方向および速度を判定する(S314)。   Subsequently, the movement state acquisition unit 164 acquires the movement speed and angular velocity of the host vehicle 1 at that time (S306), and the correction flow vector generation unit 166 differs from the wide-angle lens based on the movement speed and angular velocity. The flow vectors of two stationary objects 3 at two distances (assumed shortest distance and longest distance) are estimated, and one corrected flow vector is generated (S308). The flow vector subtraction unit 168 subtracts the corrected flow vector from the derived flow vector (S310). The grouping unit 170 groups the flow vectors indicating the moving object 2 based on the determination reference line 204 (S312). Then, the moving object determination unit 172 determines the position, traveling direction, and speed of the moving object 2 constituting the block group according to the size of the block group grouped by the grouping unit 170 and the speed of the block group. Is determined (S314).

衝突判定部174は、自車両1の進行方向および速度と、特定した移動物2の位置、進行方向および速度とに応じて、自車両1と移動物2が衝突する可能性が高いか否か判定する(S316)。その結果、移動物2と衝突する可能性が高いと判定すると(S316におけるYES)、報知部176は、衝突の可能性が高い旨、運転者に報知するとともに、車両制御装置130に、その旨を示す情報を出力する(S318)。また、移動物2と衝突する可能性が高いと判定されなかった場合(S316におけるNO)、ステップS320に移行する。   The collision determination unit 174 determines whether or not the own vehicle 1 and the moving object 2 are likely to collide according to the traveling direction and speed of the own vehicle 1 and the position, traveling direction, and speed of the identified moving object 2. Determination is made (S316). As a result, if it is determined that there is a high possibility of collision with the moving object 2 (YES in S316), the notification unit 176 notifies the driver that the possibility of collision is high and notifies the vehicle control device 130 to that effect. Is output (S318). If it is not determined that the possibility of collision with the moving object 2 is high (NO in S316), the process proceeds to step S320.

最後に、画像保持部178は、今回画像データを次回のフレームで前回画像データとして用いるため、データ保持部152の前回画像データに今回画像データを上書きする(S320)。以下、上記の画像切出処理S302、フローベクトル導出処理S304、補正フローベクトル生成処理S308、フローベクトル減算処理S310、グループ化処理S312について具体的に説明する。   Finally, the image holding unit 178 overwrites the previous image data of the data holding unit 152 with the current image data in order to use the current image data as the previous image data in the next frame (S320). Hereinafter, the image cutout process S302, the flow vector derivation process S304, the corrected flow vector generation process S308, the flow vector subtraction process S310, and the grouping process S312 will be specifically described.

(画像切出処理S302)
図17を参照すると、画像切出部160は、画素を特定するための垂直変数jを初期化(「0」を代入)する(S400)。続いて、画像切出部160は、垂直変数jに「1」を加算するとともに水平変数iを初期化(「0」を代入)する(S402)。次に、画像切出部160は、水平変数iに「1」を加算する(S404)。
(Image cutting process S302)
Referring to FIG. 17, the image cutout unit 160 initializes a vertical variable j for specifying a pixel (substitutes “0”) (S400). Subsequently, the image cutout unit 160 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S402). Next, the image cutout unit 160 adds “1” to the horizontal variable i (S404).

画像切出部160は、環境画像200から垂直方向に予め定められたオフセット量(例えば、100画素)シフトした画素(i,j+100)の輝度値を抽出し、その値を部分画像202の画素(i,j)の輝度値とする(S406)。   The image cutout unit 160 extracts the luminance value of the pixel (i, j + 100) shifted from the environment image 200 by a predetermined offset amount (for example, 100 pixels) in the vertical direction, and extracts the value as the pixel ( The luminance value of i, j) is set (S406).

続いて、画像切出部160は、水平変数iが部分画像202における水平画素の最大値である640以上であるか否か判定し(S408)、水平変数iが最大値未満であれば(S408におけるNO)、ステップS404からの処理を繰り返す。また、水平変数iが最大値以上であれば(S408にけるYES)、画像切出部160は、垂直変数jが部分画像202における垂直画素の最大値である128以上であるか否か判定する(S410)。そして、垂直変数jが最大値未満であれば(S410におけるNO)、ステップS402からの処理を繰り返す。また、垂直変数jが最大値以上であれば(S410におけるYES)、当該画像切出処理S302を終了する。こうして、図3に示したように、環境画像200の垂直方向にオフセットした位置から部分画像202を切り出すことができる。   Subsequently, the image cutout unit 160 determines whether or not the horizontal variable i is not less than 640 which is the maximum value of the horizontal pixels in the partial image 202 (S408), and if the horizontal variable i is less than the maximum value (S408). NO), the processing from step S404 is repeated. If the horizontal variable i is equal to or greater than the maximum value (YES in S408), the image cutout unit 160 determines whether the vertical variable j is equal to or greater than 128, which is the maximum value of the vertical pixels in the partial image 202. (S410). If the vertical variable j is less than the maximum value (NO in S410), the processing from step S402 is repeated. If the vertical variable j is equal to or greater than the maximum value (YES in S410), the image cutout process S302 is terminated. In this way, as shown in FIG. 3, the partial image 202 can be cut out from the position offset in the vertical direction of the environment image 200.

(フローベクトル導出処理S304)
図18を参照すると、フローベクトル導出部162は、ブロックを特定するための垂直変数jを初期化(「0」を代入)する(S450)。続いて、フローベクトル導出部162は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S452)。次に、フローベクトル導出部162は、水平変数iに「1」を加算する(S454)。ここでは、ブロックを水平8画素×垂直8画素で構成する。
(Flow vector derivation process S304)
Referring to FIG. 18, the flow vector deriving unit 162 initializes (substitutes “0”) a vertical variable j for specifying a block (S450). Subsequently, the flow vector deriving unit 162 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S452). Next, the flow vector deriving unit 162 adds “1” to the horizontal variable i (S454). Here, the block is composed of 8 horizontal pixels × 8 vertical pixels.

フローベクトル導出部162は、前回画像データに対応した部分画像202のブロック(i,j)と、今回画像データに対応した部分画像202のブロックとの相関値を導出する(S456)。具体的に、フローベクトル導出部162は、前回画像データに対応した部分画像202のブロック(i,j)を抽出し、かかる前回画像データのブロック(i,j)の位置に相当する、今回画像データに対応した部分画像202の位置から1フレームの間に移動物2が移動可能な最大範囲を設定する。そして、フローベクトル導出部162は、かかる最大範囲内で、前回画像データのブロックを1画素ずつ画面右方向にずらしながら両ブロックの相関値を求め、さらに、そのような処理を1画素ずつ画面下方向にずらしながら繰り返す。ただし、相関値を求めるときに比較する領域は、ブロックと一致していてもよいし、ブロックと一致しない、例えばブロックを包含したり、あるいはブロックの一部を含むような形でもよい。かかる処理は、今回画像データの部分画像202における最大範囲内の全てのブロックで相関値が導出されるまで繰り返される(S458のNO)。最大範囲内の全てのブロックで相関値が導出されると(S458におけるYES)、フローベクトル導出部162は、前回画像データのブロック(i,j)との相関値が最も大きい今回画像データのブロック(i,j)を抽出し、両ブロックの位置関係からフローベクトル(ブロック間の大きさと方向)を導出する(S460)。   The flow vector deriving unit 162 derives a correlation value between the block (i, j) of the partial image 202 corresponding to the previous image data and the block of the partial image 202 corresponding to the current image data (S456). Specifically, the flow vector deriving unit 162 extracts the block (i, j) of the partial image 202 corresponding to the previous image data, and corresponds to the position of the block (i, j) of the previous image data. A maximum range in which the moving object 2 can move within one frame from the position of the partial image 202 corresponding to the data is set. Then, the flow vector deriving unit 162 obtains the correlation value of both blocks while shifting the block of the previous image data pixel by pixel in the right direction within the maximum range, and further performs such processing pixel by pixel on the screen. Repeat while shifting in the direction. However, the area to be compared when obtaining the correlation value may match the block, or may not match the block, for example, may include a block or include a part of the block. This process is repeated until correlation values are derived for all the blocks within the maximum range in the partial image 202 of the current image data (NO in S458). When the correlation values are derived for all the blocks within the maximum range (YES in S458), the flow vector deriving unit 162 determines that the current image data block has the largest correlation value with the previous image data block (i, j). (I, j) is extracted, and a flow vector (size and direction between the blocks) is derived from the positional relationship between both blocks (S460).

続いて、フローベクトル導出部162は、水平変数iが部分画像202の水平ブロックの最大値である80以上であるか否か判定し(S462)、水平変数iが最大値未満であれば(S462におけるNO)、ステップS454からの処理を繰り返す。また、水平変数iが最大値以上であれば(S462におけるYES)、フローベクトル導出部162は、垂直変数jが部分画像202の垂直ブロックの最大値である16以上であるか否か判定する(S464)。そして、垂直変数jが最大値未満であれば(S464におけるNO)、ステップS452からの処理を繰り返す。また、垂直変数jが最大値以上であれば(S464におけるYES)、当該フローベクトル導出処理S304を終了する。こうして、図8に示したように、部分画像202にフローベクトルの情報を追加することができる。   Subsequently, the flow vector deriving unit 162 determines whether or not the horizontal variable i is 80 or more which is the maximum value of the horizontal block of the partial image 202 (S462), and if the horizontal variable i is less than the maximum value (S462). NO), the processing from step S454 is repeated. If the horizontal variable i is equal to or greater than the maximum value (YES in S462), the flow vector deriving unit 162 determines whether the vertical variable j is equal to or greater than 16 which is the maximum value of the vertical block of the partial image 202 ( S464). If vertical variable j is less than the maximum value (NO in S464), the processing from step S452 is repeated. If the vertical variable j is equal to or greater than the maximum value (YES in S464), the flow vector derivation process S304 is terminated. In this way, the flow vector information can be added to the partial image 202 as shown in FIG.

(補正フローベクトル生成処理S308)
図19を参照すると、補正フローベクトル生成部166は、まず、旋回前の自車両1の向きと直交し、車両前方における所定の遠距離(例えば40000m)にある平面状の壁を仮定し、その壁面と地面とが接している部位(当該ブロックが壁であり、垂直方向1つ下のブロックが地面であるブロック)のフローベクトルを導出する(S500)。かかる遠距離のフローベクトルは、垂直方向に依存しない水平方向80ブロックのベクトル列far(80)で表すことができる。次に、補正フローベクトル生成部166は、旋回前の自車両1の向きと直交し、車両前方における所定の近距離(例えば1m)にある平面状の壁を仮定し、その壁面と地面とが接している部位のフローベクトルを導出する(S502)。かかる近距離のフローベクトルは、垂直方向に依存しない水平方向80ブロックのベクトル列near(80)で表すことができる。
(Correction flow vector generation processing S308)
Referring to FIG. 19, the corrected flow vector generation unit 166 first assumes a planar wall that is orthogonal to the direction of the host vehicle 1 before turning and is at a predetermined long distance (for example, 40000 m) in front of the vehicle. A flow vector is derived for a portion where the wall surface and the ground are in contact (the block is a wall and the block immediately below in the vertical direction is the ground) (S500). Such a long-distance flow vector can be represented by a vector sequence far (80) of 80 blocks in the horizontal direction independent of the vertical direction. Next, the correction flow vector generation unit 166 assumes a planar wall that is orthogonal to the direction of the host vehicle 1 before the turn and is at a predetermined short distance (for example, 1 m) in front of the vehicle, and the wall surface and the ground are A flow vector of the part in contact is derived (S502). Such a short-distance flow vector can be represented by a vector sequence near (80) of 80 blocks in the horizontal direction independent of the vertical direction.

補正フローベクトル生成部166は、ブロックを特定するための垂直変数jを初期化(「0」を代入)する(S504)。続いて、補正フローベクトル生成部166は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S506)。次に、補正フローベクトル生成部166は、水平変数iに「1」を加算する(S508)。ここでも、ブロックを水平8画素×垂直8画素で構成する。   The corrected flow vector generation unit 166 initializes (assigns “0”) the vertical variable j for specifying the block (S504). Subsequently, the corrected flow vector generation unit 166 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S506). Next, the corrected flow vector generation unit 166 adds “1” to the horizontal variable i (S508). Again, the block is composed of 8 horizontal pixels × 8 vertical pixels.

補正フローベクトル生成部166は、水平変数iが40以下か否か、すなわち、判定基準線204の左側領域のブロックであるか否か判定する(S510)。水平変数iが40以下であれば(S510におけるYES)、遠距離のフローベクトルfar(i)が近距離のフローベクトルnear(i)より大きいか否か判定する(S512)。遠距離のフローベクトルfar(i)が近距離のフローベクトルnear(i)より大きい場合(S512におけるYES)、補正フローベクトルtgt(i,j)に遠距離のフローベクトルfar(i)を代入する(S514)。遠距離のフローベクトルfar(i)が近距離のフローベクトルnear(i)より小さい場合(S512におけるNO)、補正フローベクトルtgt(i,j)に近距離のフローベクトルnear(i)を代入する(S516)。ここでは、左側領域において右向き最長または左向き最短のフローベクトルを補正フローベクトルとしている。   The corrected flow vector generation unit 166 determines whether or not the horizontal variable i is 40 or less, that is, whether or not the block is in the left region of the determination reference line 204 (S510). If the horizontal variable i is 40 or less (YES in S510), it is determined whether or not the long-distance flow vector far (i) is larger than the short-distance flow vector near (i) (S512). When the long-distance flow vector far (i) is larger than the short-distance flow vector near (i) (YES in S512), the long-distance flow vector far (i) is substituted into the corrected flow vector tgt (i, j). (S514). When the long-distance flow vector far (i) is smaller than the short-distance flow vector near (i) (NO in S512), the short-distance flow vector near (i) is substituted into the corrected flow vector tgt (i, j). (S516). Here, the longest rightward flow vector or the shortest leftward flow vector in the left region is used as the correction flow vector.

また、水平変数iが40より大きければ(S510におけるNO)、遠距離のフローベクトルfar(i)が近距離のフローベクトルnear(i)より大きいか否か判定する(S518)。遠距離のフローベクトルfar(i)が近距離のフローベクトルnear(i)より大きい場合(S518におけるYES)、補正フローベクトルtgt(i,j)に近距離のフローベクトルnear(i)を代入する(S520)。遠距離のフローベクトルfar(i)が近距離のフローベクトルnear(i)より小さい場合(S518におけるNO)、補正フローベクトルtgt(i,j)に遠距離のフローベクトルfar(i)を代入する(S522)。ここでは、右側領域において左向き最長または右向き最短のフローベクトルを補正フローベクトルとしている。   If the horizontal variable i is larger than 40 (NO in S510), it is determined whether the long-distance flow vector far (i) is larger than the short-distance flow vector near (i) (S518). When the long-distance flow vector far (i) is larger than the short-distance flow vector near (i) (YES in S518), the short-distance flow vector near (i) is substituted into the corrected flow vector tgt (i, j). (S520). When the long-distance flow vector far (i) is smaller than the short-distance flow vector near (i) (NO in S518), the long-distance flow vector far (i) is substituted into the corrected flow vector tgt (i, j). (S522). Here, the longest leftward flow direction or the shortest rightward flow vector in the right region is used as the correction flow vector.

続いて、補正フローベクトル生成部166は、水平変数iが部分画像202の水平ブロックの最大値である80以上であるか否か判定し(S524)、水平変数iが最大値未満であれば(S524におけるNO)、ステップS508からの処理を繰り返す。また、水平変数iが最大値以上であれば(S524におけるYES)、補正フローベクトル生成部166は、垂直変数jが部分画像202の垂直ブロックの最大値である16以上であるか否か判定する(S526)。そして、垂直変数jが最大値未満であれば(S526におけるNO)、ステップS506からの処理を繰り返す。また、垂直変数jが最大値以上であれば(S526におけるYES)、当該補正フローベクトル生成処理S308を終了する。当該補正フローベクトル生成処理S308では、部分画像202の垂直方向に同一の補正フローベクトルを設定している。こうして、図15(a)に示したように、補正フローベクトルが生成される。   Subsequently, the corrected flow vector generation unit 166 determines whether or not the horizontal variable i is 80 or more which is the maximum value of the horizontal block of the partial image 202 (S524), and if the horizontal variable i is less than the maximum value (S524). NO in S524), the process from step S508 is repeated. If the horizontal variable i is equal to or greater than the maximum value (YES in S524), the corrected flow vector generation unit 166 determines whether the vertical variable j is equal to or greater than 16 that is the maximum value of the vertical block of the partial image 202. (S526). If vertical variable j is less than the maximum value (NO in S526), the processing from step S506 is repeated. If the vertical variable j is equal to or greater than the maximum value (YES in S526), the correction flow vector generation process S308 ends. In the correction flow vector generation processing S308, the same correction flow vector is set in the vertical direction of the partial image 202. In this way, a corrected flow vector is generated as shown in FIG.

(フローベクトル減算処理S310)
図20を参照すると、フローベクトル減算部168は、ブロックを特定するための垂直変数jを初期化(「0」を代入)する(S550)。続いて、フローベクトル減算部168は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S552)。次に、フローベクトル減算部168は、水平変数iに「1」を加算する(S554)。ここでは、ブロックを水平8画素×垂直8画素で構成する。
(Flow vector subtraction processing S310)
Referring to FIG. 20, the flow vector subtraction unit 168 initializes a vertical variable j for specifying a block (substitutes “0”) (S550). Subsequently, the flow vector subtraction unit 168 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S552). Next, the flow vector subtraction unit 168 adds “1” to the horizontal variable i (S554). Here, the block is composed of 8 horizontal pixels × 8 vertical pixels.

フローベクトル減算部168は、部分画像202のブロック(i,j)のフローベクトルから補正フローベクトルtgt(i,j)を減算して、ブロック(i,j)のフローベクトルを更新する(S556)。   The flow vector subtraction unit 168 subtracts the corrected flow vector tgt (i, j) from the flow vector of the block (i, j) of the partial image 202 to update the flow vector of the block (i, j) (S556). .

続いて、フローベクトル減算部168は、水平変数iが部分画像202の水平ブロックの最大値である80以上であるか否か判定し(S558)、水平変数iが最大値未満であれば(S558におけるNO)、ステップS554からの処理を繰り返す。また、水平変数iが最大値以上であれば(S558におけるYES)、フローベクトル減算部168は、垂直変数jが部分画像202の垂直ブロックの最大値である16以上であるか否か判定する(S560)。そして、垂直変数jが最大値未満であれば(S560におけるNO)、ステップS552からの処理を繰り返す。また、垂直変数jが最大値以上であれば(S560におけるYES)、当該フローベクトル減算処理S310を終了する。こうして、部分画像202のフローベクトルが補正フローベクトルtgt(i,j)分オフセットされる。   Subsequently, the flow vector subtraction unit 168 determines whether or not the horizontal variable i is 80 or more which is the maximum value of the horizontal block of the partial image 202 (S558), and if the horizontal variable i is less than the maximum value (S558). NO), the processing from step S554 is repeated. If the horizontal variable i is equal to or greater than the maximum value (YES in S558), the flow vector subtraction unit 168 determines whether or not the vertical variable j is equal to or greater than 16 that is the maximum value of the vertical block of the partial image 202 ( S560). If vertical variable j is less than the maximum value (NO in S560), the processing from step S552 is repeated. If the vertical variable j is equal to or greater than the maximum value (YES in S560), the flow vector subtraction process S310 is terminated. Thus, the flow vector of the partial image 202 is offset by the corrected flow vector tgt (i, j).

(グループ化処理S312)
図21を参照すると、グループ化部170は、ブロックを特定するための垂直変数jを初期化(「0」を代入)する(S600)。続いて、グループ化部170は、垂直変数jに「1」を加算すると共に水平変数iを初期化(「0」を代入)する(S602)。次に、グループ化部170は、水平変数iに「1」を加算する(S604)。
(Grouping process S312)
Referring to FIG. 21, the grouping unit 170 initializes (substitutes “0”) a vertical variable j for specifying a block (S600). Subsequently, the grouping unit 170 adds “1” to the vertical variable j and initializes the horizontal variable i (substitutes “0”) (S602). Next, the grouping unit 170 adds “1” to the horizontal variable i (S604).

次に、グループ化部170は、比較対象となるブロックを特定するため垂直変数nを初期化(「0」を代入)する(S606)。続いて、グループ化部170は、垂直変数nに「1」を加算すると共に水平変数mを初期化(「0」を代入)する(S608)。次に、グループ化部170は、水平変数mに「1」を加算する(S610)。   Next, the grouping unit 170 initializes a vertical variable n (substitutes “0”) in order to identify a block to be compared (S606). Subsequently, the grouping unit 170 adds “1” to the vertical variable n and initializes the horizontal variable m (substitutes “0”) (S608). Next, the grouping unit 170 adds “1” to the horizontal variable m (S610).

そして、グループ化部170は、判定基準線204に基づいて、前回画像データのブロック(i,j)とブロック(m,n)とがいずれも移動物2に対応するフローベクトルであるか否か判定する(S612)。具体的に、ブロック(i,j)が判定基準線204より左側領域に存在すれば、フローベクトルが右方向に向いているか否かを判定し、判定基準線204より右側領域に存在すれば、フローベクトルが左方向に向いているか否かを判定する。同様に、ブロック(m,n)が判定基準線204より左側領域に存在すれば、フローベクトルが右方向に向いているか否かを判定し、判定基準線204より右側領域に存在すれば、フローベクトルが左方向に向いているか否かを判定する。その結果、移動物2に対応するフローベクトルであれば(S612におけるYES)、ステップS614に移行し、いずれかが移動物2に対応していなければ(S612におけるNO)、ステップS618に処理を移行する。   Then, the grouping unit 170 determines whether the block (i, j) and the block (m, n) of the previous image data are flow vectors corresponding to the moving object 2 based on the determination reference line 204. Determination is made (S612). Specifically, if the block (i, j) exists in the left region from the determination reference line 204, it is determined whether or not the flow vector is directed rightward. If the block (i, j) exists in the right region from the determination reference line 204, It is determined whether or not the flow vector is directed leftward. Similarly, if the block (m, n) exists in the left region from the determination reference line 204, it is determined whether or not the flow vector is directed rightward. If the block (m, n) exists in the right region from the determination reference line 204, the flow is determined. It is determined whether or not the vector is directed leftward. As a result, if the flow vector corresponds to the moving object 2 (YES in S612), the process proceeds to step S614, and if either does not correspond to the moving object 2 (NO in S612), the process proceeds to step S618. To do.

続いて、グループ化部170は、前回画像データのブロック(i,j)とブロック(m,n)とを比較し、フローベクトルの方向およびその大きさが近似するか否か判定する(S614)。その結果、フローベクトルが近似すると判定されると(S614におけるYES)、グループ化部170は、そのブロック同士をグループ化してブロック群(移動物2)とする(S616)。このとき、いずれか一方または両方のブロックが既に他のブロックと共にブロック群として特定されている場合、そのブロックとブロック群となっている他のブロックも同一のブロック群として特定する。ただし、水平変数i=mかつ垂直変数j=nとなった場合、同一のブロックとなるので当該ステップS612〜S616の処理は実行しない。また、フローベクトルが近似していなければ(S614におけるNO)、ステップS618の処理に移行する。   Subsequently, the grouping unit 170 compares the block (i, j) of the previous image data with the block (m, n) and determines whether or not the direction of the flow vector and the size thereof are approximated (S614). . As a result, when it is determined that the flow vectors are approximate (YES in S614), the grouping unit 170 groups the blocks into a block group (moving object 2) (S616). At this time, when one or both of the blocks are already specified as a block group together with another block, the other blocks that are the block group are also specified as the same block group. However, when the horizontal variable i = m and the vertical variable j = n, the same block is obtained, so the processing of steps S612 to S616 is not executed. If the flow vector is not approximate (NO in S614), the process proceeds to step S618.

続いて、グループ化部170は、水平変数mが部分画像202の水平ブロックの最大値である80以上であるか否か判定し(S618)、水平変数mが最大値未満であれば(S618におけるNO)、ステップS610からの処理を繰り返す。また、水平変数mが最大値以上であれば(S618にけるYES)、グループ化部170は、垂直変数nが部分画像202の垂直ブロックの最大値である16以上であるか否か判定する(S620)。そして、垂直変数nが最大値未満であれば(S620におけるNO)、ステップS608からの処理を繰り返す。また、垂直変数nが最大値以上であれば(S620におけるYES)、ステップS622の処理に移行する。   Subsequently, the grouping unit 170 determines whether or not the horizontal variable m is 80 or more, which is the maximum value of the horizontal block of the partial image 202 (S618), and if the horizontal variable m is less than the maximum value (in S618). NO), the process from step S610 is repeated. If the horizontal variable m is equal to or greater than the maximum value (YES in S618), the grouping unit 170 determines whether the vertical variable n is equal to or greater than 16 that is the maximum value of the vertical block of the partial image 202 ( S620). If the vertical variable n is less than the maximum value (NO in S620), the processing from step S608 is repeated. If the vertical variable n is equal to or greater than the maximum value (YES in S620), the process proceeds to step S622.

続いて、グループ化部170は、水平変数iが部分画像202の水平ブロックの最大値である80以上であるか否か判定し(S622)、水平変数iが最大値未満であれば(S622におけるNO)、ステップS604からの処理を繰り返す。また、水平変数iが最大値以上であれば(S622におけるYES)、グループ化部170は、垂直変数jが部分画像202の垂直ブロックの最大値である16以上であるか否か判定する(S624)。そして、垂直変数jが最大値未満であれば(S624におけるNO)、ステップS602からの処理を繰り返す。また、垂直変数jが最大値以上であれば(S624におけるYES)、当該グループ化処理S312を終了する。こうして、フローベクトルが近似するブロック同士を移動物2として特定することができる。   Subsequently, the grouping unit 170 determines whether or not the horizontal variable i is 80 or more, which is the maximum value of the horizontal block of the partial image 202 (S622), and if the horizontal variable i is less than the maximum value (in S622). NO), the process from step S604 is repeated. If the horizontal variable i is equal to or greater than the maximum value (YES in S622), the grouping unit 170 determines whether the vertical variable j is equal to or greater than 16 that is the maximum value of the vertical block of the partial image 202 (S624). ). If vertical variable j is less than the maximum value (NO in S624), the processing from step S602 is repeated. If the vertical variable j is equal to or greater than the maximum value (YES in S624), the grouping process S312 ends. In this way, blocks with similar flow vectors can be identified as the moving object 2.

以上、説明したような、車外環境認識装置120や車外環境認識方法によれば、自車両1が旋回した場合であっても、静止物3を移動物2として誤検出することを回避し、移動物2の検出精度の向上を図ることが可能となる。   As described above, according to the outside environment recognition device 120 and the outside environment recognition method described above, even when the host vehicle 1 turns, it is possible to avoid erroneous detection of the stationary object 3 as the moving object 2 and to move. The detection accuracy of the object 2 can be improved.

また、従来、移動物2を適切に判断するため静止物3までの距離も得るべく、ステレオカメラやレーザレーダを用いなければならなかったが、本実施形態の車外環境認識装置120では、そのような高価な装置を用いることなく移動物2を検出できるので、コストの削減や処理負荷の軽減を図ることができる。   Conventionally, in order to appropriately determine the moving object 2, a stereo camera or a laser radar has to be used in order to obtain a distance to the stationary object 3. Since the moving object 2 can be detected without using an expensive device, cost reduction and processing load can be reduced.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120 and a computer-readable storage medium that stores the program, such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態において、画像切出部160、フローベクトル導出部162、移動状態取得部164、補正フローベクトル生成部166、フローベクトル減算部168、グループ化部170、移動物判定部172、衝突判定部174、報知部176、画像保持部178は、中央制御部154によってソフトウェアで動作するように構成している。しかし、上記の機能部をハードウェアによって構成することも可能である。   For example, in the above-described embodiment, the image cutout unit 160, the flow vector derivation unit 162, the movement state acquisition unit 164, the corrected flow vector generation unit 166, the flow vector subtraction unit 168, the grouping unit 170, the moving object determination unit 172, The collision determination unit 174, the notification unit 176, and the image holding unit 178 are configured to operate by software by the central control unit 154. However, the functional unit described above can be configured by hardware.

また、上述した実施形態においては、部分画像202の水平方向および垂直方向のいずれの方向のフローベクトルも対象としているが、自車両1に設置した撮像装置110を通じて接近する移動物2を検出する場合、水平方向のフローベクトルのみに限定して処理を行うことで、処理負荷を軽減することができる。   In the above-described embodiment, the flow vector in either the horizontal direction or the vertical direction of the partial image 202 is targeted, but the moving object 2 approaching through the imaging device 110 installed in the host vehicle 1 is detected. The processing load can be reduced by performing the processing only on the flow vector in the horizontal direction.

なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step of the vehicle environment recognition method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or a subroutine.

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a vehicle environment recognition apparatus and a vehicle environment recognition method that recognize an environment outside the host vehicle.

1 …自車両
2 …移動物
3 …静止物
3a …遠距離の静止物
3b …近距離の静止物
110 …撮像装置
120 …車外環境認識装置
150 …I/F部(画像データ取得部)
160 …画像切出部
162 …フローベクトル導出部
164 …移動状態取得部
166 …補正フローベクトル生成部
168 …フローベクトル減算部
170 …グループ化部
202 …部分画像
204 …判定基準線
DESCRIPTION OF SYMBOLS 1 ... Own vehicle 2 ... Moving object 3 ... Stationary object 3a ... Long-distance stationary object 3b ... Short-distance stationary object 110 ... Imaging device 120 ... Outside-vehicle environment recognition apparatus 150 ... I / F part (image data acquisition part)
160 ... Image cutout part 162 ... Flow vector derivation part 164 ... Movement state acquisition part 166 ... Correction flow vector generation part 168 ... Flow vector subtraction part 170 ... Grouping part 202 ... Partial image 204 ... Determination reference line

Claims (5)

広角レンズを通じて車外環境を撮像した画像データを取得する画像データ取得部と、
前記画像データに基づく画像から予め定められた位置および大きさの部分画像を切り出す画像切出部と、
前記部分画像の任意の部位におけるフローベクトルを導出するフローベクトル導出部と、
前記広角レンズの移動状態を取得する移動状態取得部と、
前記広角レンズから相異なる2つの距離にある2つの静止物を仮定し、前記移動状態に基づいて該2つの静止物のフローベクトルを推定し、1の補正フローベクトルを生成する補正フローベクトル生成部と、
導出されたフローベクトルから前記補正フローベクトルを減算するフローベクトル減算部と、
前記画像データの水平方向中央における判定基準線に基づき、減算された前記フローベクトルのうち移動物を示すフローベクトルをグループ化するグループ化部と、
を備えることを特徴とする車外環境認識装置。
An image data acquisition unit for acquiring image data obtained by imaging the environment outside the vehicle through a wide angle lens;
An image cutout unit that cuts out a partial image having a predetermined position and size from an image based on the image data;
A flow vector deriving unit for deriving a flow vector at an arbitrary part of the partial image;
A movement state acquisition unit for acquiring a movement state of the wide-angle lens;
Assuming two stationary objects at two different distances from the wide-angle lens, estimating a flow vector of the two stationary objects based on the moving state and generating one corrected flow vector, a corrected flow vector generating unit When,
A flow vector subtraction unit that subtracts the corrected flow vector from the derived flow vector;
A grouping unit for grouping flow vectors indicating moving objects among the subtracted flow vectors based on a determination reference line at a horizontal center of the image data;
A vehicle exterior environment recognition device comprising:
前記補正フローベクトル生成部は、前記推定した2つのフローベクトルのうち、相対的に、前記判定基準線に向かうスカラー量が大きい、または、前記判定基準線と反対方向に向かうスカラー量が小さいフローベクトルを補正フローベクトルとすることを特徴とする請求項1に記載の車外環境認識装置。   The correction flow vector generation unit is a flow vector having a relatively large scalar amount toward the determination reference line or a small scalar amount toward the opposite direction to the determination reference line, out of the two estimated flow vectors. The outside environment recognition apparatus according to claim 1, wherein the correction flow vector is a correction flow vector. 前記補正フローベクトル生成部は、前記推定した2つのフローベクトルのうち、前記判定基準線の左側領域では、右向き最長または左向き最短のフローベクトルを補正フローベクトルとし、前記判定基準線の右側領域では、左向き最長または右向き最短のフローベクトルを補正フローベクトルとすることを特徴とする請求項2に記載の車外環境認識装置。   The correction flow vector generation unit uses the longest rightward flow direction or the shortest leftward flow vector as a correction flow vector in the left region of the determination reference line out of the two estimated flow vectors, and in the right region of the determination reference line, The vehicle exterior environment recognition apparatus according to claim 2, wherein the leftmost longest flow vector or the rightmost shortest flow vector is used as a correction flow vector. 前記移動状態取得部は、前記広角レンズの移動速度および角速度を取得し、
前記補正フローベクトル生成部は、前記移動速度および角速度に基づいてフローベクトルを推定することを特徴とする請求項1から3のいずれか1項に記載の車外環境認識装置。
The moving state acquisition unit acquires a moving speed and an angular speed of the wide-angle lens,
The outside environment recognition device according to claim 1, wherein the corrected flow vector generation unit estimates a flow vector based on the moving speed and the angular speed.
広角レンズを通じて車外環境を撮像した画像データを取得し、
前記画像データに基づく画像から予め定められた位置および大きさの部分画像を切り出し、
前記部分画像の任意の部位におけるフローベクトルを導出し、
前記広角レンズの移動状態を取得し、
前記広角レンズから相異なる2つの距離にある2つの静止物を仮定し、前記移動状態に基づいて該2つの静止物のフローベクトルを推定し、1の補正フローベクトルを生成し、
導出されたフローベクトルから前記補正フローベクトルを減算し、
前記画像データの水平方向中央における判定基準線に基づき、減算された前記フローベクトルのうち移動物を示すフローベクトルをグループ化することを特徴とする車外環境認識方法。
Obtain image data of the environment outside the vehicle through a wide-angle lens,
Cut out a partial image of a predetermined position and size from the image based on the image data,
Deriving a flow vector at an arbitrary part of the partial image,
Obtaining the movement state of the wide-angle lens;
Assuming two stationary objects at two different distances from the wide-angle lens, estimating flow vectors of the two stationary objects based on the moving state, and generating one corrected flow vector,
Subtracting the corrected flow vector from the derived flow vector;
A method of recognizing an environment outside a vehicle, wherein flow vectors indicating moving objects are grouped out of the subtracted flow vectors based on a determination reference line at a horizontal center of the image data.
JP2012185695A 2012-08-24 2012-08-24 Outside environment recognition device and outside environment recognition method Active JP5973843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012185695A JP5973843B2 (en) 2012-08-24 2012-08-24 Outside environment recognition device and outside environment recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012185695A JP5973843B2 (en) 2012-08-24 2012-08-24 Outside environment recognition device and outside environment recognition method

Publications (2)

Publication Number Publication Date
JP2014044521A true JP2014044521A (en) 2014-03-13
JP5973843B2 JP5973843B2 (en) 2016-08-23

Family

ID=50395751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012185695A Active JP5973843B2 (en) 2012-08-24 2012-08-24 Outside environment recognition device and outside environment recognition method

Country Status (1)

Country Link
JP (1) JP5973843B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016207934A1 (en) * 2015-06-22 2016-12-29 株式会社日立製作所 Characteristic selecting device, moving state measuring device, moving state measuring system, work machine, and vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107067817A (en) * 2017-04-17 2017-08-18 北京理工大学 It is a kind of to prevent the method and system of conflict in intersection for tramcar

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282655A (en) * 1993-03-30 1994-10-07 Toyota Motor Corp Device for recognizing moving object
JP2005276057A (en) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp Nose view monitoring device
US20090252377A1 (en) * 2006-10-06 2009-10-08 Aisin Seiki Kabushiki Kaisha Mobile object recognizing device, mobile object recognizing method, and computer program thereof
JP2010250541A (en) * 2009-04-15 2010-11-04 Toyota Motor Corp Object detection device
JP2012010002A (en) * 2010-06-23 2012-01-12 Fujitsu General Ltd Driving support apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282655A (en) * 1993-03-30 1994-10-07 Toyota Motor Corp Device for recognizing moving object
JP2005276057A (en) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp Nose view monitoring device
US20090252377A1 (en) * 2006-10-06 2009-10-08 Aisin Seiki Kabushiki Kaisha Mobile object recognizing device, mobile object recognizing method, and computer program thereof
JP2010250541A (en) * 2009-04-15 2010-11-04 Toyota Motor Corp Object detection device
JP2012010002A (en) * 2010-06-23 2012-01-12 Fujitsu General Ltd Driving support apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016207934A1 (en) * 2015-06-22 2016-12-29 株式会社日立製作所 Characteristic selecting device, moving state measuring device, moving state measuring system, work machine, and vehicle

Also Published As

Publication number Publication date
JP5973843B2 (en) 2016-08-23

Similar Documents

Publication Publication Date Title
JP6473571B2 (en) TTC measuring device and TTC measuring program
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6720510B2 (en) Mobile system
JP2013178664A (en) Extra-vehicle environment recognition device
JP5561064B2 (en) Vehicle object recognition device
JPWO2013186903A1 (en) Lane marking indicator, driving support system
JP6066048B2 (en) Obstacle detection device and vehicle using the same
WO2017169365A1 (en) Road surface displacement detection device and suspension control method
JP6032034B2 (en) Object detection device
US9813694B2 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method
JP2016152027A (en) Image processing device, image processing method and program
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP5973843B2 (en) Outside environment recognition device and outside environment recognition method
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP2014130429A (en) Photographing device and three-dimensional object area detection program
JP7303064B2 (en) Image processing device and image processing method
JP2013206328A (en) Object detection device
JP5866238B2 (en) Outside environment recognition device and outside environment recognition method
JP2013161187A (en) Object recognition device
KR101473426B1 (en) Method for recognizing travelling route of vehicle and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160715

R150 Certificate of patent or registration of utility model

Ref document number: 5973843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250