JP6174884B2 - Outside environment recognition device and outside environment recognition method - Google Patents

Outside environment recognition device and outside environment recognition method Download PDF

Info

Publication number
JP6174884B2
JP6174884B2 JP2013070334A JP2013070334A JP6174884B2 JP 6174884 B2 JP6174884 B2 JP 6174884B2 JP 2013070334 A JP2013070334 A JP 2013070334A JP 2013070334 A JP2013070334 A JP 2013070334A JP 6174884 B2 JP6174884 B2 JP 6174884B2
Authority
JP
Japan
Prior art keywords
flow vector
unit
moving object
flow
block group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013070334A
Other languages
Japanese (ja)
Other versions
JP2014194618A (en
Inventor
伊藤 周
周 伊藤
原也 小川
原也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2013070334A priority Critical patent/JP6174884B2/en
Publication of JP2014194618A publication Critical patent/JP2014194618A/en
Application granted granted Critical
Publication of JP6174884B2 publication Critical patent/JP6174884B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法にかかり、特に、自車両外の移動物を認識し自車両との衝突判定を行う車外環境認識装置および車外環境認識方法に関する。   The present invention relates to an outside environment recognition device and an outside environment recognition method for recognizing an environment outside the host vehicle, and more particularly, an outside environment recognition device and an outside environment that recognize a moving object outside the host vehicle and determine a collision with the host vehicle. It relates to the recognition method.

従来、自車両の前方に広角(広画角)カメラを搭載し、かかる広角カメラで撮像した自車両前方の環境画像を、車室内のディスプレイに表示して運転者の目視確認を補助する技術が知られている。このような技術では、例えば、自車両内の制御情報を通じて自車両が一時的に停止したことを検出し、モニタ装置の表示を広角カメラで撮像した環境画像に自動的に切り換える等の制御が行われている。   2. Description of the Related Art Conventionally, there is a technology for mounting a wide-angle (wide angle of view) camera in front of the host vehicle, and displaying an environmental image in front of the host vehicle captured by the wide-angle camera on a display in the passenger compartment to assist the driver's visual confirmation. Are known. In such a technique, for example, it is detected that the own vehicle is temporarily stopped through the control information in the own vehicle, and control such as automatically switching the display on the monitor device to an environmental image captured by a wide-angle camera is performed. It has been broken.

このような広角カメラを通じた環境画像から、自車両の前方に位置する車両や障害物といった物を検出するために、オプティカルフロー等の画像処理技術が検討されている。かかるオプティカルフローは、画像上の2次元速度ベクトル場、すなわち画像上の移動物の移動に伴う速度場で表される。このような技術では、例えば、所定周期で撮像された時間方向に連続する2枚の画像間において、同一の部位として認識可能な点を特徴点として設定し、この特徴点の移動をベクトル(以下、「フローベクトル」という。)として算出する。そして撮像した画像内の全領域において、このフローベクトルを算出することで、例えば、自車両が停止した状態におけるフローベクトルの有無のみによって、画像内の移動物の位置および移動物の移動速度や移動方向等の情報を検出することができる。   In order to detect an object such as a vehicle or an obstacle located in front of the host vehicle from an environmental image through such a wide-angle camera, an image processing technique such as an optical flow is being studied. Such an optical flow is represented by a two-dimensional velocity vector field on the image, that is, a velocity field accompanying movement of a moving object on the image. In such a technique, for example, a point that can be recognized as the same part is set as a feature point between two images consecutive in the time direction imaged in a predetermined cycle, and the movement of the feature point is a vector (hereinafter referred to as a feature point) , Referred to as “flow vector”). Then, by calculating this flow vector in the entire area in the captured image, for example, the position of the moving object in the image and the moving speed and movement of the moving object only by the presence or absence of the flow vector when the host vehicle is stopped. Information such as direction can be detected.

オプティカルフローでは上記のように自車両が停止している状態において移動物の接近を好適に検出することができるが、走行中において移動物を検出する技術も検討されている。例えば、走行中において、予め求められた移動物に対し、その正確なフローベクトルを得るために背景のフローベクトルによる補正が行われている(例えば、特許文献1)。また、このような背景のフローベクトルの基となる空間モデルが距離データを用いて生成される技術が公開されている(例えば、特許文献2)。   In the optical flow, the approach of a moving object can be suitably detected when the host vehicle is stopped as described above, but a technique for detecting a moving object while traveling is also being studied. For example, during traveling, a moving object obtained in advance is corrected with a background flow vector in order to obtain an accurate flow vector (for example, Patent Document 1). In addition, a technique has been disclosed in which a spatial model that is the basis of such a background flow vector is generated using distance data (for example, Patent Document 2).

特許第3239521号公報Japanese Patent No. 3239521 特許第3776094号公報Japanese Patent No. 3776094

上述した特許文献1や特許文献2の技術では、オプティカルフローから自車両の影響を取り除くべく、自車両の移動により生じる画面全体の見かけのフローベクトルを導出し、それをオプティカルフロー全体から減算している。しかし、見かけのフローベクトルを導出するためには、自車両の進行方向や速度のみならず、自車両から背景に存在する静止物や移動物までの距離も必要となる。このような静止物や移動物までの距離は、ステレオカメラやレーザレーダ等の視覚センサを用いてその都度計測しなければならず、設置コストや処理負荷の増大を招いてしまう。また、たとえ静止物や移動物までの距離を用いることなく背景のフローベクトルを導出できたとしても、画面全体に対して補正するとなると、やはり処理負荷が増大することとなる。したがって、特許文献1や特許文献2の技術は、安価かつリアルタイム処理を要する車載用の用途には適さないといった実情がある。   In the techniques of Patent Document 1 and Patent Document 2 described above, the apparent flow vector of the entire screen generated by the movement of the host vehicle is derived from the optical flow and subtracted from the entire optical flow. Yes. However, in order to derive the apparent flow vector, not only the traveling direction and speed of the host vehicle but also the distance from the host vehicle to a stationary object or moving object existing in the background is required. Such a distance to a stationary object or moving object must be measured each time using a visual sensor such as a stereo camera or a laser radar, resulting in an increase in installation cost and processing load. Even if the background flow vector can be derived without using the distance to the stationary object or the moving object, if the correction is made for the entire screen, the processing load also increases. Therefore, the techniques of Patent Document 1 and Patent Document 2 are not suitable for in-vehicle use that requires low-cost and real-time processing.

本発明は、このような課題に鑑み、自車両と静止物との距離を演算する特別な装置を設けることなく、自車両が旋回した場合であっても、高精度かつ低処理負荷で移動物を検出することが可能な、車外環境認識装置および車外環境認識方法を提供することを目的としている。   In view of such a problem, the present invention provides a moving object with high accuracy and low processing load even when the host vehicle turns without providing a special device for calculating the distance between the host vehicle and a stationary object. It is an object to provide a vehicle environment recognition apparatus and a vehicle environment recognition method capable of detecting

上記課題を解決するために、本発明の車外環境認識装置は、撮像装置を通じて車外環境を撮像した画像データを取得する画像データ取得部と、画像データに基づく画像を分割したブロック毎のフローベクトルを導出するフローベクトル導出部と、フローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化してブロック群を生成し、その代表値となる代表フローベクトルを求めるグループ化部と、撮像装置の旋回時の挙動を取得する移動状態取得部と、移動状態取得部が取得した旋回時の挙動に応じて、地面のフローベクトルを抽出する補正フローベクトル抽出部と、代表フローベクトルから、地面のフローベクトルのうちブロック群における、フローベクトルの変化度合いが変わる境界に位置する代表部位に対応する部位のフローベクトルを減算するフローベクトル減算部と、ブロック群のうち、減算後のフローベクトルのスカラ量に応じて、スカラ量が0もしくは0近傍の所定範囲内であれば、ブロック群を静止物とし、スカラ量が0もしくは0近傍の所定範囲内でなければ、ブロック群を移動物とする静止物判定部と、
を備えることを特徴とする。
In order to solve the above-described problem, an external environment recognition apparatus according to the present invention includes an image data acquisition unit that acquires image data obtained by imaging an external environment through an imaging device, and a flow vector for each block obtained by dividing an image based on the image data. A flow vector deriving unit for deriving, a grouping unit for approximating the direction and size of the flow vector and generating a block group by grouping adjacent blocks and obtaining a representative flow vector as a representative value thereof A moving state acquisition unit that acquires the behavior of the imaging device during turning, a correction flow vector extraction unit that extracts a ground flow vector according to the turning behavior acquired by the movement state acquisition unit, and a representative flow vector , the block group of the flow vector of the ground, at the boundary change is the degree of change in flow vector representative sites And corresponding flow vector subtraction unit that subtracts the flow vector of the site of the block group, in accordance with the scalar quantity of the flow vector after subtraction, as long as it is within a predetermined range of scalar quantity is zero or near zero, the block group and stationary, if not within a predetermined range of the amount scalar 0 or near 0, a stationary object determination unit shall be the moving object to block group,
It is characterized by providing.

車外環境認識装置は、相異なる複数の旋回時の挙動にそれぞれ対応させた複数の地面のフローベクトルを保持するデータ保持部をさらに備え補正フローベクトル抽出部は、データ保持部に保持された複数の地面のフローベクトルから、移動状態取得部が取得した旋回時の挙動に応じて、地面のフローベクトルを抽出てもよい。 The vehicle exterior environment recognition apparatus further includes a data holding unit that holds a plurality of ground flow vectors respectively corresponding to a plurality of different turning behaviors, and the correction flow vector extraction unit includes a plurality of correction flow vector extraction units that are held in the data holding unit. from the flow vector of the ground, depending on the behavior during turning movement state acquisition unit has acquired, it may be extracted flow vector of the earth surface.

車外環境認識装置は、静止物判定部に移動物とされたブロック群の減算後のフローベクトルを移動物のフローベクトルとして、移動物と自車両との衝突判定を行う衝突判定部をさらに備えてもよい。   The vehicle exterior environment recognition apparatus further includes a collision determination unit that performs a collision determination between the moving object and the host vehicle using the flow vector after subtraction of the block group that is set as the moving object in the stationary object determination unit as the flow vector of the moving object. Also good.

上記課題を解決するために、本発明の車外環境認識方法は、撮像装置を通じて車外環境を撮像した画像データを取得し、画像データに基づく画像を分割したブロック毎のフローベクトルを導出し、フローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化してブロック群を生成し、その代表値となる代表フローベクトルを求め、撮像装置の旋回時の挙動を取得し、旋回時の挙動に応じて、地面のフローベクトルを抽出し、代表フローベクトルから、地面のフローベクトルのうちブロック群における、フローベクトルの変化度合いが変わる境界に位置する代表部位に対応する部位のフローベクトルを減算し、ブロック群のうち、減算後のフローベクトルのスカラ量に応じて、スカラ量が0もしくは0近傍の所定範囲内であれば、ブロック群を静止物とし、スカラ量が0もしくは0近傍の所定範囲内でなければ、ブロック群を移動物とすることを特徴とする。 In order to solve the above-described problem, an external environment recognition method according to the present invention acquires image data obtained by imaging an external environment through an imaging device, derives a flow vector for each block obtained by dividing an image based on the image data, and the flow vector The direction and its size are approximated, and adjacent blocks are grouped together to generate a block group, a representative flow vector that is the representative value is obtained, and the behavior of the imaging device during turning is obtained. The flow vector of the part corresponding to the representative part located at the boundary where the change degree of the flow vector in the block group of the ground flow vector changes from the representative flow vector is extracted from the representative flow vector. subtraction, of the block group, in accordance with the scalar quantity of the flow vector after subtraction, scalar quantity is zero or near zero at Within the range, the blocks and stationary, if not within a predetermined range of scalar quantity is zero or near zero, and wherein the moving object and to Rukoto the blocks.

本発明によれば、自車両と静止物との距離を演算する特別な装置を設けないことで、コストや処理負荷の増大を回避しつつ、自車両が旋回した場合であっても、高精度かつ低処理負荷で移動物を検出することが可能となる。   According to the present invention, by not providing a special device for calculating the distance between the host vehicle and a stationary object, high accuracy can be achieved even when the host vehicle turns while avoiding an increase in cost and processing load. In addition, the moving object can be detected with a low processing load.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 撮像装置で生成される画像を説明するための説明図である。It is explanatory drawing for demonstrating the image produced | generated with an imaging device. 部分画像を説明するための説明図である。It is explanatory drawing for demonstrating a partial image. フローベクトルによる移動物の判定処理を説明するための説明図である。It is explanatory drawing for demonstrating the determination process of the moving object by a flow vector. フローベクトルによる移動物の判定処理を説明するための説明図である。It is explanatory drawing for demonstrating the determination process of the moving object by a flow vector. 自車両の移動速度の影響を説明するための説明図である。It is explanatory drawing for demonstrating the influence of the moving speed of the own vehicle. 地面のフローベクトルを示した説明図である。It is explanatory drawing which showed the flow vector of the ground. 自車両が直進する場合の移動速度の影響を説明するための説明図である。It is explanatory drawing for demonstrating the influence of the moving speed when the own vehicle goes straight. 画面縦方向のフローベクトルの変化を説明するための説明図である。It is explanatory drawing for demonstrating the change of the flow vector of a screen vertical direction. 部分画像のフローベクトルを示した説明図である。It is explanatory drawing which showed the flow vector of the partial image. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. フローベクトル導出部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a flow vector derivation | leading-out part. ブロック群を説明するための説明図である。It is explanatory drawing for demonstrating a block group. 車外環境認識方法の全体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the whole process of the environment recognition method outside a vehicle.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、広角(広画角)レンズ、および、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方において、光軸を水平より少し下方に向けて設置される。撮像装置110は、自車両1の前方に相当する環境を撮像し、3つの色相(R(赤)、G(緑)、B(青))からなるカラー画像やモノクロ画像を生成することができる。ここで、広角レンズは、標準レンズに比べ画角(視野角)が比較的広い(例えば、120度以上)、または、焦点距離が比較的短いレンズをいい、例えば、広角レンズとして魚眼レンズを用い、撮像装置110を中心とする半球状に広がる空間を撮像することができる。   The imaging device 110 includes an imaging element such as a wide angle (wide field angle) lens and a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and an optical axis in front of the host vehicle 1. Is installed with the side facing down slightly from the horizontal. The imaging device 110 can capture an environment corresponding to the front of the host vehicle 1 and generate a color image or a monochrome image composed of three hues (R (red), G (green), and B (blue)). . Here, the wide-angle lens refers to a lens having a relatively wide angle of view (viewing angle) compared to a standard lens (for example, 120 degrees or more) or a relatively short focal length. For example, a fish-eye lens is used as a wide-angle lens, A hemispherical space centered on the imaging device 110 can be imaged.

なお、本実施形態の撮像装置110の射影方式は、立体射影を用いているが、例えば、透視射影等、既存の様々な射影方法を採用することができる。ここでは、広角レンズとして魚眼レンズを用いる例を挙げて説明するが、円錐状(アキシコン)プリズム等、様々な広角レンズを用いることもできる。また、レンズの画角を120度以上としたのは、十字路またはT字路において、自車両1が停止線に停止した場合に、直交する道路の状況まで適切に把握させるためである。   Note that the projection method of the imaging apparatus 110 according to the present embodiment uses a three-dimensional projection, but various existing projection methods such as a perspective projection can be employed. Here, an example in which a fish-eye lens is used as the wide-angle lens will be described, but various wide-angle lenses such as a conical (axicon) prism can also be used. The reason why the angle of view of the lens is set to 120 degrees or more is to allow the vehicle 1 to properly grasp the situation of the orthogonal road when the host vehicle 1 stops at the stop line on the cross road or the T-shaped road.

図2は、撮像装置110で生成される画像を説明するための説明図である。図2を参照して理解できるように、撮像装置110で生成された画像(以下、「環境画像」という。)200は、円周魚眼レンズを通じて、画像の中心からの距離に対して角度が単調増加するように描かれている(立体射影方式)。したがって、自車両1の進行方向の画像の分解能を維持しつつ、広範囲の環境画像200を一度に取得することができる。   FIG. 2 is an explanatory diagram for explaining an image generated by the imaging apparatus 110. As can be understood with reference to FIG. 2, an image 200 (hereinafter referred to as “environment image”) 200 generated by the imaging device 110 has a monotonically increasing angle with respect to the distance from the center of the image through a circumferential fisheye lens. (3D projection method). Therefore, it is possible to acquire a wide range of environmental images 200 at a time while maintaining the resolution of the image in the traveling direction of the host vehicle 1.

また、撮像装置110は、環境画像200をデータ化した画像データを、例えば1/10秒毎(10fps)に連続して生成する。以下の実施形態における各機能部は、このような画像データの更新を契機として各処理を遂行する。したがって、各機能部は、フレーム単位で処理を繰り返すこととなる。   In addition, the imaging device 110 continuously generates image data obtained by converting the environment image 200 into data, for example, every 1/10 second (10 fps). Each functional unit in the following embodiment performs each process triggered by such update of image data. Therefore, each functional unit repeats the process in units of frames.

車外環境認識装置120は、撮像装置110から、環境画像200を示す画像データを取得し、所謂、パターンマッチングを用いて、オプティカルフローに基づくフローベクトルを導出する。ただし、車外環境認識装置120では、環境画像200中の必要な部分のみ切り出した部分画像を利用してフローベクトルを導出する。   The outside environment recognition device 120 acquires image data indicating the environment image 200 from the imaging device 110, and derives a flow vector based on the optical flow using so-called pattern matching. However, the vehicle environment recognition apparatus 120 derives a flow vector using a partial image obtained by cutting out only a necessary portion in the environmental image 200.

図3は、部分画像202を説明するための説明図である。上述したように、図2に示した環境画像200では、広画角の画像を一度に取得できるので、自車両1の前方のみならず、左右いずれもの方向(水平方向)から接近する移動物も特定することが可能となる。しかし、環境画像200では、画像の中心からの距離と角度がおよそ比例するので、中心からの距離が離れるほど、画像が歪むこととなる。例えば、図2の環境画像200における4つの角に近い領域では、実際には水平に延びている物が、環境画像200では湾曲して表示され、その端部は垂直方向の成分を含んでいるように視認され得る。ここで、「水平」は、撮像した環境画像200の画面横方向を示し、「垂直」は、撮像した環境画像200の画面縦方向を示す。   FIG. 3 is an explanatory diagram for explaining the partial image 202. As described above, in the environment image 200 shown in FIG. 2, since a wide-angle image can be acquired at a time, not only the front of the host vehicle 1 but also a moving object approaching from either the left or right direction (horizontal direction) It becomes possible to specify. However, in the environment image 200, since the distance from the center of the image and the angle are approximately proportional, the image is distorted as the distance from the center increases. For example, in the area close to the four corners in the environment image 200 of FIG. 2, an object that actually extends horizontally is displayed curved in the environment image 200, and its end includes a vertical component. Can be visually recognized. Here, “horizontal” indicates the screen horizontal direction of the captured environment image 200, and “vertical” indicates the screen vertical direction of the captured environment image 200.

そこで、車外環境認識装置120は、図2に示した環境画像200のうち、交通環境において特定すべき移動物が存在する、図2中破線で示した領域、すなわち、歪みの少ない環境画像200の中央領域と、その水平方向左右の領域とを合わせた、図3に示す部分画像202を切り出す。そして、その部分画像202に対してオプティカルフローに基づくフローベクトルを導出する。   Therefore, the outside environment recognition apparatus 120 includes a region indicated by a broken line in FIG. 2 where there is a moving object to be specified in the traffic environment in the environment image 200 shown in FIG. A partial image 202 shown in FIG. 3 is cut out by combining the central region and the left and right regions in the horizontal direction. Then, a flow vector based on the optical flow is derived for the partial image 202.

続いて、車外環境認識装置120は、図1に示す、自車両1の移動速度を検出する速度センサ124、および、自車両1が旋回した際の鉛直軸を中心とした角速度を検出する角速度センサ126を通じて自車両1の挙動(撮像装置110の挙動)を測定する。そして、車外環境認識装置120は、部分画像202に内在する、自車両1の挙動の影響を受けた地面のフローベクトルを取得する。次に、車外環境認識装置120は、上記部分画像202に対する一部のフローベクトルから地面のフローベクトルを減算して、自車両1の挙動による影響が取り除かれたフローベクトルを導出する。そして、車外環境認識装置120は、自車両1の挙動による影響が取り除かれたフローベクトルに基づいて静止物や移動物を特定し、移動物に関しては、その大きさや移動速度および移動方向によって移動物の種別を判定する。ここで、静止物は、建物、道路、ガードレール、背景空間といった物を示し、移動物は、車両、自転車、歩行者といった独立して移動する物を示す。   Subsequently, the vehicle environment recognition apparatus 120 includes a speed sensor 124 that detects the moving speed of the host vehicle 1 and an angular speed sensor that detects an angular speed centered on the vertical axis when the host vehicle 1 turns as shown in FIG. 126, the behavior of the host vehicle 1 (the behavior of the imaging device 110) is measured. Then, the vehicle exterior environment recognition device 120 acquires a flow vector of the ground that is inherent in the partial image 202 and is affected by the behavior of the host vehicle 1. Next, the vehicle environment recognition apparatus 120 subtracts the ground flow vector from the partial flow vector for the partial image 202 to derive a flow vector from which the influence of the behavior of the host vehicle 1 is removed. Then, the outside environment recognition device 120 identifies a stationary object or a moving object based on the flow vector from which the influence of the behavior of the host vehicle 1 is removed, and the moving object is determined by its size, moving speed, and moving direction. The type of is determined. Here, the stationary object indicates an object such as a building, a road, a guardrail, or a background space, and the moving object indicates an object that moves independently such as a vehicle, a bicycle, or a pedestrian.

また、車外環境認識装置120は、例えば、水平方向の側方から自車両1に向かって高速に接近している移動物と自車両1とが衝突する可能性が高いか否かの判定を行うことができる。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、ディスプレイ122を通じて運転者に報知するとともに、車両制御装置130に対して、その旨を示す情報を出力する。かかる車外環境認識装置120の処理に関しては、後ほど詳述する。   Moreover, the vehicle exterior environment recognition apparatus 120 determines whether there is a high possibility that the moving object approaching the vehicle 1 from the side in the horizontal direction at high speed and the vehicle 1 will collide, for example. be able to. Here, when it is determined that the possibility of a collision is high, the vehicle exterior environment recognition device 120 notifies the driver of the fact through the display 122 and outputs information indicating the fact to the vehicle control device 130. . The processing of the outside environment recognition device 120 will be described in detail later.

車両制御装置130は、車外環境認識装置120で特定された移動物との衝突を回避する。具体的に、車両制御装置130は、操舵の角度を検出する舵角センサ132や、上述した速度センサ124等を通じて現在の自車両1の走行状態を取得し、アクチュエータ134を制御して先行車両との車間距離を安全な距離に保つ。ここで、アクチュエータ134は、ブレーキ、スロットルバルブ、舵角等を制御するために用いられる車両制御用のアクチュエータである。また、車両制御装置130は、移動物との衝突が想定される場合、アクチュエータ134を制御して自車両1を自動的に制動する。かかる車両制御装置130は、車外環境認識装置120と一体的に形成することもできる。   The vehicle control device 130 avoids a collision with a moving object specified by the outside environment recognition device 120. Specifically, the vehicle control device 130 acquires the current traveling state of the host vehicle 1 through the steering angle sensor 132 that detects the steering angle, the speed sensor 124 described above, and the like, and controls the actuator 134 to determine the preceding vehicle. Keep the distance between cars safe. Here, the actuator 134 is a vehicle control actuator used for controlling a brake, a throttle valve, a steering angle, and the like. Further, when a collision with a moving object is assumed, the vehicle control device 130 controls the actuator 134 to automatically brake the host vehicle 1. Such a vehicle control device 130 can also be formed integrally with the outside environment recognition device 120.

(フローベクトルによる移動物の判定処理)
図4および図5は、本実施形態のオプティカルフローのフローベクトルによる移動物の判定処理を説明するための説明図である。ここでは、従来の問題点と比較しつつ本実施形態の特徴を説明する。
(Moving object judgment process by flow vector)
4 and 5 are explanatory diagrams for explaining the moving object determination processing based on the optical flow flow vector according to the present embodiment. Here, the features of the present embodiment will be described in comparison with conventional problems.

仮に、図4(a)に示すように自車両1が旋回を伴うことなく直進しているときに、前方を移動物2が横切る場合を想定する。図3に示した部分画像202に対してフローベクトルを導出すると、フローベクトルは、図4(b)のように複数の矢印で示される。かかる矢印の長さがフローベクトルの大きさ、矢印の向きがフローベクトルの向きを示す。また、フローベクトルは、本来、導出単位である、例えば、所定数の画素で構成されたブロックと同数あるが、ここでは、理解を容易にするためフローベクトルの数を制限して表している。   Assuming that the moving object 2 crosses the front when the host vehicle 1 is traveling straight without turning as shown in FIG. When a flow vector is derived for the partial image 202 shown in FIG. 3, the flow vector is indicated by a plurality of arrows as shown in FIG. The length of the arrow indicates the size of the flow vector, and the direction of the arrow indicates the direction of the flow vector. In addition, the number of flow vectors is essentially the same as the number of blocks composed of a predetermined number of pixels, which is a derived unit. However, here, the number of flow vectors is limited to facilitate understanding.

フローベクトルは、画像中の特徴点の移動によって生成されるので、図4(b)を参照して理解できるように、自車両1の移動に伴い、移動物2のみならず、静止物3にもフローベクトルが生じる。また、本実施形態では、広角レンズが用いられているので、部分画像202の中心と比較して側方にずれるに連れて、静止物3のフローベクトルの大きさが大きくなっているのが分かる。   Since the flow vector is generated by the movement of the feature point in the image, as can be understood with reference to FIG. 4B, not only the moving object 2 but also the stationary object 3 is accompanied by the movement of the host vehicle 1. Also produces a flow vector. In this embodiment, since a wide-angle lens is used, it can be seen that the flow vector of the stationary object 3 increases in size as it shifts to the side as compared with the center of the partial image 202. .

また、撮像装置110を自車両1の前方先端かつ車幅方向の中央に位置させ、撮像方向を進行方向と等しくなるように設置した場合、図4(b)に示すように、静止物3のフローベクトルの水平方向の向きは、部分画像202の水平方向の中央に垂直に延長した中央基準線204を境に左右で反転する。   In addition, when the imaging device 110 is positioned at the front end of the host vehicle 1 and in the center in the vehicle width direction and installed so that the imaging direction is equal to the traveling direction, as shown in FIG. The horizontal direction of the flow vector is reversed left and right with a central reference line 204 extending perpendicularly to the horizontal center of the partial image 202.

このとき、図4(b)に示した部分画像202を、中央基準線204を基準に、左側領域と右側領域とに分けると、静止物3のフローベクトルが中央基準線204から遠ざかる方向に生じるのに対し、自車両1に接近する移動物2のフローベクトルは中央基準線204に近づく方向に生じているのが分かる。   At this time, if the partial image 202 shown in FIG. 4B is divided into a left region and a right region based on the central reference line 204, the flow vector of the stationary object 3 is generated in a direction away from the central reference line 204. On the other hand, it can be seen that the flow vector of the moving object 2 approaching the host vehicle 1 is generated in a direction approaching the central reference line 204.

したがって、中央基準線204に従って水平方向に領域を二分し、左側領域において右方向を向いているフローベクトル、または、図4(b)の如く、右側領域において左方向を向いているフローベクトルを検出し、それらを移動物2として特定することができる。   Therefore, a flow vector that divides the region horizontally in accordance with the center reference line 204 and that faces the right direction in the left region or a flow vector that faces the left direction in the right region as shown in FIG. 4B is detected. Then, they can be specified as the moving object 2.

一方、図5(a)に示すように、自車両1が旋回を伴いながら進行する場合、フローベクトルは、図5(b)のように表される。ここでは、一点鎖線で示した領域206内の静止物3が中央基準線204の右側領域に存在するにも拘わらず、静止物3のフローベクトルが中央基準線204に近づく方向に生じている。これは、自車両1の直進時には、フローベクトルの水平方向の向きが左右で反転する位置が前方の消失点(無限遠)と一致するが、自車両1の旋回時には、自車両1の移動速度および角速度ならびに静止物3との距離によって水平方向(ここでは右側)に移動することに起因する。   On the other hand, as shown in FIG. 5 (a), when the host vehicle 1 travels with a turn, the flow vector is represented as shown in FIG. 5 (b). Here, the flow vector of the stationary object 3 is generated in a direction approaching the central reference line 204 even though the stationary object 3 in the region 206 indicated by the alternate long and short dash line exists in the right region of the central reference line 204. This is because the position where the horizontal direction of the flow vector is reversed left and right coincides with the vanishing point ahead (infinity) when the host vehicle 1 goes straight, but when the host vehicle 1 turns, the moving speed of the host vehicle 1 This is caused by moving in the horizontal direction (right side in this case) depending on the angular velocity and the distance to the stationary object 3.

すると、一点鎖線で示した領域206内のフローベクトルは、それが移動物2のものであるか静止物3のものであるかに拘わらず、右側領域において左方向を向いているフローベクトルとなるので、移動物2として誤判定されてしまう。この場合に、旋回の内側に相当する領域、すなわち、右側領域において移動物2の判定を行わないとすることも可能であるが、その領域に存在する移動物2を検知できなくなるので、衝突のリスクを高めるおそれがある。   Then, the flow vector in the area 206 indicated by the alternate long and short dash line is the flow vector facing the left direction in the right area regardless of whether it is the moving object 2 or the stationary object 3. Therefore, it is erroneously determined as the moving object 2. In this case, it is possible not to perform the determination of the moving object 2 in the area corresponding to the inside of the turn, that is, the right area, but the moving object 2 existing in the area cannot be detected. May increase risk.

また、自車両1が旋回を伴わない場合でも、自車両1が停止している場合と、直進している場合とでは、その前方を横切る移動物2のフローベクトルの長さが以下に説明するように異なることとなる。   Further, even when the host vehicle 1 does not involve turning, the length of the flow vector of the moving object 2 that crosses the front of the host vehicle 1 will be described below when the host vehicle 1 is stopped and when the host vehicle 1 is traveling straight. Will be different.

図6は、自車両1の移動速度の影響を説明するための説明図である。図6(a)のように自車両1が停止しているときに、移動物2aが一点鎖線の矢印の如く前方を横切ると、移動物2aが地点Aに位置しているときには、部分画像202の部位A’に投影され、移動物2aが地点Bに位置しているときには、部分画像202の部位B’に投影される。したがって、自車両1が停止しているときの移動物2aのフローベクトルは部位A’から部位B’までとなる。一方、図6(b)のように自車両1が進行方向に直進しているときに、移動物2aが前方を横切ると、移動物2aが地点Aに位置しているときには、部分画像202の部位A”に投影され、移動物2aが地点Bに位置しているときには、部分画像202の部位B”に投影される。したがって、自車両1が直進しているときの移動物2aのフローベクトルは部位A”から部位B”までとなる。   FIG. 6 is an explanatory diagram for explaining the influence of the moving speed of the host vehicle 1. As shown in FIG. 6A, when the moving object 2a crosses the front as indicated by an alternate long and short dash line when the host vehicle 1 is stopped, the partial image 202 is located when the moving object 2a is located at the point A. When the moving object 2a is located at the point B, it is projected onto the part B ′ of the partial image 202. Therefore, the flow vector of the moving object 2a when the host vehicle 1 is stopped is from the part A 'to the part B'. On the other hand, when the moving object 2a crosses the front when the host vehicle 1 is traveling straight in the traveling direction as shown in FIG. 6B, when the moving object 2a is located at the point A, the partial image 202 When projected onto the part A ″ and the moving object 2 a is located at the point B, it is projected onto the part B ″ of the partial image 202. Therefore, the flow vector of the moving object 2a when the host vehicle 1 is traveling straight goes from the part A "to the part B".

図6(a)と図6(b)とを比較すると、移動物2aの移動量が地点Aから地点Bまでと同一であるにも拘わらず、フローベクトルの長さが図6(a)より図6(b)の方が短くなっているのが理解できる。すると、図6(b)のフローベクトルの長さから、自車両1に接近する移動物2aの移動速度を算出して衝突時間を計算する場合、移動物2aの移動速度が実際の速度よりも遅く誤認識されてしまい、運転者への警報が遅くなったり、衝突のリスクを高めたりするおそれがある。   Comparing FIG. 6 (a) and FIG. 6 (b), the length of the flow vector is as shown in FIG. 6 (a) even though the moving amount of the moving object 2a is the same from point A to point B. It can be understood that FIG. 6B is shorter. Then, when calculating the collision speed by calculating the moving speed of the moving object 2a approaching the host vehicle 1 from the length of the flow vector in FIG. 6B, the moving speed of the moving object 2a is higher than the actual speed. It may be misrecognized late, which may delay the warning to the driver and increase the risk of collision.

図4〜図6を用いて説明したように、自車両1の移動速度や角速度に応じて、移動物2や静止物3のフローベクトルの長さや方向が異なることとなる。したがって、自車両1の挙動による影響を正確に推定することができれば、実際に観測したフローベクトルから自車両1の挙動による影響を相殺し、静止物3のフローベクトルを除外して、移動物2の絶対的な動きを正確に把握することが可能となるはずである。   As described with reference to FIGS. 4 to 6, the lengths and directions of the flow vectors of the moving object 2 and the stationary object 3 differ depending on the moving speed and the angular speed of the host vehicle 1. Therefore, if the influence due to the behavior of the own vehicle 1 can be accurately estimated, the influence due to the behavior of the own vehicle 1 is offset from the actually observed flow vector, the flow vector of the stationary object 3 is excluded, and the moving object 2 It should be possible to accurately grasp the absolute movement of the.

しかし、自車両1の挙動に基づく移動物2や静止物3のフローベクトルを正確に推定するためには、自車両1の移動速度や角速度のみならず、自車両1から移動物2および静止物3までの距離も必要となる。このような移動物2や静止物3までの距離は、ステレオカメラを用い3点測位法に基づく演算を行ったり、レーザレーダを用いたりすることで導出することは可能であるが、その都度計測しなければならず、設置コストや処理負荷の増大を招いてしまう。   However, in order to accurately estimate the flow vectors of the moving object 2 and the stationary object 3 based on the behavior of the own vehicle 1, not only the moving speed and angular velocity of the own vehicle 1 but also the moving object 2 and the stationary object from the own vehicle 1. A distance of up to 3 is also required. Such a distance to the moving object 2 or the stationary object 3 can be derived by performing a calculation based on a three-point positioning method using a stereo camera or using a laser radar, but is measured each time. This will cause an increase in installation cost and processing load.

そこで、本実施形態では、地面のフローベクトル(以下、地面のフローベクトルを補正フローベクトルともいう。)に着目する。ここで地面は、撮像装置110を自車両1の前方先端かつ車幅方向の中央に位置させ、撮像方向を進行方向と等しく、また、光軸が水平方向かそれより下向きになるように設置した場合において撮像可能な地表面を示す。このように撮像装置110を設置した場合、撮像した画像には、自車両1が走行すると予想される地面が映る。自車両1と地面との位置関係は、自車両1の挙動や地面の形状等により瞬時的には変化するものの、定常的には一定の位置関係となり、その位置関係は撮像装置110を車両に搭載した時の設置条件から求めることができる。   Therefore, in the present embodiment, attention is paid to the ground flow vector (hereinafter, the ground flow vector is also referred to as a correction flow vector). Here, the ground is set such that the imaging device 110 is positioned at the front end of the host vehicle 1 and at the center in the vehicle width direction, the imaging direction is equal to the traveling direction, and the optical axis is horizontal or downward. In this case, the ground surface that can be imaged is shown. When the imaging device 110 is installed in this manner, the captured image shows the ground on which the host vehicle 1 is expected to travel. Although the positional relationship between the host vehicle 1 and the ground changes instantaneously depending on the behavior of the host vehicle 1, the shape of the ground, and the like, the positional relationship is constantly constant, and the positional relationship is related to the imaging device 110 being attached to the vehicle. It can be determined from the installation conditions when installed.

図7は、地面のフローベクトルを示した説明図であり、図8は、自車両1が直進する場合の移動速度の影響を説明するための説明図である。例えば、自車両1が停止している場合、地面のフローベクトルはすべて0となる。また、自車両1が旋回を伴わず直進している場合、図7(a)の如く、部分画像202において水平方向の中央に位置する中央基準線204を境に左右で反転し、側方に向かうフローベクトルが表示される。さらに、自車両1が右方向に旋回を伴いながら進行している場合、図7(b)の如く、中央基準線204よりやや右側を境に左右で反転し、側方に向かうフローベクトルが表示される。このように、撮像装置110で撮像した画像内に透視投影によって地面しか映っていない場合、撮像装置110が自車両1と一体的に前進するときには、図7(a)および図7(b)に示すように、前方の無限遠点を消失点として放射状に、遠方ほど短く近傍ほど長いフローベクトルが生じる。これは、図8を用いた以下の説明により理解できる。   FIG. 7 is an explanatory view showing the flow vector of the ground, and FIG. 8 is an explanatory view for explaining the influence of the moving speed when the host vehicle 1 goes straight. For example, when the host vehicle 1 is stopped, all the ground flow vectors are zero. Further, when the host vehicle 1 is traveling straight without turning, as shown in FIG. 7A, the vehicle is reversed left and right at the center reference line 204 located at the center in the horizontal direction in the partial image 202, to the side. The heading flow vector is displayed. Further, when the host vehicle 1 is traveling while turning rightward, as shown in FIG. 7 (b), the right and left sides of the center reference line 204 are reversed right and left, and a flow vector directed to the side is displayed. Is done. As described above, when only the ground is shown by perspective projection in the image picked up by the image pickup device 110, when the image pickup device 110 moves forward integrally with the host vehicle 1, FIG. 7A and FIG. As shown, a flow vector is generated in a radial manner with the infinity point at the front as a vanishing point, and the longer the distance is, the shorter the distance is. This can be understood from the following description using FIG.

自車両1が移動速度Cで直進している場合、自車両1から比較的遠い位置にある静止物3aおよび自車両1から比較的近い位置にある静止物3bは、相対速度Cで自車両1に近づいていることになり、その相対速度Cの相対移動が部分画像202に投影されてフローベクトルとなる。図8に示すように、静止物3aと静止物3bとは同一の相対速度Cであるにも拘わらず、自車両1からの距離が異なることからフローベクトルの長さが異なり、自車両1から比較的遠い位置にある静止物3aのフローベクトルは、自車両1から比較的近い位置にある静止物3bのフローベクトルより短くなる。したがって、画面中の横方向中央付近ではフローベクトルが比較的短く、そこから画像側方にずれるに連れてフローベクトルが長くなる。また、画像中の地平線付近ではフローベクトルが比較的短く、そこから画像下端、つまり地面手前側に近づくに連れてフローベクトルが長くなる。   When the host vehicle 1 is traveling straight at the moving speed C, the stationary object 3a that is relatively far from the host vehicle 1 and the stationary object 3b that is relatively close to the host vehicle 1 are at the relative speed C. Therefore, the relative movement at the relative speed C is projected onto the partial image 202 and becomes a flow vector. As shown in FIG. 8, although the stationary object 3a and the stationary object 3b have the same relative speed C, the lengths of the flow vectors differ from the own vehicle 1 because the distance from the own vehicle 1 is different. The flow vector of the stationary object 3 a located at a relatively far position is shorter than the flow vector of the stationary object 3 b located relatively close to the host vehicle 1. Therefore, the flow vector is relatively short near the center in the horizontal direction on the screen, and the flow vector becomes longer as it shifts from the side of the image. In addition, the flow vector is relatively short near the horizon in the image, and the flow vector becomes longer as it approaches the lower end of the image, that is, the front side of the ground.

図9は、画面縦方向のフローベクトルの変化を説明するための説明図である。図9(b)は、図9(a)の部分画像202のiの画面縦方向におけるi方向のフローベクトルの長さを示している。図9(b)を参照すると、上述したように、地面に対応する領域にあるフローベクトルは、画面下端から画面中央(地平線)にずれるに従って短くなる。ただし、立設物、例えば、図9(a)の静止物3に対応する領域にあるフローベクトルは長さが変化しない。したがって、フローベクトルの変化度合いが変わる境界を地面と立設物との境界(後述する代表部位)とすることができる。 FIG. 9 is an explanatory diagram for explaining a change in the flow vector in the vertical direction of the screen. FIG. 9B shows the length of the flow vector in the i direction in the screen vertical direction of i 0 of the partial image 202 in FIG. 9A. Referring to FIG. 9B, as described above, the flow vector in the area corresponding to the ground becomes shorter as it shifts from the lower end of the screen to the center of the screen (horizon). However, the length of the flow vector in the region corresponding to the standing object, for example, the stationary object 3 in FIG. 9A does not change. Therefore, the boundary where the degree of change in the flow vector changes can be set as the boundary between the ground and the standing object (representative part described later).

また、地面のフローベクトルは、自車両1の移動速度や角速度と相関性があり、自車両1の移動速度や角速度を特定できれば、回転半径も求まり、地面の各特徴点の自車両1からの距離を把握せずとも、地面のフローベクトルも一様に定まる。したがって、自車両1の移動速度や角速度に応じて地面のフローベクトルをリアルタイムに毎回算出しなくとも、撮像装置110の取り付け位置および撮像装置110の内部パラメータ(画角や射影方式等)が定められていれば、地面のフローベクトルを予め保持しておくことができる。本実施形態では、相異なる複数の移動速度や相異なる複数の角速度に対応付けて複数の地面のフローベクトルを補正テーブルとして予め保持させる。こうして、地面のフローベクトルを計算する処理負荷を削減することが可能となる。   Further, the ground flow vector is correlated with the moving speed and angular velocity of the host vehicle 1, and if the moving speed and angular velocity of the host vehicle 1 can be specified, the turning radius can be obtained, and each feature point of the ground from the host vehicle 1 can be obtained. Without knowing the distance, the ground flow vector is also determined uniformly. Therefore, the mounting position of the imaging device 110 and the internal parameters (such as the angle of view and the projection method) of the imaging device 110 are determined without calculating the ground flow vector in real time every time according to the moving speed and angular velocity of the host vehicle 1. If so, the flow vector of the ground can be held in advance. In the present embodiment, a plurality of ground flow vectors are stored in advance as correction tables in association with a plurality of different moving speeds and different angular velocities. In this way, the processing load for calculating the ground flow vector can be reduced.

図10は、部分画像202のフローベクトルを示した説明図である。ここでは、部分画像202のフローベクトルと地面のフローベクトルとの関係を説明する。自車両1の移動速度や角速度を特定し、特定された移動速度や角速度に対する地面のフローベクトルを参照して、仮に、図5(b)のような部分画像202に対するフローベクトルから、図7(b)のような、地面のフローベクトル(補正フローベクトル)を減算したとする。すると、図10に示すように、自車両1の挙動による影響が取り除かれたフローベクトルを得ることができる。したがって、減算後のフローベクトルには、地面に立設する(鉛直方向成分がある)立設物(移動物2および静止物3)のみが残り、減算されたフローベクトルは、立設物の本来のフローベクトルを示すこととなる。   FIG. 10 is an explanatory diagram showing a flow vector of the partial image 202. Here, the relationship between the flow vector of the partial image 202 and the flow vector of the ground will be described. The moving speed and angular velocity of the own vehicle 1 are specified, and the flow vector of the ground image corresponding to the specified moving speed and angular velocity is referred to, from the flow vector for the partial image 202 as shown in FIG. Assume that the ground flow vector (correction flow vector) is subtracted as shown in b). Then, as shown in FIG. 10, it is possible to obtain a flow vector from which the influence of the behavior of the host vehicle 1 is removed. Accordingly, only the standing objects (moving object 2 and stationary object 3) standing on the ground (with a vertical component) remain in the flow vector after subtraction, and the subtracted flow vector is the original of the standing object. The flow vector will be shown.

ただし、立設物のうち静止物3は、自車両1が積極的に接近しなければ衝突の危険性がないが、移動物2については、自車両1の挙動に拘わらず衝突の危険性がある。したがって、本実施形態では、特定された立設物をさらに移動物2と静止物3とに区別する。ここでは、移動物2と静止物3とを区別するために、以下のようなフローベクトルの特性に着目している。すなわち、静止物3は、地面と連続しており、かつ画面上、地面と一体的に移動するので、そのフローベクトルは、図9(b)に示したように、静止物3と地面とが接している部位のフローベクトルと画面横方向の成分が等しくなる。換言すれば、部分画像202における静止物3のフローベクトルから地面のフローベクトルを減算すると、減算後のフローベクトルのスカラ量はほぼ0(ゼロ)となる。一方、移動物2は、地面と連続しているものの、地面の上を地面と平行して相対的に移動しているので、そのフローベクトルは、移動物2と地面とが接している部位のフローベクトルと画面横方向の成分が異なる。換言すれば、部分画像202における移動物2のフローベクトルから地面のフローベクトルを減算すると、減算後のフローベクトルのスカラ量は0とはならない。   However, the stationary object 3 of the standing objects is not at risk of collision unless the host vehicle 1 is actively approached, but the moving object 2 has a risk of collision regardless of the behavior of the host vehicle 1. is there. Therefore, in this embodiment, the specified standing object is further distinguished into the moving object 2 and the stationary object 3. Here, in order to distinguish the moving object 2 and the stationary object 3, attention is paid to the following flow vector characteristics. That is, the stationary object 3 is continuous with the ground and moves integrally with the ground on the screen. Therefore, as shown in FIG. The flow vector of the part in contact with the horizontal component of the screen becomes equal. In other words, when the ground flow vector is subtracted from the flow vector of the stationary object 3 in the partial image 202, the scalar quantity of the flow vector after the subtraction is substantially 0 (zero). On the other hand, although the moving object 2 is continuous with the ground, it moves relatively on the ground in parallel with the ground, so the flow vector of the part where the moving object 2 and the ground are in contact with each other. The flow vector and the horizontal component are different. In other words, when the ground flow vector is subtracted from the flow vector of the moving object 2 in the partial image 202, the scalar quantity of the flow vector after the subtraction does not become zero.

したがって、特定された立設物のうち、そのフローベクトルが地面と接している部位(代表部位)のフローベクトルと画面横方向の成分が等しい物を静止物3とし、その他の物を移動物2とすることで、移動物2と静止物3とを区別することが可能となる。以上のように、本実施形態では、部分画像202のフローベクトルから補正フローベクトルを減算し、その減算後のフローベクトルのうち、静止物3に相当するフローベクトルを特定することで、同時に、移動物2のフローベクトルも特定する。以下に、このような処理を実現するための車外環境認識装置120を具体的に説明し、その後で、車外環境認識方法について詳述する。   Accordingly, among the specified standing objects, an object having a flow vector component equal to the flow vector of the part (representative part) where the flow vector is in contact with the ground is defined as a stationary object 3, and the other object is a moving object 2. By doing so, it becomes possible to distinguish the moving object 2 and the stationary object 3. As described above, in the present embodiment, the corrected flow vector is subtracted from the flow vector of the partial image 202, and the flow vector corresponding to the stationary object 3 is specified among the flow vectors after the subtraction. The flow vector of the object 2 is also specified. Hereinafter, the vehicle environment recognition apparatus 120 for realizing such processing will be specifically described, and then the vehicle environment recognition method will be described in detail.

(車外環境認識装置120)
図11は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図11に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 11 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 11, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部(画像データ取得部)150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースであり、例えば、撮像装置110で生成された画像データを取得する。また、I/F部150は、速度センサ124や角速度センサ126から、移動速度および角速度を取得する。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。また、本実施形態においては、フローベクトルの導出処理におけるパターンマッチングのため、画像データを、少なくとも次のフレームまで一時的に保持する。ここで、データ保持部152に記憶された前回のフレームにおける画像データを「前回画像データ」といい、今回のフレームにおける画像データを「今回画像データ」という。また、データ保持部152は、相異なる複数の移動速度および相異なる複数の角速度に、複数の地面のフローベクトルを対応させた補正テーブルを予め保持する。   The I / F unit (image data acquisition unit) 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130, and for example, acquires image data generated by the imaging device 110. . Further, the I / F unit 150 acquires the moving speed and the angular speed from the speed sensor 124 and the angular speed sensor 126. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like, and holds various pieces of information necessary for processing of each functional unit described below. In the present embodiment, the image data is temporarily held until at least the next frame for pattern matching in the flow vector derivation process. Here, the image data in the previous frame stored in the data holding unit 152 is referred to as “previous image data”, and the image data in the current frame is referred to as “current image data”. In addition, the data holding unit 152 holds in advance a correction table in which a plurality of ground flow vectors are associated with a plurality of different moving speeds and different angular velocities.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150やデータ保持部152を制御する。また、本実施形態において、中央制御部154は、画像切出部160、フローベクトル導出部162、グループ化部164、移動状態取得部166、補正フローベクトル抽出部168、フローベクトル減算部170、静止物判定部172、移動物判定部174、衝突判定部176、報知部178、画像保持部180としても機能する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program and the like, a RAM as a work area, and the like, and through the system bus 156, the I / F unit 150 and the data holding unit. 152 is controlled. In this embodiment, the central control unit 154 includes an image cutout unit 160, a flow vector derivation unit 162, a grouping unit 164, a movement state acquisition unit 166, a corrected flow vector extraction unit 168, a flow vector subtraction unit 170, a stationary It also functions as an object determination unit 172, a moving object determination unit 174, a collision determination unit 176, a notification unit 178, and an image holding unit 180.

画像切出部160は、I/F部150が取得した今回画像データに基づく図2に示したような環境画像200から、予め定められた位置および大きさの図3に示したような部分画像202を切り出す。   The image cutout unit 160 is a partial image as shown in FIG. 3 having a predetermined position and size from the environmental image 200 as shown in FIG. 2 based on the current image data acquired by the I / F unit 150. 202 is cut out.

フローベクトル導出部162は、所謂、パターンマッチングを通じて、画像切出部160が切り出した部分画像202を分割したブロック毎のフローベクトルを導出する。   The flow vector deriving unit 162 derives a flow vector for each block obtained by dividing the partial image 202 cut out by the image cutout unit 160 through so-called pattern matching.

図12は、フローベクトル導出部162の処理を説明するための説明図である。フローベクトル導出部162は、データ保持部152に記憶された前回画像データに基づく図12(a)に示した部分画像202から任意に抽出したブロック(ここでは水平8画素×垂直8画素の配列で構成される)210aに対応する(相関値の高い)ブロック210bを、今回画像データに基づく図12(b)に示した部分画像202から検出する(パターンマッチング)。このとき前回画像データに対応するブロック210aから今回画像データに対応するブロック210bまでの、図12(b)中、矢印で示す移動軌跡がオプティカルフローにおけるフローベクトルとなる。   FIG. 12 is an explanatory diagram for explaining the processing of the flow vector deriving unit 162. The flow vector deriving unit 162 is a block arbitrarily extracted from the partial image 202 shown in FIG. 12A based on the previous image data stored in the data holding unit 152 (here, an array of horizontal 8 pixels × vertical 8 pixels). A block 210b corresponding to (configured) 210a (having a high correlation value) is detected from the partial image 202 shown in FIG. 12B based on the current image data (pattern matching). At this time, the movement trajectory indicated by the arrow in FIG. 12B from the block 210a corresponding to the previous image data to the block 210b corresponding to the current image data becomes the flow vector in the optical flow.

かかるパターンマッチングとしては、前回画像データおよび今回画像データ間において、任意の画像位置を示すブロック単位で輝度値を比較することが考えられる。例えば、輝度値の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度値から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位のフローベクトル導出処理を部分画像202(例えば、640画素×128画素)に映し出されている全てのブロックについて行う。また、ブロック内の画素数は任意に設定することができるが、ここでは、ブロックを水平8画素×垂直8画素としている。   As such pattern matching, it is conceivable to compare luminance values in units of blocks indicating arbitrary image positions between previous image data and current image data. For example, the SAD (Sum of Absolute Difference) that takes the difference in luminance value, the SSD (Sum of Squared intensity Difference) that uses the difference squared, and the similarity of the variance value obtained by subtracting the average value from the luminance value of each pixel. There are methods such as NCC (Normalized Cross Correlation). The vehicle exterior environment recognition apparatus 120 performs such block-based flow vector derivation processing for all blocks displayed in the partial image 202 (for example, 640 pixels × 128 pixels). Further, the number of pixels in the block can be arbitrarily set, but here, the block is assumed to be 8 horizontal pixels × 8 vertical pixels.

このようにして、フローベクトル導出部162は、図5(b)の如く、前回画像データに対応する部分画像202のフローベクトルを導出することができる。   In this way, the flow vector deriving unit 162 can derive the flow vector of the partial image 202 corresponding to the previous image data, as shown in FIG.

グループ化部164は、フローベクトル導出部162が導出したフローベクトルから隣接するブロック同士のフローベクトルを順次比較し、フローベクトルの方向およびその大きさが近似する(例えば、方向が±30度以内かつ大きさの差分が8画素以内である)ブロックをグループ化する。そして、グループ化したブロック群を、立設物(移動物2および静止物3)の候補とする。   The grouping unit 164 sequentially compares the flow vectors of adjacent blocks from the flow vector derived by the flow vector deriving unit 162, and approximates the direction and the magnitude of the flow vector (for example, the direction is within ± 30 degrees and Blocks whose size difference is within 8 pixels are grouped. Then, the grouped blocks are set as candidates for standing objects (moving object 2 and stationary object 3).

図13は、ブロック群4を説明するための説明図である。例えば、図13に示した複数のブロック群4は、ブロック内のそれぞれのフローベクトルが同方向に向いており、その長さが互いに近似しているので、グループ化される。そして、ブロック群4のフローベクトルの代表値である代表フローベクトルを求める。代表フローベクトルは、ブロック群4においてグループ化された複数のフローベクトルの平均値でもよいし、フローベクトル導出におけるSAD等の一致度の指標に基づいて算出した信頼度が高い値でもよいし、複数のフローベクトルのうち画面下側に位置するフローベクトルでもよい。   FIG. 13 is an explanatory diagram for explaining the block group 4. For example, the plurality of block groups 4 shown in FIG. 13 are grouped because the flow vectors in the blocks are directed in the same direction and their lengths are close to each other. Then, a representative flow vector that is a representative value of the flow vectors of the block group 4 is obtained. The representative flow vector may be an average value of a plurality of flow vectors grouped in the block group 4, or may be a value with high reliability calculated based on an index of coincidence such as SAD in flow vector derivation. Of these flow vectors, the flow vector located on the lower side of the screen may be used.

また、グループ化部164は、ブロック群4が地面と接している部位、すなわち、ブロック群4の下端の部位を代表部位とする。図9を用いて説明したように、立設物と地面との境界を、画面縦方向のフローベクトルの変化度合いが変わる部位とすることができる。したがって、グループ化部164は、グループ化されたブロック群4の縦方向に配置されたフローベクトルを画面下側から順次判定し、横方向成分が変化しなくなる部位を代表部位とすることができる。   In addition, the grouping unit 164 uses a part where the block group 4 is in contact with the ground, that is, a lower part of the block group 4 as a representative part. As described with reference to FIG. 9, the boundary between the standing object and the ground can be a part where the change degree of the flow vector in the vertical direction of the screen changes. Therefore, the grouping unit 164 can sequentially determine the flow vectors arranged in the vertical direction of the grouped block group 4 from the lower side of the screen, and can set a portion where the horizontal component does not change as a representative portion.

また、本実施形態では、グループ化部164によってフローベクトルを予めグループ化し、その後で、代表フローベクトルから補正フローベクトルを減算しているが、かかる場合に限らず、先に補正フローベクトルを減算した後、グループ化してもよい。   In the present embodiment, the flow vectors are grouped in advance by the grouping unit 164, and then the corrected flow vector is subtracted from the representative flow vector. However, the present invention is not limited to this, and the corrected flow vector is first subtracted. Later, it may be grouped.

移動状態取得部166は、広角レンズを有する撮像装置110の挙動、例えば、移動速度および角速度を取得する。なお、撮像装置110の移動速度および角速度を直接測定するとしてもよいが、本実施形態では、撮像装置110が固定され、撮像装置110とほぼ同一の移動軌跡で移動する自車両1の挙動(移動速度および角速度)を利用する。そして、自車両1の旋回中心と撮像装置110の設置位置との関係から撮像装置110の移動速度および角速度を導出している。ここで、旋回中心は自車両1の車輪の位置や舵角を用い、例えば2輪モデルなどを参照して計算することができる。また、移動速度および角速度と旋回中心との関係を予め実測しておいてもよい。また、自車両1の移動速度および角速度を特定する手段は上記の速度センサ124および角速度センサ126に限らず、例えば、単位時間あたりの走行距離を移動速度としたり、角加速度の積分値や舵角を角速度としたり、様々な検出手段に基づいて特定することができる。   The movement state acquisition unit 166 acquires the behavior of the imaging device 110 having a wide-angle lens, for example, the movement speed and the angular speed. Although the moving speed and the angular velocity of the imaging device 110 may be directly measured, in this embodiment, the behavior (movement) of the host vehicle 1 that moves on the same movement locus as the imaging device 110 is fixed. Speed and angular velocity). Then, the moving speed and angular velocity of the imaging device 110 are derived from the relationship between the turning center of the host vehicle 1 and the installation position of the imaging device 110. Here, the turning center can be calculated using, for example, a two-wheel model by using the wheel position and the steering angle of the host vehicle 1. Further, the relationship between the moving speed and angular speed and the turning center may be measured in advance. The means for specifying the moving speed and the angular speed of the host vehicle 1 is not limited to the speed sensor 124 and the angular speed sensor 126 described above. For example, the travel distance per unit time is used as the moving speed, or the integrated value of the angular acceleration or the steering angle. Can be determined as an angular velocity or based on various detection means.

補正フローベクトル抽出部168は、移動状態取得部166が取得した移動速度および角速度に応じて補正テーブルを参照し、データ保持部152に保持された複数の補正フローベクトルから1の補正フローベクトルを抽出する。補正テーブルの分解能は、例えば、移動速度1km間隔(範囲1〜15km/h)、角速度1deg間隔(範囲−30〜30deg/s)とする。かかる分解能より高い分解能の補正フローベクトルが必要な場合、対象とする移動速度や角速度の前後複数の補正フローベクトルを用いて線形補間を行ってもよい。また、後述するフローベクトル減算部170において補正フローベクトルを減算することで、静止物3が移動物2として誤検出されないように補正フローベクトルを選択することも可能である。   The correction flow vector extraction unit 168 refers to the correction table according to the movement speed and angular velocity acquired by the movement state acquisition unit 166, and extracts one correction flow vector from a plurality of correction flow vectors held in the data holding unit 152. To do. The resolution of the correction table is, for example, a moving speed 1 km interval (range 1 to 15 km / h) and an angular velocity 1 deg interval (range -30 to 30 deg / s). When a correction flow vector with a resolution higher than the resolution is required, linear interpolation may be performed using a plurality of correction flow vectors before and after the target moving speed and angular velocity. It is also possible to select the corrected flow vector so that the stationary object 3 is not erroneously detected as the moving object 2 by subtracting the corrected flow vector in a flow vector subtracting unit 170 described later.

フローベクトル減算部170は、グループ化部164が導出した代表フローベクトルから、補正フローベクトル抽出部168が抽出した補正フローベクトルのうちブロック群4の代表部位に対応する部位のフローベクトルを減算する。こうして、図10に示したような、自車両1の挙動の影響が含まれない、立設物(移動物2および静止物3)自体のフローベクトルを導出することができる。ここでは、フローベクトル導出部162が導出したフローベクトル全体から補正フローベクトルを減算せず、ブロック群4の代表部位に対応するフローベクトルのみから補正フローベクトルを減算するので、処理負荷を大幅に低減することができる。また、フローベクトル導出部162における計算誤差や地面の凸凹によってフローベクトル導出部162が正確なフローベクトルを導出できなかったとしても、減算対象が制限されているので、減算結果への影響が少ない。   The flow vector subtraction unit 170 subtracts the flow vector of the part corresponding to the representative part of the block group 4 from the corrected flow vector extracted by the correction flow vector extraction part 168 from the representative flow vector derived by the grouping part 164. In this way, the flow vector of the standing object (the moving object 2 and the stationary object 3) itself that does not include the influence of the behavior of the host vehicle 1 as shown in FIG. 10 can be derived. Here, the correction flow vector is not subtracted from the entire flow vector derived by the flow vector deriving unit 162, and the correction flow vector is subtracted only from the flow vector corresponding to the representative part of the block group 4, so that the processing load is greatly reduced. can do. Even if the flow vector deriving unit 162 cannot derive an accurate flow vector due to a calculation error in the flow vector deriving unit 162 or unevenness of the ground, the subtraction target is limited, so that the influence on the subtraction result is small.

静止物判定部172は、フローベクトル減算部170が減算したフローベクトルのスカラ量、特に、画面横方向の成分に応じ、減算後にもフローベクトルが残っていない(フローベクトル=0もしくは0近傍の所定範囲内)複数のブロック群4を静止物3と判定する。したがって、フローベクトル減算部170が減算したフローベクトルのスカラ量が0ではない、すなわち、ブロック群4の代表フローベクトルと、そのブロック群4が地面と接している部位の補正フローベクトルとの画面横方向の成分が異なれば、移動物2と判定する。こうして、移動物2と静止物3とを区別することができる。   The stationary object determination unit 172 has no flow vector remaining after the subtraction according to the scalar quantity of the flow vector subtracted by the flow vector subtraction unit 170, in particular, the horizontal component of the screen (flow vector = 0 or a predetermined value near zero). Within range) A plurality of block groups 4 are determined to be stationary objects 3. Accordingly, the scalar quantity of the flow vector subtracted by the flow vector subtraction unit 170 is not 0, that is, the horizontal flow of the representative flow vector of the block group 4 and the corrected flow vector of the part where the block group 4 is in contact with the ground. If the direction component is different, the moving object 2 is determined. Thus, the moving object 2 and the stationary object 3 can be distinguished.

移動物判定部174は、静止物判定部172により静止物3ではない、すなわち、移動物2であると判定されたブロック群4の接地位置、大きさ、および、フローベクトル減算部170で補正した後(減算後)のフローベクトルに応じて、そのブロック群4を構成する移動物2の位置、進行方向および速度を判定する。   The moving object determination unit 174 is corrected by the flow vector subtraction unit 170 that is not the stationary object 3 by the stationary object determination unit 172, that is, the grounding position and size of the block group 4 determined to be the moving object 2. The position, traveling direction, and speed of the moving object 2 constituting the block group 4 are determined according to the subsequent (after subtraction) flow vector.

衝突判定部176は、自車両1の進行方向および速度と、特定した移動物2の位置、進行方向および速度とに応じて、自車両1と当該移動物2が衝突する可能性が高いか否か判定する。かかる衝突判定については、既存の様々な技術を適用することが可能なので、ここではその詳細な説明を省略する。   The collision determination unit 176 determines whether or not the own vehicle 1 and the moving object 2 are likely to collide according to the traveling direction and speed of the own vehicle 1 and the position, traveling direction, and speed of the identified moving object 2. To determine. Since various existing techniques can be applied to the collision determination, detailed description thereof is omitted here.

報知部178は、衝突判定部176が衝突の可能性が高いと判定した場合、ブザー(音声出力手段)や警告灯(ディスプレイ122)を通じて、その旨、運転者に報知する。また、I/F部150を通じて、車両制御装置130に、その旨を示す情報を出力する。   When the collision determination unit 176 determines that the possibility of a collision is high, the notification unit 178 notifies the driver to that effect through a buzzer (voice output means) and a warning light (display 122). In addition, information indicating that is output to the vehicle control device 130 through the I / F unit 150.

画像保持部180は、データ保持部152の前回画像データに今回画像データを上書きする。こうして次のフレームでは、かかる今回画像データを前回画像データとして用いることができる。   The image holding unit 180 overwrites the previous image data of the data holding unit 152 with the current image data. Thus, in the next frame, the current image data can be used as the previous image data.

(車外環境認識方法)
図14は、車外環境認識方法の全体的な処理の流れを示したフローチャートである。図14では、撮像装置110から広角レンズを通じて撮像された画像データが送信されたときの割込処理に関する全体的な流れが示されている。
(External vehicle environment recognition method)
FIG. 14 is a flowchart showing the overall processing flow of the vehicle exterior environment recognition method. FIG. 14 shows an overall flow related to an interrupt process when image data captured through a wide-angle lens is transmitted from the imaging device 110.

当該車外環境認識方法による割込が発生すると、I/F部150は、撮像装置110から送信された今回画像データを取得する(S300)。そして、画像切出部160は、取得された今回画像データに基づく環境画像200(例えば、水平640画素×垂直480画素)から予め定められた位置および大きさの部分画像202(例えば、水平640画素×垂直128画素:水平80ブロック×垂直16ブロック)を切り出す(S302)。次に、フローベクトル導出部162は、部分画像202における複数のフローベクトルを導出する(S304)。そして、グループ化部164は、フローベクトル導出部162が導出したフローベクトルから隣接するブロック同士のフローベクトルを順次比較し、フローベクトルの方向およびその大きさが近似するブロックをグループ化し、その代表値となる代表フローベクトルを求める(S306)。   When the interruption by the vehicle exterior environment recognition method occurs, the I / F unit 150 acquires the current image data transmitted from the imaging device 110 (S300). The image cutout unit 160 then selects a partial image 202 (for example, horizontal 640 pixels) having a predetermined position and size from the environment image 200 (for example, horizontal 640 pixels × vertical 480 pixels) based on the acquired current image data. X vertical 128 pixels: horizontal 80 blocks x vertical 16 blocks) are cut out (S302). Next, the flow vector deriving unit 162 derives a plurality of flow vectors in the partial image 202 (S304). Then, the grouping unit 164 sequentially compares the flow vectors of adjacent blocks from the flow vector derived by the flow vector deriving unit 162, groups the blocks whose flow vector directions and sizes are approximated, and represents the representative value thereof. A representative flow vector is obtained (S306).

続いて、移動状態取得部166は、その時点の自車両1の移動速度および角速度を取得し(S308)、補正フローベクトル抽出部168は、補正テーブルを参照し、移動速度および角速度に応じて、データ保持部152から1の補正フローベクトルを抽出する(S310)。フローベクトル減算部170は、グループ化部164が導出した各代表フローベクトルから補正フローベクトルのうち各ブロック群4の代表部位に対応する部位のフローベクトルを減算する(S312)。静止物判定部172は、フローベクトル減算部170が減算したフローベクトルのスカラ量に応じて静止物3を特定し、静止物3と移動物2とを区別する(S314)。そして、移動物判定部174は、静止物判定部172により移動物2であると判定されたブロック群4の大きさ、および、そのブロック群4の速度に応じて、そのブロック群4を構成する移動物2の位置、進行方向および速度を判定する(S316)。   Subsequently, the movement state acquisition unit 166 acquires the movement speed and angular velocity of the host vehicle 1 at that time (S308), and the correction flow vector extraction unit 168 refers to the correction table, and according to the movement speed and angular velocity, One correction flow vector is extracted from the data holding unit 152 (S310). The flow vector subtracting unit 170 subtracts the flow vector of the part corresponding to the representative part of each block group 4 from the corrected flow vector from each representative flow vector derived by the grouping part 164 (S312). The stationary object determination unit 172 identifies the stationary object 3 according to the scalar quantity of the flow vector subtracted by the flow vector subtraction unit 170, and distinguishes the stationary object 3 from the moving object 2 (S314). Then, the moving object determination unit 174 configures the block group 4 according to the size of the block group 4 determined as the moving object 2 by the stationary object determination unit 172 and the speed of the block group 4. The position, traveling direction, and speed of the moving object 2 are determined (S316).

衝突判定部176は、自車両1の進行方向および速度と、特定した移動物2の位置、進行方向および速度とに応じて、自車両1と移動物2が衝突する可能性が高いか否か判定する(S318)。その結果、移動物2と衝突する可能性が高いと判定すると(S318におけるYES)、報知部178は、衝突の可能性が高い旨、運転者に報知するとともに、車両制御装置130に、その旨を示す情報を出力する(S320)。また、移動物2と衝突する可能性が高いと判定されなかった場合(S318におけるNO)、ステップS322に移行する。   The collision determination unit 176 determines whether or not the own vehicle 1 and the moving object 2 are likely to collide according to the traveling direction and speed of the own vehicle 1 and the position, traveling direction and speed of the identified moving object 2. Determination is made (S318). As a result, when it is determined that there is a high possibility of collision with the moving object 2 (YES in S318), the notification unit 178 notifies the driver that the possibility of collision is high and notifies the vehicle control device 130 to that effect. Is output (S320). If it is not determined that the possibility of collision with the moving object 2 is high (NO in S318), the process proceeds to step S322.

最後に、画像保持部180は、今回画像データを次回のフレームで前回画像データとして用いるため、データ保持部152の前回画像データに今回画像データを上書きする(S322)。   Finally, in order to use the current image data as the previous image data in the next frame, the image holding unit 180 overwrites the previous image data in the data holding unit 152 with the current image data (S322).

以上、説明したような、車外環境認識装置120や車外環境認識方法によれば、自車両1が旋回した場合であっても、高精度かつ低処理負荷で移動物2を検出でき、前側方から接近する移動物2と自車両1との衝突時間を正確に予想することが可能となる。   As described above, according to the outside environment recognition device 120 and the outside environment recognition method as described above, the moving object 2 can be detected with high accuracy and low processing load even when the host vehicle 1 turns, from the front side. It is possible to accurately predict the collision time between the approaching moving object 2 and the host vehicle 1.

また、従来、移動物2を適切に判断するため静止物3までの距離も得るべく、ステレオカメラやレーザレーダを用いなければならなかったが、本実施形態では、自車両1の挙動による影響の計算を、地面のフローベクトル(補正フローベクトル)の減算のみとし、かつ、補正フローベクトルを予め計算しているので、コストの削減や処理負荷の軽減を図ることができる。   Conventionally, in order to appropriately determine the moving object 2, a stereo camera or a laser radar must be used in order to obtain a distance to the stationary object 3, but in this embodiment, the influence of the behavior of the host vehicle 1 is affected. Since the calculation is performed only by subtraction of the ground flow vector (correction flow vector) and the correction flow vector is calculated in advance, it is possible to reduce the cost and the processing load.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120 and a computer-readable storage medium that stores the program, such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態において、画像切出部160、フローベクトル導出部162、グループ化部164、移動状態取得部166、補正フローベクトル抽出部168、フローベクトル減算部170、静止物判定部172、移動物判定部174、衝突判定部176、報知部178、画像保持部180は、中央制御部154によってソフトウェアで動作するように構成している。しかし、上記の機能部をハードウェアによって構成することも可能である。   For example, in the above-described embodiment, the image cutout unit 160, the flow vector derivation unit 162, the grouping unit 164, the movement state acquisition unit 166, the corrected flow vector extraction unit 168, the flow vector subtraction unit 170, the stationary object determination unit 172, The moving object determination unit 174, the collision determination unit 176, the notification unit 178, and the image holding unit 180 are configured to be operated by software by the central control unit 154. However, the functional unit described above can be configured by hardware.

なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step of the vehicle environment recognition method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or a subroutine.

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法にかかり、特に、自車両外の移動物を認識し自車両との衝突判定を行う車外環境認識装置および車外環境認識方法に利用することができる。   The present invention relates to an outside environment recognition device and an outside environment recognition method for recognizing an environment outside the host vehicle, and more particularly, an outside environment recognition device and an outside environment that recognize a moving object outside the host vehicle and determine a collision with the host vehicle. It can be used as a recognition method.

1 …自車両
2 …移動物
3 …静止物
110 …撮像装置
120 …車外環境認識装置
150 …I/F部(画像データ取得部)
152 …データ保持部
160 …画像切出部
162 …フローベクトル導出部
164 …グループ化部
166 …移動状態取得部
168 …補正フローベクトル抽出部
170 …フローベクトル減算部
172 …静止物判定部
174 …移動物判定部
176 …衝突判定部
202 …部分画像
DESCRIPTION OF SYMBOLS 1 ... Own vehicle 2 ... Moving object 3 ... Stationary object 110 ... Imaging device 120 ... Outside vehicle environment recognition apparatus 150 ... I / F part (image data acquisition part)
152 ... Data holding unit 160 ... Image cropping unit 162 ... Flow vector deriving unit 164 ... Grouping unit 166 ... Movement state acquisition unit 168 ... Correction flow vector extraction unit 170 ... Flow vector subtraction unit 172 ... Stationary object determination unit 174 ... Movement Object determination unit 176 ... collision determination unit 202 ... partial image

Claims (4)

撮像装置を通じて車外環境を撮像した画像データを取得する画像データ取得部と、
前記画像データに基づく画像を分割したブロック毎のフローベクトルを導出するフローベクトル導出部と、
前記フローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化してブロック群を生成し、その代表値となる代表フローベクトルを求めるグループ化部と、
前記撮像装置の旋回時の挙動を取得する移動状態取得部と、
前記移動状態取得部が取得した旋回時の挙動に応じて、地面のフローベクトルを抽出する補正フローベクトル抽出部と、
前記代表フローベクトルから、前記地面のフローベクトルのうち前記ブロック群における、フローベクトルの変化度合いが変わる境界に位置する代表部位に対応する部位のフローベクトルを減算するフローベクトル減算部と、
前記ブロック群のうち、減算後のフローベクトルのスカラ量に応じて、該スカラ量が0もしくは0近傍の所定範囲内であれば、該ブロック群を静止物とし、該スカラ量が0もしくは0近傍の所定範囲内でなければ、該ブロック群を移動物とする静止物判定部と、
を備えることを特徴とする車外環境認識装置。
An image data acquisition unit for acquiring image data obtained by imaging the environment outside the vehicle through the imaging device;
A flow vector deriving unit for deriving a flow vector for each block obtained by dividing the image based on the image data;
A grouping unit that approximates the direction of the flow vector and the size thereof, groups adjacent blocks together to generate a block group, and obtains a representative flow vector serving as a representative value;
A moving state acquisition unit that acquires a behavior at the time of turning of the imaging device;
A correction flow vector extraction unit that extracts a flow vector of the ground according to the behavior during turning acquired by the movement state acquisition unit;
A flow vector subtracting unit that subtracts a flow vector of a part corresponding to a representative part located at a boundary where the degree of change of the flow vector in the block group of the ground flow vector changes from the representative flow vector;
In the block group, if the scalar quantity is 0 or within a predetermined range near 0 according to the scalar quantity of the flow vector after subtraction , the block group is regarded as a stationary object , and the scalar quantity is 0 or 0. if not within the predetermined range in the vicinity, and stationary judgment unit shall be the moving object to the block group,
A vehicle exterior environment recognition device comprising:
相異なる複数の旋回時の挙動にそれぞれ対応させた複数の地面のフローベクトルを保持するデータ保持部をさらに備え、
前記補正フローベクトル抽出部は、前記データ保持部に保持された複数の地面のフローベクトルから、前記移動状態取得部が取得した旋回時の挙動に応じて、前記地面のフローベクトルを抽出することを特徴とする請求項1に記載の車外環境認識装置。
A data holding unit for holding a plurality of ground flow vectors respectively corresponding to a plurality of different turning behaviors;
The correction flow vector extraction unit extracts the ground flow vector from the plurality of ground flow vectors held in the data holding unit according to the turning behavior acquired by the movement state acquisition unit. The outside environment recognition device according to claim 1 characterized by things.
前記静止物判定部に移動物とされた前記ブロック群の前記減算後のフローベクトルを該移動物のフローベクトルとして、該移動物と自車両との衝突判定を行う衝突判定部をさらに備えることを特徴とする請求項1または2に記載の車外環境認識装置。   A collision determination unit that performs a collision determination between the moving object and the host vehicle using the flow vector after the subtraction of the block group set as a moving object in the stationary object determination unit as the flow vector of the moving object; The external environment recognition device according to claim 1 or 2, characterized in that 撮像装置を通じて車外環境を撮像した画像データを取得し、
前記画像データに基づく画像を分割したブロック毎のフローベクトルを導出し、
前記フローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化してブロック群を生成し、その代表値となる代表フローベクトルを求め、
前記撮像装置の旋回時の挙動を取得し、
前記旋回時の挙動に応じて、地面のフローベクトルを抽出し、
前記代表フローベクトルから、前記地面のフローベクトルのうち前記ブロック群における、フローベクトルの変化度合いが変わる境界に位置する代表部位に対応する部位のフローベクトルを減算し、
前記ブロック群のうち、減算後のフローベクトルのスカラ量に応じて、該スカラ量が0もしくは0近傍の所定範囲内であれば、該ブロック群を静止物とし、該スカラ量が0もしくは0近傍の所定範囲内でなければ、該ブロック群を移動物とすることを特徴とする車外環境認識方法。
Obtain image data that captures the environment outside the vehicle through the imaging device,
Deriving a flow vector for each block obtained by dividing an image based on the image data;
The direction of the flow vector and the size thereof are approximate, and adjacent blocks are grouped to generate a block group, and a representative flow vector serving as a representative value is obtained,
Obtaining the behavior of the imaging device when turning,
According to the behavior at the time of turning, the flow vector of the ground is extracted,
From the representative flow vector, subtract the flow vector of the part corresponding to the representative part located at the boundary where the change degree of the flow vector in the block group of the ground flow vector changes ,
In the block group, if the scalar quantity is 0 or within a predetermined range near 0 according to the scalar quantity of the flow vector after subtraction , the block group is regarded as a stationary object , and the scalar quantity is 0 or 0. if not within the predetermined range in the vicinity outside the vehicle environment recognizing method comprising moving object and to Rukoto the block group.
JP2013070334A 2013-03-28 2013-03-28 Outside environment recognition device and outside environment recognition method Active JP6174884B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013070334A JP6174884B2 (en) 2013-03-28 2013-03-28 Outside environment recognition device and outside environment recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013070334A JP6174884B2 (en) 2013-03-28 2013-03-28 Outside environment recognition device and outside environment recognition method

Publications (2)

Publication Number Publication Date
JP2014194618A JP2014194618A (en) 2014-10-09
JP6174884B2 true JP6174884B2 (en) 2017-08-02

Family

ID=51839844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013070334A Active JP6174884B2 (en) 2013-03-28 2013-03-28 Outside environment recognition device and outside environment recognition method

Country Status (1)

Country Link
JP (1) JP6174884B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101840927B1 (en) * 2016-02-24 2018-05-04 (주)베라시스 Apparatus and method for evading collision of vehicle and rear side approach object
JP7211674B2 (en) * 2018-09-27 2023-01-24 株式会社Subaru MOBILE OBJECT MONITORING DEVICE, VEHICLE CONTROL SYSTEM AND TRAFFIC SYSTEM USING THE SAME
JP7311406B2 (en) * 2019-11-26 2023-07-19 株式会社デンソーテン Image processing device and image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239521B2 (en) * 1993-03-30 2001-12-17 トヨタ自動車株式会社 Mobile object recognition device
JP4692344B2 (en) * 2006-03-17 2011-06-01 トヨタ自動車株式会社 Image recognition device
JP4958279B2 (en) * 2006-05-17 2012-06-20 株式会社デンソーアイティーラボラトリ Object detection device

Also Published As

Publication number Publication date
JP2014194618A (en) 2014-10-09

Similar Documents

Publication Publication Date Title
US10242576B2 (en) Obstacle detection device
CN111937002B (en) Obstacle detection device, automatic braking device, obstacle detection method, and automatic braking method
JP5421072B2 (en) Approaching object detection system
US9922259B2 (en) Traffic light detection device and traffic light detection method
KR101243108B1 (en) Apparatus and method for displaying rear image of vehicle
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
EP2743889A2 (en) Stereoscopic camera object detection system and method of aligning the same
JP7077910B2 (en) Bound line detection device and lane marking method
JP6447722B2 (en) Signal detection device and signal detection method
JP6032034B2 (en) Object detection device
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US12030551B2 (en) Image processing device and image processing method
JP7261588B2 (en) Traffic light recognition method and traffic light recognition device
JP5539250B2 (en) Approaching object detection device and approaching object detection method
US9524645B2 (en) Filtering device and environment recognition system
JP2016042226A (en) Traffic light detection device and traffic light detection method
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
WO2011016257A1 (en) Distance calculation device for vehicle
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP6407596B2 (en) Image processing apparatus and driving support system
JP7229032B2 (en) External object detection device
JP7245653B2 (en) Traffic light recognition method and traffic light recognition device
JP5973843B2 (en) Outside environment recognition device and outside environment recognition method
WO2021094799A1 (en) Traffic signal recognition method and traffic signal recognition device
JP5866238B2 (en) Outside environment recognition device and outside environment recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170707

R150 Certificate of patent or registration of utility model

Ref document number: 6174884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250