JP5981857B2 - Outside environment recognition device and outside environment recognition method - Google Patents

Outside environment recognition device and outside environment recognition method Download PDF

Info

Publication number
JP5981857B2
JP5981857B2 JP2013026530A JP2013026530A JP5981857B2 JP 5981857 B2 JP5981857 B2 JP 5981857B2 JP 2013026530 A JP2013026530 A JP 2013026530A JP 2013026530 A JP2013026530 A JP 2013026530A JP 5981857 B2 JP5981857 B2 JP 5981857B2
Authority
JP
Japan
Prior art keywords
image
area
moving
difference
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013026530A
Other languages
Japanese (ja)
Other versions
JP2014157394A (en
Inventor
侑輝 樋口
侑輝 樋口
原也 小川
原也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2013026530A priority Critical patent/JP5981857B2/en
Publication of JP2014157394A publication Critical patent/JP2014157394A/en
Application granted granted Critical
Publication of JP5981857B2 publication Critical patent/JP5981857B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法にかかり、特に、自車両外の移動物を認識し自車両との衝突判定を行う車外環境認識装置および車外環境認識方法に関する。   The present invention relates to an outside environment recognition device and an outside environment recognition method for recognizing an environment outside the host vehicle, and more particularly, an outside environment recognition device and an outside environment that recognize a moving object outside the host vehicle and determine a collision with the host vehicle. It relates to the recognition method.

従来、撮像タイミングを異にする2つの画像の差分に基づく第1移動領域と、2つの画像のうち先に撮像された画像で特定されている移動領域を後に撮像された画像中で探索した結果である第2移動領域とを統合して、1の移動領域を特定する技術が知られている(例えば、特許文献1)。かかる技術を応用することで、例えば、車両に搭載した車載カメラによって自車両の前方の道路環境を撮像し、車両前方に存在する移動物を認識することが可能となる。   Conventionally, a result of searching for a first moving area based on a difference between two images having different imaging timings and a moving area specified by an image captured earlier among the two images in an image captured later A technique for identifying one moving area by integrating the second moving area is known (for example, Patent Document 1). By applying such a technique, for example, a road environment in front of the host vehicle can be imaged by an in-vehicle camera mounted on the vehicle, and a moving object existing in front of the vehicle can be recognized.

また、画像中の移動領域とその他の領域とを分離するため、画素値の閾値を用いて移動領域に属するか否かを判定する技術も公開されている(例えば、特許文献2)。   In addition, a technique for determining whether or not a moving area belongs to a moving area using a threshold value of pixel values in order to separate the moving area and other areas in the image is disclosed (for example, Patent Document 2).

特許第3230509号公報Japanese Patent No. 3230509 特許第2624117号公報Japanese Patent No. 2624117

しかし、特許文献1のように、先に撮像された画像で特定されている移動領域を後に撮像された画像中で探索する、所謂、パターンマッチングを行う場合、両画像を比較する際のブロックの大きさや隣接するブロック間の距離の設定が難しくなる。ブロックの大きさ等に基づいた処理速度と検出精度とはトレードオフの関係にあり、例えば、ブロックの大きさ等を大きくすると、処理速度は向上するが、検出精度が低下する。一方、ブロックの大きさ等を小さくすると、検出精度は向上するが、処理速度が低下する。リアルタイム処理によって移動物との衝突回避を行うシステムでは、高い処理速度と高い検出精度の両方を実現することが望まれる。   However, as in Patent Document 1, in the case of performing so-called pattern matching, in which a moving area specified in an image captured earlier is searched in an image captured later, a block for comparing both images is determined. Setting the size and the distance between adjacent blocks becomes difficult. The processing speed based on the block size and the like and the detection accuracy are in a trade-off relationship. For example, when the block size and the like are increased, the processing speed is improved, but the detection accuracy is lowered. On the other hand, if the block size is reduced, the detection accuracy is improved, but the processing speed is reduced. In a system that avoids collision with a moving object by real-time processing, it is desired to realize both high processing speed and high detection accuracy.

また、特許文献2では、移動領域に属するか否かを、閾値を用いて判定しているが、車外の環境画像は日照条件等に応じて様々に変化するので、画一的な閾値を設定するのは難しく、その閾値を統計的に導出するためにはさらなる処理負荷が生じることとなる。   Further, in Patent Document 2, it is determined by using a threshold value whether or not it belongs to the moving region, but since the environmental image outside the vehicle changes variously depending on the sunlight conditions, a uniform threshold value is set. It is difficult to do so, and further processing load is required to statistically derive the threshold value.

本発明は、このような課題に鑑み、移動領域を分離するための閾値を簡易に設定し、または、閾値を設定することなく、高処理速度かつ高検出精度で移動物を特定することが可能な、車外環境認識装置および車外環境認識方法を提供することを目的としている。   In view of such problems, the present invention can easily set a threshold for separating a moving region, or can specify a moving object with high processing speed and high detection accuracy without setting a threshold. It is another object of the present invention to provide an outside environment recognition device and an outside environment recognition method.

上記課題を解決するために、本発明の車外環境認識装置は、撮像装置を通じて車外環境を撮像した画像データを取得する画像データ取得部と、撮像タイミングを異にする2つの画像データに基づき、画像データが示す画像を分割したブロック毎のフローベクトルを導出するフローベクトル導出部と、フローベクトルのうち移動物とみなすことができるフローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化し、移動物を示す移動領域の候補である移動領域候補を特定する移動領域候補特定部と、2つの画像データのうち、一方の画像データが示す画像における、移動領域候補を含み移動領域候補より大きい領域である比較領域と、他方の画像データが示す画像における、比較領域を移動領域候補のフローベクトル分シフトした領域との画像情報の差分を導出し、第1差分画像を生成する第1差分画像導出部と、2つの画像データのうち、一方の画像データが示す画像における比較領域と、他方の画像データが示す画像における、比較領域と同一の領域との画像情報の差分を導出し、第2差分画像を生成する第2差分画像導出部と、第2差分画像から第1差分画像を減算し第3差分画像を生成する差分画像減算部と、第3差分画像の画像情報の分布傾向に基づいて移動領域を特定する移動領域特定部と、を備えることを特徴とする。   In order to solve the above-described problem, an external environment recognition device according to the present invention is based on an image data acquisition unit that acquires image data obtained by imaging an external environment through an imaging device, and two image data having different imaging timings. A flow vector deriving unit for deriving a flow vector for each block obtained by dividing the image indicated by the data, and the direction and size of the flow vector that can be regarded as a moving object in the flow vectors, and adjacent blocks A moving region candidate specifying unit for specifying a moving region candidate that is a moving region candidate indicating a moving object, and a moving region including a moving region candidate in an image indicated by one of the two image data Flow of moving area candidates in the comparison area that is larger than the candidate and the comparison area in the image indicated by the other image data A first difference image deriving unit for deriving a difference in image information from a region shifted by a Couttle and generating a first difference image, a comparison region in an image indicated by one of the two image data, and the other A second difference image deriving unit for deriving a difference of image information between the comparison area and the same area in the image indicated by the image data, and subtracting the first difference image from the second difference image And a difference image subtracting unit that generates a third difference image, and a moving region specifying unit that specifies a moving region based on a distribution tendency of image information of the third difference image.

移動領域候補特定部はブロック単位でグループ化し、移動領域特定部はブロックより小さい領域単位で移動領域を特定してもよい。   The moving area candidate specifying unit may be grouped in units of blocks, and the moving area specifying unit may specify moving areas in units of areas smaller than the block.

移動領域特定部は、第3差分画像の各画像情報を画像水平方向または垂直方向に加算したヒストグラムを生成し、その符号によって移動領域を特定してもよい。   The moving region specifying unit may generate a histogram obtained by adding each piece of image information of the third difference image in the horizontal or vertical direction of the image, and may specify the moving region based on the sign.

移動領域特定部は、移動領域候補の外枠を探索開始位置として移動領域の外枠を探索してもよい。   The movement area specifying unit may search for the outer frame of the movement area using the outer frame of the movement area candidate as a search start position.

上記課題を解決するために、本発明の車外環境認識方法は、撮像装置を通じて車外環境を撮像した画像データを取得し、撮像タイミングを異にする2つの画像データに基づき、画像データが示す画像を分割したブロック毎のフローベクトルを導出し、フローベクトルのうち移動物とみなすことができるフローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化し、移動物を示す移動領域の候補である移動領域候補を特定し、2つの画像データのうち、一方の画像データが示す画像における、移動領域候補を含み移動領域候補より大きい領域である比較領域と、他方の画像データが示す画像における、比較領域を移動領域候補のフローベクトル分シフトした領域との画像情報の差分を導出し、第1差分画像を生成し、2つの画像データのうち、一方の画像データが示す画像における比較領域と、他方の画像データが示す画像における、比較領域と同一の領域との画像情報の差分を導出し、第2差分画像を生成し、第2差分画像から第1差分画像を減算し第3差分画像を生成し、第3差分画像の画像情報の分布傾向に基づいて移動領域を特定することを特徴とする。   In order to solve the above-described problem, an external environment recognition method of the present invention acquires image data obtained by capturing an external environment through an imaging device, and based on two image data having different imaging timings, an image indicated by the image data is displayed. A moving area that represents a moving object by deriving a flow vector for each divided block, approximating the direction and size of the flow vector that can be regarded as a moving object, and grouping adjacent blocks. A moving region candidate that is a candidate for the image is specified, and the comparison image that is a region that includes the moving region candidate and is larger than the moving region candidate in the image indicated by one of the two image data, and the other image data indicates Deriving a difference in image information from an area obtained by shifting the comparison area by the flow vector of the moving area candidate in the image, and calculating the first difference image The difference between the image information of the comparison area in the image indicated by one image data and the same area as the comparison area in the image indicated by the other image data is derived from the two image data, and the second difference An image is generated, a first difference image is subtracted from the second difference image to generate a third difference image, and a moving region is specified based on a distribution tendency of image information of the third difference image.

本発明によれば、移動領域を分離するための閾値を簡易に設定し、または、閾値を設定することなく、高処理速度かつ高検出精度で移動物を特定することが可能となる。   According to the present invention, it is possible to easily specify a moving object with high processing speed and high detection accuracy without setting a threshold for separating a moving area or setting a threshold.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 撮像装置で生成される画像を説明するための説明図である。It is explanatory drawing for demonstrating the image produced | generated with an imaging device. 部分画像を説明するための説明図である。It is explanatory drawing for demonstrating a partial image. 移動領域候補の特定処理を説明するための説明図である。It is explanatory drawing for demonstrating the specific process of a movement area candidate. フレーム間差分処理を説明するための説明図である。It is explanatory drawing for demonstrating the difference process between frames. フレーム間差分処理を説明するための説明図である。It is explanatory drawing for demonstrating the difference process between frames. フレーム間差分処理を説明するための説明図である。It is explanatory drawing for demonstrating the difference process between frames. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. フローベクトル導出部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a flow vector derivation | leading-out part. 第1差分画像導出部の動作を説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of a 1st difference image derivation | leading-out part. 第2差分画像導出部の動作を説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of a 2nd difference image derivation | leading-out part. 第3差分画像を説明するための説明図である。It is explanatory drawing for demonstrating a 3rd difference image. 画素の輝度の具体的な減算処理を説明するための説明図である。It is explanatory drawing for demonstrating the concrete subtraction process of the brightness | luminance of a pixel. 移動領域特定部の動作を説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of a movement area specific | specification part. 車外環境認識方法の全体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the whole process of the environment recognition method outside a vehicle.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

本実施形態では、自車両の前方に位置する移動物を検出する画像処理技術としてオプティカルフローを用いる。ここで、移動物は、車両、自転車、歩行者といった独立して移動する物を示し、オプティカルフローは、画像上の2次元速度ベクトル場、すなわち画像上の移動物の移動に伴う速度場で表したものである。かかるオプティカルフローでは、例えば、所定周期で撮像された時間方向に連続する2枚の画像間において、同一の部位として認識可能な特徴点の移動をベクトル(以下、「フローベクトル」という。)として算出している。そして撮像した画像内の全領域において、このフローベクトルを算出することで、例えば、自車両が停止した状態におけるフローベクトルの有無のみによって、画像内の移動物の位置および移動物の移動速度や移動方向等の情報を検出することができる。   In the present embodiment, an optical flow is used as an image processing technique for detecting a moving object located in front of the host vehicle. Here, the moving object indicates an object that moves independently, such as a vehicle, a bicycle, or a pedestrian, and the optical flow is represented by a two-dimensional velocity vector field on the image, that is, a velocity field associated with the movement of the moving object on the image. It is a thing. In such an optical flow, for example, the movement of a feature point that can be recognized as the same part between two images that are consecutively captured in a time direction and is imaged at a predetermined cycle is calculated as a vector (hereinafter referred to as “flow vector”). doing. Then, by calculating this flow vector in the entire area in the captured image, for example, the position of the moving object in the image and the moving speed and movement of the moving object only by the presence or absence of the flow vector when the host vehicle is stopped. Information such as direction can be detected.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, a vehicle exterior environment recognition device 120, and a vehicle control device (ECU: Engine Control Unit) 130 provided in the host vehicle 1.

撮像装置110は、広角(広画角)レンズ、および、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方において、光軸を水平より少し下方に向けて設置される。撮像装置110は、自車両1の前方に相当する環境を撮像し、3つの色相(R(赤)、G(緑)、B(青))からなるカラー画像やモノクロ画像を生成することができる。ここで、広角レンズは、標準レンズに比べ画角(視野角)が比較的広い(例えば、120度以上)、または、焦点距離が比較的短いレンズをいい、例えば、広角レンズとして魚眼レンズを用い、撮像装置110を中心とする半球状に広がる空間を撮像することができる。   The imaging device 110 includes an imaging element such as a wide angle (wide field angle) lens and a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and an optical axis in front of the host vehicle 1. Is installed with the side facing down slightly from the horizontal. The imaging device 110 can capture an environment corresponding to the front of the host vehicle 1 and generate a color image or a monochrome image composed of three hues (R (red), G (green), and B (blue)). . Here, the wide-angle lens refers to a lens having a relatively wide angle of view (viewing angle) compared to a standard lens (for example, 120 degrees or more) or a relatively short focal length. For example, a fish-eye lens is used as a wide-angle lens, A hemispherical space centered on the imaging device 110 can be imaged.

なお、本実施形態の撮像装置110の射影方式は、立体射影を用いているが、例えば、透視射影等、既存の様々な射影方法を採用することができる。ここでは、広角レンズとして魚眼レンズを用いる例を挙げて説明するが、円錐状(アキシコン)プリズム等、様々な広角レンズを用いることもできる。また、レンズの画角を120度以上としたのは、十字路またはT字路において、自車両1が停止線に停止した場合に、直交する道路の状況まで適切に把握させるためである。   Note that the projection method of the imaging apparatus 110 according to the present embodiment uses a three-dimensional projection, but various existing projection methods such as a perspective projection can be employed. Here, an example in which a fish-eye lens is used as the wide-angle lens will be described, but various wide-angle lenses such as a conical (axicon) prism can also be used. The reason why the angle of view of the lens is set to 120 degrees or more is to allow the vehicle 1 to properly grasp the situation of the orthogonal road when the host vehicle 1 stops at the stop line on the cross road or the T-shaped road.

図2は、撮像装置110で生成される画像を説明するための説明図である。図2を参照して理解できるように、撮像装置110で生成された画像(以下、「環境画像」という。)200は、円周魚眼レンズを通じて、画像の中心からの距離に対して角度が単調増加するように描かれている(立体射影方式)。したがって、自車両1の進行方向の画像の分解能を維持しつつ、広範囲の環境画像200を一度に取得することができる。   FIG. 2 is an explanatory diagram for explaining an image generated by the imaging apparatus 110. As can be understood with reference to FIG. 2, an image 200 (hereinafter referred to as “environment image”) 200 generated by the imaging device 110 has a monotonically increasing angle with respect to the distance from the center of the image through a circumferential fisheye lens. (3D projection method). Therefore, it is possible to acquire a wide range of environmental images 200 at a time while maintaining the resolution of the image in the traveling direction of the host vehicle 1.

また、撮像装置110は、環境画像200をデータ化した画像データを、例えば1/10秒毎(10fps)に連続して生成する。以下の実施形態における各機能部は、このような画像データの更新を契機として各処理を遂行する。したがって、各機能部は、フレーム単位で処理を繰り返すこととなる。   In addition, the imaging device 110 continuously generates image data obtained by converting the environment image 200 into data, for example, every 1/10 second (10 fps). Each functional unit in the following embodiment performs each process triggered by such update of image data. Therefore, each functional unit repeats the process in units of frames.

車外環境認識装置120は、撮像装置110から、環境画像200を示す画像データを取得し、撮像タイミングの異なる2つの画像データからパターンマッチングを用いて、オプティカルフロー技術に基づくフローベクトルを導出する。ただし、車外環境認識装置120では、環境画像200中の必要な部分のみ切り出した部分画像を利用してフローベクトルを導出する。   The outside-vehicle environment recognition device 120 acquires image data indicating the environment image 200 from the imaging device 110, and derives a flow vector based on the optical flow technique using pattern matching from two image data having different imaging timings. However, the vehicle environment recognition apparatus 120 derives a flow vector using a partial image obtained by cutting out only a necessary portion in the environmental image 200.

図3は、部分画像202を説明するための説明図である。上述したように、図2に示した環境画像200では、広画角の画像を一度に取得できるので、自車両1の前方のみならず、左右いずれの方向(水平方向)から接近する移動物も特定することが可能となる。しかし、環境画像200では、画像の中心からの距離と角度がおよそ比例するので、中心からの距離が離れるほど、画像が歪むこととなる。例えば、図2の環境画像200における4つの角に近い領域では、実際には水平に延びている物が、環境画像200では湾曲して表示され、その端部は垂直方向の成分を含んでいるように視認され得る。ここで、「水平」は、撮像した環境画像200の画面横方向を示し、「垂直」は、撮像した環境画像200の画面縦方向を示す。   FIG. 3 is an explanatory diagram for explaining the partial image 202. As described above, in the environment image 200 shown in FIG. 2, since a wide-angle image can be acquired at once, not only the front of the host vehicle 1 but also moving objects approaching from either the left or right direction (horizontal direction) It becomes possible to specify. However, in the environment image 200, since the distance from the center of the image and the angle are approximately proportional, the image is distorted as the distance from the center increases. For example, in the area close to the four corners in the environment image 200 of FIG. 2, an object that actually extends horizontally is displayed curved in the environment image 200, and its end includes a vertical component. Can be visually recognized. Here, “horizontal” indicates the screen horizontal direction of the captured environment image 200, and “vertical” indicates the screen vertical direction of the captured environment image 200.

そこで、車外環境認識装置120は、図2に示した環境画像200のうち、交通環境において特定すべき移動物が存在する、図2中破線で示した領域、すなわち、歪みの少ない環境画像200の中央領域と、その水平方向左右の領域とを合わせた、図3に示す部分画像202を切り出す。そして、その部分画像202に対してオプティカルフローに基づくフローベクトルを導出する。   Therefore, the outside environment recognition apparatus 120 includes a region indicated by a broken line in FIG. 2 where there is a moving object to be specified in the traffic environment in the environment image 200 shown in FIG. A partial image 202 shown in FIG. 3 is cut out by combining the central region and the left and right regions in the horizontal direction. Then, a flow vector based on the optical flow is derived for the partial image 202.

続いて、車外環境認識装置120は、部分画像202のフローベクトルおよび各画素の輝度(画像情報)を用いて、部分画像202中から、移動物に対応する移動領域を特定する。かかる移動領域の特定処理は本実施形態の特徴的な部分なので後程詳述する。   Subsequently, the vehicle exterior environment recognition apparatus 120 specifies a moving area corresponding to the moving object from the partial image 202 using the flow vector of the partial image 202 and the luminance (image information) of each pixel. Since this moving area specifying process is a characteristic part of this embodiment, it will be described in detail later.

また、車外環境認識装置120は、このように移動領域が特定されると、その移動領域の画像上の位置に基づいて、移動物の自車両1からの距離や、距離を含む3次元位置、および、移動物の大きさを推定する。これは、以下の関係を用いている。すなわち、撮像装置110を自車両1の前方先端かつ車幅方向の中央に位置させ、撮像方向を進行方向と等しく、また、主軸が水平方向かそれより下向きになるように設置した場合、画像上には自車両1前方の地面(地表面)が映し出される。自車両1と地面との位置関係は、自車両1の挙動や地面の形状等により瞬時的には変化するものの、定常的には一定の位置関係となり、その位置関係は撮像装置110を車両に搭載した時の設置条件から求めることができる。したがって、移動物の位置、具体的には、移動物の接地点を特定できれば、その移動物の自車両1からの距離や大きさを導出したり、大凡の3次元位置を特定することが可能となる。かかる距離の導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。   Further, when the moving area is specified in this way, the vehicle exterior environment recognition apparatus 120 determines the distance of the moving object from the own vehicle 1 based on the position of the moving area on the image, the three-dimensional position including the distance, And the size of the moving object is estimated. This uses the following relationship: That is, when the imaging device 110 is positioned at the front end of the host vehicle 1 and at the center in the vehicle width direction, the imaging direction is equal to the traveling direction, and the main shaft is horizontal or downward, Shows the ground (ground surface) in front of the host vehicle 1. Although the positional relationship between the host vehicle 1 and the ground changes instantaneously depending on the behavior of the host vehicle 1, the shape of the ground, and the like, the positional relationship is constantly constant, and the positional relationship is related to the imaging device 110 being attached to the vehicle. It can be determined from the installation conditions when installed. Therefore, if the position of the moving object, specifically, the ground contact point of the moving object can be specified, the distance and size of the moving object from the host vehicle 1 can be derived, or an approximate three-dimensional position can be specified. It becomes. Since various known techniques can be applied to the distance deriving process and the three-dimensional position specifying process, description thereof is omitted here.

また、移動物の3次元位置を特定すると、車外環境認識装置120は、移動領域を参照して移動物を追跡し、また、その移動物と自車両1とが衝突する可能性が高いか否かの判定を行う。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。   Further, when the three-dimensional position of the moving object is specified, the vehicle exterior environment recognition apparatus 120 tracks the moving object with reference to the moving area, and whether the moving object and the host vehicle 1 are highly likely to collide with each other. Judgment is made. Here, when it is determined that the possibility of the collision is high, the outside environment recognition device 120 displays a warning (notification) to the driver through the display 122 installed in front of the driver, and the vehicle control device. Information indicating that is output to 130.

図1に戻って説明すると、車両制御装置130は、車外環境認識装置120で特定された移動物との衝突を回避する。具体的に、車両制御装置130は、操舵の角度を検出する舵角センサ132や、自車両1の速度を検出する速度センサ134等を通じて現在の自車両1の走行状態を取得し、アクチュエータ136を制御して先行車両との車間距離を安全な距離に保つ。ここで、アクチュエータ136は、ブレーキ、スロットルバルブ、舵角等を制御するために用いられる車両制御用のアクチュエータである。また、車両制御装置130は、移動物との衝突が想定される場合、アクチュエータ136を制御して自車両1を自動的に制動する。かかる車両制御装置130は、車外環境認識装置120と一体的に形成することもできる。   Returning to FIG. 1, the vehicle control device 130 avoids a collision with a moving object specified by the outside environment recognition device 120. Specifically, the vehicle control device 130 acquires the current traveling state of the host vehicle 1 through the rudder angle sensor 132 that detects the steering angle, the speed sensor 134 that detects the speed of the host vehicle 1, and the like. Control to keep the distance from the preceding vehicle at a safe distance. Here, the actuator 136 is a vehicle control actuator used to control a brake, a throttle valve, a steering angle, and the like. Further, when a collision with a moving object is assumed, the vehicle control device 130 controls the actuator 136 to automatically brake the host vehicle 1. Such a vehicle control device 130 can also be formed integrally with the outside environment recognition device 120.

(移動領域の特定)
上述したように、パターンマッチングを用いて移動領域を特定する場合、撮像タイミングの異なる2つの画像を比較する際のブロックの大きさや隣接するブロック間の距離の設定は難しく、処理速度と検出精度との一方を優先させると他方が劣化する。また、車外の部分画像202は日照条件等に応じて様々に変化するので、移動領域であるか、それ以外の領域であるかを判定するための閾値を画一的に設定するのは困難である。
(Identification of moving area)
As described above, when specifying a moving region using pattern matching, it is difficult to set the size of a block and the distance between adjacent blocks when comparing two images with different imaging timings. If one of these is prioritized, the other deteriorates. Moreover, since the partial image 202 outside the vehicle changes variously depending on the sunlight conditions, it is difficult to set a threshold value for determining whether the region is a moving region or other region. is there.

そこで、本実施形態では、2段階の処理を経由して移動領域を特定する。まず、第1段階として、部分画像202を用い、所定の大きさのブロックでオプティカルフローを求め、移動領域の候補である移動領域候補を特定する。   Therefore, in the present embodiment, the moving area is specified through two stages of processing. First, as a first step, the partial image 202 is used to obtain an optical flow with a block having a predetermined size, and a moving area candidate that is a moving area candidate is specified.

本実施形態においては、フローベクトルを導出するためのパターンマッチングを行うべく、前回フレームで取得した画像データを、少なくとも今回のフレームまで一時的に保持する。ここで、前回のフレームにおける画像データを「前回画像データ」といい、今回のフレームにおける画像データを「今回画像データ」という。そして、前回画像データが示す画像中の任意のブロックと相関値の高いブロックが、今回画像データが示す画像に含まれる場合、そのブロック同士を結んだベクトルがフローベクトルとなる。   In the present embodiment, in order to perform pattern matching for deriving a flow vector, the image data acquired in the previous frame is temporarily held at least until the current frame. Here, the image data in the previous frame is referred to as “previous image data”, and the image data in the current frame is referred to as “current image data”. If a block having a high correlation value with an arbitrary block in the image indicated by the previous image data is included in the image indicated by the current image data, a vector connecting the blocks becomes a flow vector.

図4は、移動領域候補212の特定処理を説明するための説明図である。例えば、自車両1が直進すると、図4のように、部分画像202における背景に対応する領域(以下、「背景領域」という。)210では、部分画像202の中央から外側に向かうフローベクトルが生じる。このとき、部分画像202上に画像の外側から中央に向かうフローベクトルがあれば、そこには撮像装置110の前側方より自車両1に接近している物体が映っているとみなすことができる。このようなフローベクトルを有するブロック群を移動領域候補212とする。   FIG. 4 is an explanatory diagram for explaining the specifying process of the moving area candidate 212. For example, when the host vehicle 1 goes straight, as shown in FIG. 4, in a region 210 corresponding to the background (hereinafter referred to as “background region”) 210 in the partial image 202, a flow vector is generated from the center of the partial image 202 to the outside. . At this time, if there is a flow vector on the partial image 202 from the outside to the center of the image, it can be considered that an object approaching the host vehicle 1 is reflected from the front side of the imaging device 110 there. A block group having such a flow vector is set as a moving area candidate 212.

ただし、第1段階では、構成する画素数が比較的多い(例えば、水平8画素×垂直8画素)ブロック単位でフローベクトルを導出しているので、移動領域候補212を特定する処理速度は高いものの、移動領域候補212の外枠が実際の移動物を示すとは限らない。すなわち、まだ、検出精度は低いといえる。   However, in the first stage, since the flow vector is derived in units of blocks having a relatively large number of pixels (for example, horizontal 8 pixels × vertical 8 pixels), the processing speed for specifying the moving region candidate 212 is high. The outer frame of the moving area candidate 212 does not always indicate an actual moving object. That is, the detection accuracy is still low.

そして、第2段階として、部分画像202の輝度(画像情報)を利用し、移動領域候補212を含み移動領域候補212より大きい比較領域といった限定された領域において、上記のブロックより小さい領域単位、例えば、画素単位で高精度に移動領域を特定する。ここで、比較領域を移動領域候補212より大きくとるのは、移動領域候補212が真の移動領域を包含していない場合にも対応できるようにするためである。ここでは、処理対象を比較領域に限定することで処理速度を高め、かつ、小さい領域単位といった高い検出精度で移動領域を特定できる。こうして、高処理速度と高検出精度とを同時に実現することができる。   Then, as a second stage, using the luminance (image information) of the partial image 202, in a limited area including the moving area candidate 212 and larger than the moving area candidate 212, an area unit smaller than the above block, for example, The moving region is specified with high accuracy in pixel units. Here, the reason why the comparison area is set larger than the moving area candidate 212 is to allow the case where the moving area candidate 212 does not include a true moving area. Here, by limiting the processing target to the comparison area, the processing speed can be increased, and the moving area can be specified with high detection accuracy such as a small area unit. Thus, high processing speed and high detection accuracy can be realized at the same time.

また、閾値の設定が難しい問題は、以下のように対応する。すなわち、連続するフレームで撮像された2つの画像の差分をとるフレーム間差分処理を2つの観点で実行する。   Further, the problem that it is difficult to set the threshold value is handled as follows. That is, the inter-frame difference process that takes the difference between two images captured in consecutive frames is executed from two viewpoints.

図5〜図7は、フレーム間差分処理を説明するための説明図である。図5(a)は、今回画像データが示す画像を、図5(b)は、前回画像データが示す画像を表している。上述した第1段階で図5(a)の如く今回画像データが示す画像中の移動領域候補212が特定されるので、移動領域候補212を含み移動領域候補212より大きい比較領域214も特定される。   5 to 7 are explanatory diagrams for explaining the inter-frame difference processing. FIG. 5A shows an image indicated by the current image data, and FIG. 5B shows an image indicated by the previous image data. 5A, the moving area candidate 212 in the image indicated by the current image data is specified as shown in FIG. 5A. Therefore, the comparison area 214 including the moving area candidate 212 and larger than the moving area candidate 212 is also specified. .

フレーム間差分処理の第1の観点は、図6(a)に示す今回画像データが示す画像における比較領域214と、図6(b)に示す前回画像データが示す画像において、比較領域214を移動領域候補212のフローベクトル分シフトした領域216との画像情報の差分を導出し、図6(c)の如く第1差分画像218を生成することである。   The first viewpoint of the inter-frame difference processing is to move the comparison area 214 in the comparison area 214 in the image indicated by the current image data shown in FIG. 6A and the image indicated in the previous image data shown in FIG. The difference of the image information from the region 216 shifted by the flow vector of the region candidate 212 is derived, and the first difference image 218 is generated as shown in FIG.

この場合、移動領域候補212に相当する画像が重なり、その背景領域210に相当する画像がずれる。したがって、図6(c)においてクロスハッチングしたように移動領域候補212に相当する領域では輝度の差分の絶対値が小さくなり、図6(c)において白で塗りつぶしたように背景領域210では輝度の差分の絶対値が大きくなる。   In this case, images corresponding to the movement area candidate 212 overlap, and an image corresponding to the background area 210 is shifted. Therefore, the absolute value of the difference in luminance is small in the region corresponding to the moving region candidate 212 as shown in FIG. 6C, and the luminance in the background region 210 as shown in white in FIG. 6C. The absolute value of the difference increases.

フレーム間差分処理の第2の観点は、図7(a)に示す今回画像データが示す画像における比較領域214と、図7(b)に示す前回画像データが示す画像における、図7(a)の比較領域214と同一の領域222との画像情報の差分を導出し、図7(c)に示す第2差分画像224を生成することである。   The second aspect of the inter-frame difference processing is that the comparison area 214 in the image indicated by the current image data shown in FIG. 7A and the image shown in the previous image data shown in FIG. A difference between image information of the comparison area 214 and the same area 222 is derived, and a second difference image 224 shown in FIG. 7C is generated.

この場合、背景領域210に相当する画像が重なり、移動領域候補212に相当する画像がずれる。したがって、図7(c)において白で塗りつぶしたように移動領域候補212に相当する領域では輝度の差分の絶対値が大きくなり、図7(c)においてクロスハッチングしたように背景領域210では輝度の差分の絶対値が小さくなる。   In this case, images corresponding to the background area 210 are overlapped, and an image corresponding to the movement area candidate 212 is shifted. Therefore, the absolute value of the luminance difference is large in the region corresponding to the moving region candidate 212 as shown in white in FIG. 7C, and the luminance in the background region 210 is cross-hatched in FIG. 7C. The absolute value of the difference becomes smaller.

本実施形態では、上記2つの観点で生成した図6(c)の第1差分画像218と図7(c)の第2差分画像224との輝度が反転することを利用して、移動領域を特定する。すなわち、比較領域214内の各輝度を比較し、第1差分画像218より第2差分画像224の方が輝度の絶対値が大きい画素は、移動領域とみなすことができ、第1差分画像218より第2差分画像224の方が輝度の絶対値が小さい画素は、移動領域以外の例えば背景領域210とみなすことができる。したがって、真の移動領域と、移動領域以外の領域とを、±0の画一的な閾値を用いて分離したり、または、閾値を設定することなくどちらの輝度の絶対値が大きいか否かのみによって分離することができる。以下に、このような処理を実現するための車外環境認識装置120を具体的に説明し、その後で、車外環境認識方法について詳述する。   In the present embodiment, the moving region is defined by utilizing the fact that the luminance of the first difference image 218 in FIG. 6C and the second difference image 224 in FIG. Identify. That is, each luminance in the comparison area 214 is compared, and a pixel whose absolute value of luminance is larger in the second difference image 224 than in the first difference image 218 can be regarded as a moving area. A pixel having a smaller luminance absolute value in the second difference image 224 can be regarded as a background area 210 other than the moving area, for example. Therefore, whether the true moving area and the area other than the moving area are separated by using a uniform threshold value of ± 0, or which luminance has a larger absolute value without setting a threshold value. Can only be separated. Hereinafter, the vehicle environment recognition apparatus 120 for realizing such processing will be specifically described, and then the vehicle environment recognition method will be described in detail.

(車外環境認識装置120)
図8は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図8に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 8 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 8, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持する。また、データ保持部152は、画像内の各ブロック、または、各画素それぞれに対し1の3次元位置が対応付けられたテーブルや、撮像装置110から受信した画像データ(前回画像データ)を一時的に保持する。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like, and holds various pieces of information necessary for processing of each functional unit described below. In addition, the data holding unit 152 temporarily stores a table in which one 3D position is associated with each block or each pixel in the image, and image data (previous image data) received from the imaging device 110. Hold on.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150やデータ保持部152を制御する。また、本実施形態において、中央制御部154は、画像データ取得部160、画像切出部162、フローベクトル導出部164、移動領域候補特定部166、第1差分画像導出部168、第2差分画像導出部170、差分画像減算部172、移動領域特定部174、移動物状態導出部176、衝突判定部178、報知部180、画像保持部182等の機能部としても機能する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program and the like, a RAM as a work area, and the like, and through the system bus 156, the I / F unit 150 and the data holding unit. 152 is controlled. In the present embodiment, the central control unit 154 includes the image data acquisition unit 160, the image cutout unit 162, the flow vector derivation unit 164, the moving region candidate identification unit 166, the first difference image derivation unit 168, and the second difference image. It also functions as functional units such as a deriving unit 170, a difference image subtracting unit 172, a moving region specifying unit 174, a moving object state deriving unit 176, a collision determination unit 178, a notification unit 180, and an image holding unit 182.

画像データ取得部160は、I/F部150を通じて撮像装置110から車外環境を撮像した画像データを取得する。   The image data acquisition unit 160 acquires image data obtained by imaging the environment outside the vehicle from the imaging device 110 through the I / F unit 150.

画像切出部162は、画像データ取得部160が取得した今回画像データに基づく図2に示したような環境画像200から、予め定められた位置および大きさの図3に示したような部分画像202を切り出す。   The image cutout unit 162 is a partial image as shown in FIG. 3 having a predetermined position and size from the environment image 200 shown in FIG. 2 based on the current image data acquired by the image data acquisition unit 160. 202 is cut out.

フローベクトル導出部164は、撮像タイミングを異にする2つの画像データ(前回画像データと今回画像データ)に基づき、所謂、パターンマッチングを通じて、画像切出部162が切り出した部分画像202を分割したブロック毎のフローベクトルを導出する。ここでは、予め定められたブロックの大きさや隣接するブロック間の距離が設定される。かかるブロックの大きさ等は、検出すべき移動領域の下限の大きさや、最低限必要な分解能等に基づいて決定される。   The flow vector deriving unit 164 is a block obtained by dividing the partial image 202 cut out by the image cutout unit 162 through so-called pattern matching based on two pieces of image data (previous image data and current image data) having different imaging timings. The flow vector for each is derived. Here, a predetermined block size and a distance between adjacent blocks are set. The block size and the like are determined based on the lower limit size of the moving region to be detected, the minimum necessary resolution, and the like.

図9は、フローベクトル導出部164の処理を説明するための説明図である。フローベクトル導出部164は、データ保持部152に記憶された前回画像データに基づく図9(a)に示した部分画像202から任意に抽出したブロック230aに対応する(相関値の高い)ブロック230bを、今回画像データに基づく図9(b)に示した部分画像202から検出する(パターンマッチング)。このとき前回画像データに対応するブロック230aから今回画像データに対応するブロック230bまでの、図9(b)中、矢印で示す移動軌跡がオプティカルフローにおけるフローベクトルとなる。   FIG. 9 is an explanatory diagram for explaining the processing of the flow vector deriving unit 164. The flow vector deriving unit 164 selects a block 230b corresponding to the block 230a arbitrarily extracted from the partial image 202 shown in FIG. 9A based on the previous image data stored in the data holding unit 152 (high correlation value). Then, detection is performed from the partial image 202 shown in FIG. 9B based on the current image data (pattern matching). At this time, the movement trajectory indicated by the arrow in FIG. 9B from the block 230a corresponding to the previous image data to the block 230b corresponding to the current image data becomes the flow vector in the optical flow.

かかるパターンマッチングとしては、前回画像データおよび今回画像データ間において、任意の画像位置を示すブロック単位で輝度を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。車外環境認識装置120は、このようなブロック単位のフローベクトル導出処理を部分画像202(例えば、640画素×128画素)に映し出されている全てのブロックについて行う。また、ブロック内の画素数は任意に設定することができるが、ここでは、ブロックを水平8画素×垂直8画素としている。   As such pattern matching, it is conceivable to compare the luminance in units of blocks indicating arbitrary image positions between the previous image data and the current image data. For example, SAD (Sum of Absolute Difference) that takes the difference in luminance, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of the variance value obtained by subtracting the average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The vehicle exterior environment recognition apparatus 120 performs such block-based flow vector derivation processing for all blocks displayed in the partial image 202 (for example, 640 pixels × 128 pixels). Further, the number of pixels in the block can be arbitrarily set, but here, the block is assumed to be 8 horizontal pixels × 8 vertical pixels.

このようにして、フローベクトル導出部164は、図9(c)の如く、今回画像データに対応する部分画像202のフローベクトルを導出することができる。かかる矢印の長さがフローベクトルの大きさ、矢印の向きがフローベクトルの向きを示す。また、フローベクトルは、本来、導出単位である、例えば、所定数の画素で構成されたブロックと同数あるが、ここでは、理解を容易にするためフローベクトルの数を制限して表している。フローベクトルの導出方法は、上記以外にも様々な公知技術を適用できる。   In this way, the flow vector deriving unit 164 can derive the flow vector of the partial image 202 corresponding to the current image data, as shown in FIG. 9C. The length of the arrow indicates the size of the flow vector, and the direction of the arrow indicates the direction of the flow vector. In addition, the number of flow vectors is essentially the same as the number of blocks composed of a predetermined number of pixels, which is a derived unit. However, here, the number of flow vectors is limited to facilitate understanding. In addition to the above, various known techniques can be applied to the flow vector derivation method.

移動領域候補特定部166は、フローベクトル導出部164が導出したフローベクトルのうち移動物とみなすことができるフローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化し、移動領域の候補である移動領域候補212を特定する。   The moving region candidate specifying unit 166 approximates the direction and size of a flow vector that can be regarded as a moving object among the flow vectors derived by the flow vector deriving unit 164, and groups adjacent blocks to move. A moving area candidate 212 that is an area candidate is specified.

例えば、フローベクトルは、画像中の特徴点の移動によって生成されるので、自車両1の移動に伴い、図9(c)に示したように、移動領域候補212のみならず、背景領域210にもフローベクトルが生じる。また、本実施形態では、広角レンズが用いられているので、部分画像202の中心と比較して側方にずれるに連れて、背景領域210のフローベクトルの大きさが大きくなっているのが分かる。   For example, since the flow vector is generated by the movement of the feature point in the image, as shown in FIG. 9C, not only the movement area candidate 212 but also the background area 210 as the host vehicle 1 moves. Also produces a flow vector. Further, in this embodiment, since a wide-angle lens is used, it can be seen that the flow vector of the background area 210 increases as it shifts to the side as compared with the center of the partial image 202. .

また、撮像装置110を自車両1の前方先端かつ車幅方向の中央に位置させ、撮像方向を進行方向と等しくなるように設置した場合、図9(c)に示すように、背景領域210のフローベクトルの水平方向の向きは、部分画像202の水平方向の中央に垂直に延長した中央基準線240を境に左右で反転する。   Further, when the imaging device 110 is positioned at the front end of the host vehicle 1 and at the center in the vehicle width direction and the imaging direction is set to be equal to the traveling direction, as shown in FIG. The horizontal direction of the flow vector is reversed left and right with a central reference line 240 extending perpendicularly to the horizontal center of the partial image 202.

このとき、図9(c)に示した部分画像202を、中央基準線240を基準に、左側領域と右側領域とに分けると、背景領域210のフローベクトルが中央基準線240から遠ざかる方向に生じる。これに対し、自車両1に接近する移動物に対応する移動領域候補212のフローベクトルは中央基準線240に近づく方向に生じているのが分かる。   At this time, if the partial image 202 shown in FIG. 9C is divided into a left region and a right region based on the central reference line 240, the flow vector of the background region 210 is generated in a direction away from the central reference line 240. . On the other hand, it can be seen that the flow vector of the moving area candidate 212 corresponding to the moving object approaching the host vehicle 1 is generated in the direction approaching the center reference line 240.

そこで、中央基準線240に従い水平方向に領域を二分し、左側領域において右方向を向いているフローベクトル、または、図9(c)の如く、右側領域において左方向を向いているフローベクトルを検出し、それらを移動領域候補212のフローベクトルとみなすことができる。   Therefore, a flow vector that divides the region horizontally in accordance with the center reference line 240 and that faces the right direction in the left region or a flow vector that faces the left direction in the right region as shown in FIG. 9C is detected. These can be regarded as the flow vectors of the moving area candidate 212.

そして、移動領域候補特定部166は、移動領域候補212とみなせるフローベクトルから隣接するブロック同士のフローベクトルを順次比較し、フローベクトルの方向およびその大きさが近似する(例えば、方向が±30度以内かつ大きさの差分が8画素以内である)ブロックをグループ化する。そして、グループ化したブロック群を移動領域候補212とする。このような移動領域候補212の特定方法は、上記以外にも様々な公知技術を適用できる。   Then, the moving region candidate specifying unit 166 sequentially compares the flow vectors of adjacent blocks from the flow vector that can be regarded as the moving region candidate 212, and approximates the direction and the magnitude of the flow vector (for example, the direction is ± 30 degrees). And blocks whose size is within 8 pixels). Then, the grouped block group is set as a movement area candidate 212. In addition to the above, various known techniques can be applied to such a method for specifying the moving area candidate 212.

第1差分画像導出部168は、今回画像データが示す画像における移動領域候補212を含み移動領域候補212より大きい比較領域214を設定する。比較領域214の大きさは真の移動領域を包含できる大きさであれば足り、例えば、移動領域候補212より水平方向の左右、垂直方向の上下それぞれが、フローベクトル導出部164の処理における1ブロック分大きいとしてもよい。そして、第1差分画像導出部168は、今回画像データが示す画像における比較領域214と、前回画像データが示す画像における、比較領域214を移動領域候補212のフローベクトル分シフトした領域216との画素の差分を導出し、第1差分画像218を生成する。ここでは、差分を導出する単位は、フローベクトル導出部164の処理におけるブロック単位より小さい領域、例えば、画素単位である。   The first difference image deriving unit 168 sets a comparison area 214 that includes the movement area candidate 212 in the image indicated by the current image data and is larger than the movement area candidate 212. The size of the comparison area 214 only needs to be large enough to include the true movement area. For example, each of the left and right in the horizontal direction and the upper and lower in the vertical direction from the movement area candidate 212 is one block in the processing of the flow vector deriving unit 164. It may be larger. Then, the first difference image deriving unit 168 includes pixels of the comparison area 214 in the image indicated by the current image data and the area 216 obtained by shifting the comparison area 214 by the flow vector of the movement area candidate 212 in the image indicated by the previous image data. The first difference image 218 is generated. Here, the unit for deriving the difference is an area smaller than the block unit in the processing of the flow vector deriving unit 164, for example, a pixel unit.

図10は、第1差分画像導出部168の動作を説明するための説明図である。第1差分画像導出部168は、図10(a)に示す今回画像データが示す画像における比較領域214と、図10(b)に示す前回画像データが示す画像において、図10(a)の比較領域214を移動領域候補212のフローベクトル分シフトした領域216との画像情報の差分を導出し、図10(c)の如く第1差分画像218を生成する。ただし、比較領域214とシフトした領域216はその大きさが等しい。また、シフトするフローベクトルは、移動領域候補212を構成するブロック全てのフローベクトルの平均値をとってもよいし、メディアンをとってもよい。   FIG. 10 is an explanatory diagram for explaining the operation of the first difference image deriving unit 168. The first difference image deriving unit 168 compares the comparison area 214 in the image indicated by the current image data shown in FIG. 10A with the image shown in the previous image data shown in FIG. A difference in image information from the region 216 obtained by shifting the region 214 by the flow vector of the moving region candidate 212 is derived, and a first difference image 218 is generated as shown in FIG. However, the comparison area 214 and the shifted area 216 are equal in size. In addition, the flow vector to be shifted may take an average value of all the flow vectors constituting the moving region candidate 212 or may take a median.

ここでは、移動領域に相当する画像が重なり、その背景領域210に相当する画像がずれる。したがって、図10(c)においてハッチングしたように移動領域に相当する領域では輝度の差分の絶対値が小さくなり、図10(c)において白で塗りつぶしたように背景領域210では輝度の差分の絶対値が大きくなる。   Here, the images corresponding to the moving area overlap, and the image corresponding to the background area 210 is shifted. Therefore, the absolute value of the luminance difference is small in the region corresponding to the moving region as hatched in FIG. 10C, and the absolute value of the luminance difference in the background region 210 is filled in white in FIG. 10C. The value increases.

第2差分画像導出部170は、今回画像データが示す画像における比較領域214と、前回画像データが示す画像における、比較領域214と同一の領域222との画素の差分を導出し、第2差分画像224を生成する。   The second difference image deriving unit 170 derives a pixel difference between the comparison area 214 in the image indicated by the current image data and the area 222 that is the same as the comparison area 214 in the image indicated by the previous image data. 224 is generated.

図11は、第2差分画像導出部170の動作を説明するための説明図である。第2差分画像導出部170は、図11(a)に示す今回画像データが示す画像における比較領域214と、図11(b)に示す前回画像データが示す画像における、比較領域214と同一の領域222との画素の差分を導出し、図11(c)の如く第2差分画像224を生成する。   FIG. 11 is an explanatory diagram for explaining the operation of the second difference image deriving unit 170. The second difference image deriving unit 170 is the same area as the comparison area 214 in the image indicated by the current image data shown in FIG. 11A and the comparison area 214 in the image indicated by the previous image data shown in FIG. A pixel difference from 222 is derived, and a second difference image 224 is generated as shown in FIG.

ここでは、背景領域210に相当する画像が重なり、移動領域に相当する画像がずれる。したがって、図11(c)において白で塗りつぶしたように移動領域に相当する領域では輝度の差分の絶対値が大きくなり、図11(c)においてハッチングしたように背景領域210では輝度の差分の絶対値が小さくなる。   Here, images corresponding to the background area 210 are overlapped, and an image corresponding to the moving area is shifted. Therefore, the absolute value of the luminance difference is large in the area corresponding to the moving area as shown in white in FIG. 11C, and the absolute luminance difference is absolute in the background area 210 as hatched in FIG. 11C. The value becomes smaller.

ただし、自車両1の移動に伴い、撮像装置110が移動すると、前回画像データと今回画像データとでは厳密には背景領域210が異なることとなる。ここで、背景が十分遠方にあり、撮像装置110が10km/hで直進している場合、フレーム間の背景の変化が小さくなる。また、撮像装置110が10km/hより速かったり、旋回を伴って移動する場合、速度と角速度とに基づいて前回画像データの画像の切り出し位置を補正することで、背景領域210の変化を小さくすることができる。   However, if the imaging device 110 moves with the movement of the host vehicle 1, the background area 210 is strictly different between the previous image data and the current image data. Here, when the background is sufficiently far away and the imaging apparatus 110 is traveling straight at 10 km / h, the background change between frames is small. Further, when the imaging device 110 is faster than 10 km / h or moves with a turn, the change in the background region 210 is reduced by correcting the image cutout position of the previous image data based on the speed and the angular velocity. be able to.

差分画像減算部172は、第2差分画像224から第1差分画像218を減算し第3差分画像を生成する。   The difference image subtraction unit 172 subtracts the first difference image 218 from the second difference image 224 to generate a third difference image.

図12は、第3差分画像250を説明するための説明図である。図12に示す第3差分画像250では、真の移動領域252に相当する画素は、第1差分画像218より第2差分画像224の方が輝度の絶対値が大きく、すなわち、第3差分画像250の輝度が正の値となり、真の背景領域210に相当する画素は、第1差分画像218より第2差分画像224の方が輝度の絶対値が小さく、すなわち、第3差分画像250の輝度が負の値になる。したがって、第3差分画像250は、輝度の符号に応じて正負(+1、−1)の2値で表すことができる。こうして、画素の輝度の正負(絶対値の大小)のみによって、移動領域を適切に分離することが可能となる。   FIG. 12 is an explanatory diagram for explaining the third difference image 250. In the third difference image 250 shown in FIG. 12, the pixels corresponding to the true moving region 252 have a larger absolute value of luminance in the second difference image 224 than in the first difference image 218, that is, in the third difference image 250. The luminance of the second difference image 224 is smaller than that of the first difference image 218 in the pixels corresponding to the true background region 210, that is, the luminance of the third difference image 250 is higher. Negative value. Therefore, the third difference image 250 can be represented by binary values of positive and negative (+1, −1) according to the sign of luminance. In this way, the moving area can be appropriately separated only by the positive / negative (absolute magnitude) of the luminance of the pixel.

図13は、画素の輝度の具体的な減算処理を説明するための説明図である。差分画像減算部172は、画素単位で第2差分画像224から第1差分画像218を減算するため、単純に減算するだけでは、ランダムノイズの影響を受けてしまう。そこで、各画素の輝度の大小比較を行う際には注目画素254とその近傍の8画素256の輝度の合計値や平均値同士の差分をとることで、ノイズの影響を抑制する。   FIG. 13 is an explanatory diagram for explaining a specific subtraction process of pixel luminance. Since the difference image subtraction unit 172 subtracts the first difference image 218 from the second difference image 224 in units of pixels, it is affected by random noise simply by subtraction. Therefore, when comparing the brightness of each pixel, the influence of noise is suppressed by taking the difference between the total value and the average value of the brightness of the target pixel 254 and the neighboring 8 pixels 256.

移動領域特定部174は、第3差分画像250の画像情報の分布傾向に基づいて移動領域を特定する。ここで、分布傾向は、画像情報の偏りや出現傾向をいう。   The moving area specifying unit 174 specifies the moving area based on the distribution tendency of the image information of the third difference image 250. Here, the distribution tendency refers to a bias or appearance tendency of image information.

図14は、移動領域特定部174の動作を説明するための説明図である。図14(a)は第3差分画像250を示し、その最外の四角は比較領域214と大きさが等しい。また、点線で示した領域が移動領域候補212であり、中央の白で塗りつぶした領域が真の移動領域252である。ここでは、水平方向の画素の座標をx軸とし、垂直方向の画素の座標をy軸とする。   FIG. 14 is an explanatory diagram for explaining the operation of the movement area specifying unit 174. FIG. 14A shows the third difference image 250, and the outermost square is the same size as the comparison region 214. Further, the area indicated by the dotted line is the moving area candidate 212, and the area filled with white at the center is the true moving area 252. Here, the coordinate of the pixel in the horizontal direction is taken as the x axis, and the coordinate of the pixel in the vertical direction is taken as the y axis.

移動領域特定部174は、移動領域252を特定するために、第3差分画像250の各画素の値(2値)を加算し、その合計値をヒストグラムで示す。例えば、x軸上の各画素に対し、比較領域214内のy軸方向(垂直方向)の画素の値を全て加算すると、図14(b)に示すx軸に関するヒストグラムが生成される。y軸上の各画素に対し、比較領域214内のx軸方向(水平方向)の画素の値を全て加算すると、図14(c)に示すy軸に関するヒストグラムが生成される。   The moving area specifying unit 174 adds the values (binary values) of the pixels of the third difference image 250 to specify the moving area 252, and shows the total value as a histogram. For example, when all the values of the pixels in the y-axis direction (vertical direction) in the comparison area 214 are added to each pixel on the x-axis, a histogram relating to the x-axis shown in FIG. 14B is generated. When all the values of the pixels in the x-axis direction (horizontal direction) in the comparison area 214 are added to each pixel on the y-axis, a histogram regarding the y-axis shown in FIG. 14C is generated.

図14(b)を参照して理解できるように、x軸のヒストグラムにおいて、移動領域252に相当する画素では、背景領域210としての負の値(−1)も加算されるが、正の値(+1)が多く加算されるため、その合計値は正の値をとることが多い。一方、背景領域210に相当する画素では、負の値(−1)のみが加算されるため、その合計値は負の値をとることとなる。したがって、合計値の符号が反転する画素を移動領域252の外枠とすることができる。y軸のヒストグラムにおいても、x軸のヒストグラムと同様の処理により、移動領域252の外枠を得ることができる。ただし、移動領域252内の画素が全て正の値をとるものではないので、ヒストグラムの合計値は多少ムラが生じる場合がある。こうして、図14(d)のように真の移動領域252を示す矩形の枠が求められる。   As can be understood with reference to FIG. 14B, in the x-axis histogram, in the pixel corresponding to the moving region 252, a negative value (−1) as the background region 210 is also added. Since many (+1) are added, the total value often takes a positive value. On the other hand, since only a negative value (−1) is added to the pixels corresponding to the background area 210, the total value is a negative value. Therefore, a pixel whose sign of the total value is inverted can be used as the outer frame of the moving region 252. Also in the y-axis histogram, the outer frame of the moving region 252 can be obtained by the same processing as the x-axis histogram. However, since all the pixels in the moving region 252 do not take a positive value, the total value of the histogram may be somewhat uneven. In this way, a rectangular frame indicating the true movement area 252 is obtained as shown in FIG.

ここでは、移動領域252と比較領域214との大きさが異なるため、x軸のヒストグラムやy軸のヒストグラムにおける移動領域252に相当する画素の値の合計値が明確に正の値をとらない場合がある。この場合、移動領域252を仮に特定した後、その移動領域252より少し大きい領域(比較領域214より小さい領域)を対象として、さらにx軸のヒストグラムやy軸のヒストグラムを計算することで、真の移動領域252を絞り込むことができる。   Here, since the sizes of the moving region 252 and the comparison region 214 are different, the total value of the pixel values corresponding to the moving region 252 in the x-axis histogram and the y-axis histogram does not clearly take a positive value. There is. In this case, after the movement area 252 is specified, a true area is calculated by calculating an x-axis histogram and a y-axis histogram for an area slightly larger than the movement area 252 (an area smaller than the comparison area 214). The moving area 252 can be narrowed down.

また、真の移動領域252は、移動領域候補212と近似すると考えられるので、移動領域特定部174は、移動領域候補212の外枠を探索開始位置として移動領域252の外枠を探索してもよい。こうすることで、移動領域252を迅速に特定することができ、より処理時間を短縮することが可能となる。   Further, since the true moving area 252 is considered to approximate the moving area candidate 212, the moving area specifying unit 174 searches the outer frame of the moving area 252 using the outer frame of the moving area candidate 212 as a search start position. Good. In this way, the moving area 252 can be quickly identified, and the processing time can be further shortened.

また、図12を参照して理解できるように、第1差分画像218における移動領域252と比較して第2差分画像224における移動領域252の方が、移動領域候補212のフローベクトルの分だけ水平方向に長くなる。したがって、かかる部位については、移動領域252を十分に特定できないおそれがある。しかし、後述するように、移動領域252として正確に特定すべきは、移動領域252の垂直下部なので、水平方向の特定精度の低下は問題にならない。   In addition, as can be understood with reference to FIG. 12, the moving region 252 in the second difference image 224 is more horizontal than the moving region 252 in the first difference image 218 by the flow vector of the moving region candidate 212. Longer in the direction. Therefore, there is a possibility that the moving region 252 cannot be sufficiently specified for such a part. However, as will be described later, since it is the vertical lower part of the moving region 252 that should be accurately specified as the moving region 252, a decrease in the specifying accuracy in the horizontal direction does not matter.

また、移動領域特定部174は、移動領域候補特定部166の処理単位であるブロックより小さい領域単位(ここでは画素)で移動領域を特定しているので、比較領域214といった限定された領域において高精度に移動領域を特定することが可能となる。   In addition, since the moving area specifying unit 174 specifies the moving area in an area unit (in this case, a pixel) that is smaller than the block that is the processing unit of the moving area candidate specifying unit 166, the moving area specifying unit 174 is high in a limited area such as the comparison area 214. It is possible to specify the moving area with high accuracy.

図8に戻り説明すると、移動物状態導出部176は、画像上の地面を示す地面領域における移動領域252の接地点に基づいて、移動領域252が示す移動物の自車両1からの距離、大きさ、3次元位置を導出する。例えば、データ保持部152は、画像内の各ブロック、または、各画素それぞれに対し1の3次元位置が対応付けられたテーブルを予め保持し、移動物状態導出部176は、かかるテーブルを参照して、移動物の接地点(移動領域252の垂直下部)に対応する3次元位置を特定する。また、移動物状態導出部176は、移動領域252の大きさと、移動領域252に対応する移動物の距離との予め定められた関係式によって、移動物の大きさを特定する。本実施形態では、移動領域252が適切に特定されるので、その接地点の位置が正確に特定され、移動物の自車両1からの距離や移動物の大きさを正確に導出することができる。   Returning to FIG. 8, the moving object state deriving unit 176 determines the distance and magnitude of the moving object indicated by the moving area 252 from the host vehicle 1 based on the ground point of the moving area 252 in the ground area indicating the ground on the image. Now, a three-dimensional position is derived. For example, the data holding unit 152 holds in advance a table in which one three-dimensional position is associated with each block or each pixel in the image, and the moving object state deriving unit 176 refers to the table. Thus, the three-dimensional position corresponding to the ground contact point of the moving object (vertically below the moving area 252) is specified. In addition, the moving object state deriving unit 176 specifies the size of the moving object based on a predetermined relational expression between the size of the moving area 252 and the distance of the moving object corresponding to the moving area 252. In the present embodiment, since the moving area 252 is appropriately specified, the position of the ground contact point is accurately specified, and the distance of the moving object from the host vehicle 1 and the size of the moving object can be accurately derived. .

衝突判定部178は、自車両1の進行方向および速度と、特定した移動物の位置、進行方向および速度とに応じて、自車両1と当該移動物が衝突する可能性が高いか否か判定する。かかる衝突判定については、既存の様々な技術を適用することが可能なので、ここではその詳細な説明を省略する。   The collision determination unit 178 determines whether or not the own vehicle 1 and the moving object are highly likely to collide according to the traveling direction and speed of the own vehicle 1 and the position, traveling direction, and speed of the identified moving object. To do. Since various existing techniques can be applied to the collision determination, detailed description thereof is omitted here.

報知部180は、衝突判定部178が衝突の可能性が高いと判定した場合、ブザー(音声出力手段)や警告灯(ディスプレイ122)を通じて、その旨、運転者に報知する。また、I/F部150を通じて、車両制御装置130に、その旨を示す情報を出力する。   When the collision determination unit 178 determines that the possibility of a collision is high, the notification unit 180 notifies the driver to that effect through a buzzer (voice output means) or a warning light (display 122). In addition, information indicating that is output to the vehicle control device 130 through the I / F unit 150.

画像保持部182は、データ保持部152の前回画像データに今回画像データを上書きする。こうして次のフレームでは、かかる今回画像データを前回画像データとして用いることができる。   The image holding unit 182 overwrites the previous image data of the data holding unit 152 with the current image data. Thus, in the next frame, the current image data can be used as the previous image data.

(車外環境認識方法)
図15は、車外環境認識方法の全体的な処理の流れを示したフローチャートである。図15では、撮像装置110から広角レンズを通じて撮像された画像データが送信されたときの割込処理に関する全体的な流れが示されている。
(External vehicle environment recognition method)
FIG. 15 is a flowchart showing the overall processing flow of the vehicle exterior environment recognition method. FIG. 15 shows an overall flow related to an interrupt process when image data captured through a wide-angle lens is transmitted from the imaging device 110.

当該車外環境認識方法による割込が発生すると、画像データ取得部160は、I/F部150を通じて撮像装置110から送信された今回画像データを取得する(S300)。そして、画像切出部162は、取得された今回画像データに基づく環境画像200(例えば、水平640画素×垂直480画素)から予め定められた位置および大きさの部分画像202(例えば、水平640画素×垂直128画素:水平80ブロック×垂直16ブロック)を切り出す(S302)。次に、フローベクトル導出部164は、部分画像202における複数のフローベクトルを導出する(S304)。そして、移動領域候補特定部166は、導出されたフローベクトルのうち移動物とみなすことができるフローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化し、移動領域候補212を特定する(S306)。   When the interruption by the outside environment recognition method occurs, the image data acquisition unit 160 acquires the current image data transmitted from the imaging device 110 through the I / F unit 150 (S300). The image cutout unit 162 then selects a partial image 202 (for example, horizontal 640 pixels) having a predetermined position and size from the environment image 200 (for example, horizontal 640 pixels × vertical 480 pixels) based on the acquired current image data. X vertical 128 pixels: horizontal 80 blocks x vertical 16 blocks) are cut out (S302). Next, the flow vector deriving unit 164 derives a plurality of flow vectors in the partial image 202 (S304). Then, the moving area candidate specifying unit 166 approximates the direction and the size of the flow vector that can be regarded as a moving object among the derived flow vectors, and groups adjacent blocks to move the moving area candidate 212. Is specified (S306).

続いて、第1差分画像導出部168は、今回画像データが示す画像における比較領域214と、前回画像データが示す画像における、比較領域214を移動領域候補212のフローベクトル分シフトした領域216との画素の差分を導出し、第1差分画像218を生成する(S308)。また、第2差分画像導出部170は、今回画像データが示す画像における比較領域214と、前回画像データが示す画像における、比較領域214と同一の領域222との画素の差分を導出し、第2差分画像224を生成する(S310)。そして、差分画像減算部172は、第2差分画像224から第1差分画像218を減算して第3差分画像250を生成し(S312)、移動領域特定部174は、第3差分画像250の画像情報の分布傾向に基づいて移動領域252を特定する(S314)。そして、移動物状態導出部176は、画像上の地面を示す地面領域における移動領域252の接地点に基づいて、移動領域252が示す移動物の自車両1からの距離、大きさ、3次元位置を導出する(S316)。   Subsequently, the first difference image deriving unit 168 includes a comparison area 214 in the image indicated by the current image data and an area 216 obtained by shifting the comparison area 214 by the flow vector of the movement area candidate 212 in the image indicated by the previous image data. A pixel difference is derived to generate a first difference image 218 (S308). The second difference image deriving unit 170 derives a pixel difference between the comparison area 214 in the image indicated by the current image data and the area 222 identical to the comparison area 214 in the image indicated by the previous image data. A difference image 224 is generated (S310). Then, the difference image subtracting unit 172 generates the third difference image 250 by subtracting the first difference image 218 from the second difference image 224 (S312), and the moving region specifying unit 174 displays the image of the third difference image 250. The moving area 252 is specified based on the information distribution tendency (S314). Then, the moving object state deriving unit 176 determines the distance, size, and three-dimensional position of the moving object indicated by the moving area 252 from the host vehicle 1 based on the ground point of the moving area 252 in the ground area indicating the ground on the image. Is derived (S316).

衝突判定部178は、自車両1の進行方向および速度と、特定した移動物の位置、進行方向および速度とに応じて、自車両1と移動物が衝突する可能性が高いか否か判定する(S318)。その結果、移動物と衝突する可能性が高いと判定すると(S318におけるYES)、報知部180は、衝突の可能性が高い旨、運転者に報知するとともに、車両制御装置130に、その旨を示す情報を出力する(S320)。また、移動物と衝突する可能性が高いと判定されなかった場合(S318におけるNO)、ステップS322に処理を移行する。   The collision determination unit 178 determines whether or not the own vehicle 1 and the moving object are highly likely to collide according to the traveling direction and speed of the own vehicle 1 and the position, traveling direction, and speed of the identified moving object. (S318). As a result, when it is determined that there is a high possibility of a collision with a moving object (YES in S318), the notification unit 180 notifies the driver that the possibility of a collision is high and notifies the vehicle control device 130 of the fact. The information shown is output (S320). If it is not determined that there is a high possibility of collision with a moving object (NO in S318), the process proceeds to step S322.

最後に、画像保持部182は、今回画像データを次回のフレームで前回画像データとして用いるため、データ保持部152の前回画像データに今回画像データを上書きする(S322)。   Finally, in order to use the current image data as the previous image data in the next frame, the image holding unit 182 overwrites the previous image data in the data holding unit 152 with the current image data (S322).

以上、説明したような、車外環境認識装置120や車外環境認識方法によれば、第1段階として、部分画像202を用い、所定の大きさのブロックでオプティカルフローを求め、移動領域の候補である移動領域候補212を特定し、第2段階として、部分画像202の輝度(画像情報)を利用し、移動領域候補212を含み移動領域候補212より大きい比較領域214といった限定された領域において、上記のブロックより小さい領域単位、例えば、画素単位で高精度に移動領域252を特定するので、高処理速度かつ高検出精度で移動物を特定することが可能となる。   As described above, according to the vehicle environment recognition apparatus 120 and the vehicle environment recognition method as described above, as a first step, the partial image 202 is used to obtain an optical flow with a block of a predetermined size, which is a candidate for a moving region. In the limited region such as the comparison region 214 that includes the moving region candidate 212 and is larger than the moving region candidate 212, the moving region candidate 212 is identified and the luminance (image information) of the partial image 202 is used as the second step. Since the moving area 252 is specified with high accuracy in units of area smaller than the block, for example, in units of pixels, it is possible to specify the moving object with high processing speed and high detection accuracy.

また、本実施形態では、第1差分画像218と第2差分画像224との輝度が反転することを利用することで、移動領域252を分離するための閾値を簡易に設定し、または、閾値を設定しないで済む。   In the present embodiment, by using the fact that the luminance of the first difference image 218 and the second difference image 224 is inverted, a threshold value for separating the moving region 252 is simply set, or the threshold value is set. No need to set.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120 and a computer-readable storage medium that stores the program, such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態において、画像データ取得部160、画像切出部162、フローベクトル導出部164、移動領域候補特定部166、第1差分画像導出部168、第2差分画像導出部170、差分画像減算部172、移動領域特定部174、移動物状態導出部176、衝突判定部178、報知部180、画像保持部182は、中央制御部154によってソフトウェアで動作するように構成している。しかし、上記の機能部をハードウェアによって構成することも可能である。   For example, in the above-described embodiment, the image data acquisition unit 160, the image cutout unit 162, the flow vector derivation unit 164, the moving region candidate identification unit 166, the first difference image derivation unit 168, the second difference image derivation unit 170, the difference The image subtracting unit 172, the moving region specifying unit 174, the moving object state deriving unit 176, the collision determining unit 178, the notification unit 180, and the image holding unit 182 are configured to be operated by software by the central control unit 154. However, the functional unit described above can be configured by hardware.

なお、本明細書の車外環境認識方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step of the vehicle environment recognition method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or a subroutine.

本発明は、自車両外の環境を認識する車外環境認識装置および車外環境認識方法にかかり、特に、自車両外の移動物を認識し自車両との衝突判定を行う車外環境認識装置および車外環境認識方法に利用することができる。   The present invention relates to an outside environment recognition device and an outside environment recognition method for recognizing an environment outside the host vehicle, and more particularly, an outside environment recognition device and an outside environment that recognize a moving object outside the host vehicle and determine a collision with the host vehicle. It can be used as a recognition method.

1 …自車両
110 …撮像装置
120 …車外環境認識装置
160 …画像データ取得部
164 …フローベクトル導出部
166 …移動領域候補特定部
168 …第1差分画像導出部
170 …第2差分画像導出部
172 …差分画像減算部
174 …移動領域特定部
DESCRIPTION OF SYMBOLS 1 ... Own vehicle 110 ... Imaging device 120 ... Outside vehicle environment recognition apparatus 160 ... Image data acquisition part 164 ... Flow vector derivation | leading-out part 166 ... Movement area candidate specific | specification part 168 ... 1st difference image derivation | leading-out part 170 ... 2nd difference image derivation | leading-out part 172 ... difference image subtraction unit 174 ... moving region specifying unit

Claims (5)

撮像装置を通じて車外環境を撮像した画像データを取得する画像データ取得部と、
撮像タイミングを異にする2つの画像データに基づき、該画像データが示す画像を分割したブロック毎のフローベクトルを導出するフローベクトル導出部と、
前記フローベクトルのうち移動物とみなすことができるフローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化し、移動物を示す移動領域の候補である移動領域候補を特定する移動領域候補特定部と、
前記2つの画像データのうち、一方の画像データが示す画像における、前記移動領域候補を含み該移動領域候補より大きい領域である比較領域と、他方の画像データが示す画像における、該比較領域を該移動領域候補のフローベクトル分シフトした領域との画像情報の差分を導出し、第1差分画像を生成する第1差分画像導出部と、
前記2つの画像データのうち、一方の画像データが示す画像における前記比較領域と、他方の画像データが示す画像における、該比較領域と同一の領域との画像情報の差分を導出し、第2差分画像を生成する第2差分画像導出部と、
前記第2差分画像から前記第1差分画像を減算し第3差分画像を生成する差分画像減算部と、
前記第3差分画像の画像情報の分布傾向に基づいて前記移動領域を特定する移動領域特定部と、
を備えることを特徴とする車外環境認識装置。
An image data acquisition unit for acquiring image data obtained by imaging the environment outside the vehicle through the imaging device;
A flow vector deriving unit for deriving a flow vector for each block obtained by dividing an image indicated by the image data based on two image data having different imaging timings;
Among the flow vectors, the direction and size of a flow vector that can be regarded as a moving object are approximate, and adjacent blocks are grouped together to identify a moving area candidate that is a moving area candidate indicating the moving object. A moving area candidate identification unit;
Of the two image data, the comparison area in the image indicated by one of the image data includes the movement area candidate and is larger than the movement area candidate, and the comparison area in the image indicated by the other image data. A first difference image deriving unit for deriving a difference of image information from an area shifted by a flow vector of a moving area candidate and generating a first difference image;
Deriving a difference in image information between the comparison area in the image indicated by one of the two image data and the same area as the comparison area in the image indicated by the other image data; A second difference image deriving unit for generating an image;
A difference image subtraction unit that subtracts the first difference image from the second difference image to generate a third difference image;
A moving area specifying unit for specifying the moving area based on a distribution tendency of image information of the third difference image;
A vehicle exterior environment recognition device comprising:
前記移動領域候補特定部はブロック単位でグループ化し、
前記移動領域特定部は前記ブロックより小さい領域単位で前記移動領域を特定することを特徴とする請求項1に記載の車外環境認識装置。
The moving area candidate specifying unit is grouped in units of blocks,
The outside environment recognition device according to claim 1, wherein the moving area specifying unit specifies the moving area in units of areas smaller than the block.
前記移動領域特定部は、前記第3差分画像の各画像情報を画像水平方向または垂直方向に加算したヒストグラムを生成し、その符号によって前記移動領域を特定することを特徴とする請求項1または2に記載の車外環境認識装置。   The moving area specifying unit generates a histogram obtained by adding each image information of the third difference image in an image horizontal direction or a vertical direction, and specifies the moving area by a sign thereof. The outside environment recognition device described in 1. 前記移動領域特定部は、前記移動領域候補の外枠を探索開始位置として前記移動領域の外枠を探索することを特徴とする請求項1から3のいずれか1項に記載の車外環境認識装置。   The vehicle outside environment recognition device according to any one of claims 1 to 3, wherein the movement area specifying unit searches for an outer frame of the movement area using an outer frame of the movement area candidate as a search start position. . 撮像装置を通じて車外環境を撮像した画像データを取得し、
撮像タイミングを異にする2つの画像データに基づき、該画像データが示す画像を分割したブロック毎のフローベクトルを導出し、
前記フローベクトルのうち移動物とみなすことができるフローベクトルの方向およびその大きさが近似し、かつ、隣接するブロック同士をグループ化し、移動物を示す移動領域の候補である移動領域候補を特定し、
前記2つの画像データのうち、一方の画像データが示す画像における、前記移動領域候補を含み該移動領域候補より大きい領域である比較領域と、他方の画像データが示す画像における、該比較領域を該移動領域候補のフローベクトル分シフトした領域との画像情報の差分を導出し、第1差分画像を生成し、
前記2つの画像データのうち、一方の画像データが示す画像における前記比較領域と、他方の画像データが示す画像における、前記比較領域と同一の領域との画像情報の差分を導出し、第2差分画像を生成し、
前記第2差分画像から前記第1差分画像を減算し第3差分画像を生成し、
前記第3差分画像の画像情報の分布傾向に基づいて前記移動領域を特定することを特徴とする車外環境認識方法。
Obtain image data that captures the environment outside the vehicle through the imaging device,
Based on two image data having different imaging timings, a flow vector for each block obtained by dividing the image indicated by the image data is derived,
Among the flow vectors, the direction and size of a flow vector that can be regarded as a moving object are approximate, and adjacent blocks are grouped together to identify a moving area candidate that is a moving area candidate indicating the moving object. ,
Of the two image data, the comparison area in the image indicated by one of the image data includes the movement area candidate and is larger than the movement area candidate, and the comparison area in the image indicated by the other image data. Deriving a difference in image information from the region shifted by the flow vector of the moving region candidate, and generating a first difference image,
Deriving a difference in image information between the comparison area in the image indicated by one of the two image data and the same area as the comparison area in the image indicated by the other image data; Generate an image,
Subtracting the first difference image from the second difference image to generate a third difference image;
The vehicle environment recognition method characterized by identifying the moving area based on a distribution tendency of image information of the third difference image.
JP2013026530A 2013-02-14 2013-02-14 Outside environment recognition device and outside environment recognition method Expired - Fee Related JP5981857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013026530A JP5981857B2 (en) 2013-02-14 2013-02-14 Outside environment recognition device and outside environment recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013026530A JP5981857B2 (en) 2013-02-14 2013-02-14 Outside environment recognition device and outside environment recognition method

Publications (2)

Publication Number Publication Date
JP2014157394A JP2014157394A (en) 2014-08-28
JP5981857B2 true JP5981857B2 (en) 2016-08-31

Family

ID=51578250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013026530A Expired - Fee Related JP5981857B2 (en) 2013-02-14 2013-02-14 Outside environment recognition device and outside environment recognition method

Country Status (1)

Country Link
JP (1) JP5981857B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249830A (en) * 2006-03-17 2007-09-27 Matsushita Electric Ind Co Ltd Moving object detector and moving object detection method
JP5137717B2 (en) * 2008-07-03 2013-02-06 アルパイン株式会社 Three-dimensional object detection apparatus and method
JP5379543B2 (en) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 Automobile external recognition device
US8611600B2 (en) * 2011-10-12 2013-12-17 Raytheon Company Three-frame difference moving target acquisition system and method for target track identification

Also Published As

Publication number Publication date
JP2014157394A (en) 2014-08-28

Similar Documents

Publication Publication Date Title
US9773176B2 (en) Image processing apparatus and image processing method
US8923560B2 (en) Exterior environment recognition device
US9922259B2 (en) Traffic light detection device and traffic light detection method
US10055656B2 (en) Traffic signal detection device and traffic signal detection method
JP2006338272A (en) Vehicle behavior detector and vehicle behavior detection method
WO2018211930A1 (en) Object detection device, object detection method, and computer-readable recording medium
JP6065629B2 (en) Object detection device
JP5955291B2 (en) Filtering device and environment recognition system
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP6591188B2 (en) Outside environment recognition device
JP7229032B2 (en) External object detection device
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
US10789489B2 (en) Vehicle exterior environment recognition apparatus
JP6174960B2 (en) Outside environment recognition device
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method
JPWO2017154305A1 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and program
JP5981857B2 (en) Outside environment recognition device and outside environment recognition method
JP5866238B2 (en) Outside environment recognition device and outside environment recognition method
JP5973843B2 (en) Outside environment recognition device and outside environment recognition method
JP6034713B2 (en) Outside environment recognition device and outside environment recognition method
JP6564682B2 (en) Object detection device, object detection method, and object detection program
JP2021051348A (en) Object distance estimation apparatus and object distance estimation method
JP6273156B2 (en) Pedestrian recognition device
JP5890816B2 (en) Filtering device and environment recognition system
JP2022037358A (en) Surrounding environment recognition apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160729

R150 Certificate of patent or registration of utility model

Ref document number: 5981857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees