JP4815506B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP4815506B2
JP4815506B2 JP2009105640A JP2009105640A JP4815506B2 JP 4815506 B2 JP4815506 B2 JP 4815506B2 JP 2009105640 A JP2009105640 A JP 2009105640A JP 2009105640 A JP2009105640 A JP 2009105640A JP 4815506 B2 JP4815506 B2 JP 4815506B2
Authority
JP
Japan
Prior art keywords
pair
vehicle
cell group
cell
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009105640A
Other languages
Japanese (ja)
Other versions
JP2010257154A (en
Inventor
幸大 松田
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009105640A priority Critical patent/JP4815506B2/en
Publication of JP2010257154A publication Critical patent/JP2010257154A/en
Application granted granted Critical
Publication of JP4815506B2 publication Critical patent/JP4815506B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車両に搭載されている撮像装置により得られた前記車両の周辺の画像を用いて前記車両の周辺を監視する装置に関する。   The present invention relates to an apparatus for monitoring the periphery of the vehicle using an image of the periphery of the vehicle obtained by an imaging device mounted on the vehicle.

画像から抽出された対象物が人工構造物に該当するか否かを判定する手法が提案されている(特許文献1参照)。   A method for determining whether or not an object extracted from an image corresponds to an artificial structure has been proposed (see Patent Document 1).

特開2008−077154号公報JP 2008-071154 A

しかし、オクルージョンが発生した場合、画像における対象物の特徴量が本来の特徴量と大きく相違してしまうことにより、当該対象物の種類の判定が困難になる可能性がある。   However, when occlusion occurs, the feature amount of the object in the image is greatly different from the original feature amount, which may make it difficult to determine the type of the object.

そこで、本発明は、オクルージョンが発生の影響を軽減して、対象物の種類の判定精度の向上を図ることができる車両周辺監視装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a vehicle periphery monitoring device that can reduce the influence of occurrence of occlusion and improve the accuracy of determination of the type of an object.

前記課題を解決するための本発明の車両周辺監視装置は、車両に搭載されている撮像装置により得られた前記車両の周辺の画像を用いて前記車両の周辺を監視する装置であって、前記画像から前記車両の周辺に存在する対象物に相当する画像領域を対象物領域として抽出するように構成されている第1画像処理手段と、前記対象物領域を構成する行方向に並んでいる複数のセル行のそれぞれについて、輝度が指定輝度範囲に含まれるとともに前記行方向に隣接する複数のセルにより構成される第1セル群を定義し、前記複数のセル行が並ぶ列方向について一対の第1セル群のセルの重なり個数を第1指数として算出し、前記第1指数が最大となる一対の第1セル群を第1ペアとして定義し、第iペア(i=1,2,‥,N−1)の一方の第1セル群と、第1〜第iペアとして定義されていない第1セル群のうち、前記一方の第1セル群との前記第1指数が最大となる1つの第1セル群とを第i+1ペアとして定義し、かつ、第1〜第j1ペア(「j1」はN以下の第1定数である。)のそれぞれを構成する一対の第1セル群についてすべての前記第1指数が第1基準値以上であることを要件として、前記対象物が人工構造物に該当すると判定するように構成されている第2画像処理手段とを備えていることを特徴とする。   The vehicle periphery monitoring device of the present invention for solving the above-mentioned problem is a device that monitors the periphery of the vehicle using an image of the periphery of the vehicle obtained by an imaging device mounted on the vehicle, A first image processing means configured to extract an image area corresponding to an object existing around the vehicle from the image as the object area, and a plurality of the image areas arranged in a row direction constituting the object area For each of the cell rows, a first cell group including a plurality of cells whose luminance is included in the specified luminance range and adjacent in the row direction is defined. The number of overlapping cells in one cell group is calculated as a first index, a pair of first cell groups having the maximum first index is defined as a first pair, and an i-th pair (i = 1, 2,... N-1) one of the first And the first cell group that is not defined as the first to i-th pairs, and the first cell group having the maximum first index with the one first cell group is the (i + 1) th pair. And all of the first indices for the pair of first cell groups constituting each of the first to j1 pairs (where “j1” is a first constant equal to or less than N) is a first reference value. With the above requirements, the image processing apparatus includes a second image processing unit configured to determine that the object corresponds to an artificial structure.

本発明の車両周辺監視装置によれば、第1〜第j1ペアのそれぞれを構成する一対の第1セル群について、すべての第1指数が第1基準値以上であるか否かが判定される。「第1指数」は複数のセル行が並ぶ列方向についてセルの重なり個数を意味する。   According to the vehicle periphery monitoring device of the present invention, it is determined whether or not all the first indices are equal to or greater than the first reference value for the pair of first cell groups constituting each of the first to j1 pairs. . “First index” means the number of overlapping cells in the column direction in which a plurality of cell rows are arranged.

第1セル群は、指定輝度範囲に含まれるとともに連続して並んでいる複数のセルにより構成されているので、第1セル群の長短および第1セル群の多少には、画像における対象物の「輝度の一様性」の程度が反映されうる。第iペアは第1指数が高い順に逐次選定される一対の第1セル群により構成されているので、順位がある程度低いペアを構成する一対の第1セル群の列方向のセルの重なり個数の多少には、画像における対象物の「外形の規則性」の程度が反映されうる。   Since the first cell group is composed of a plurality of cells that are included in the designated luminance range and are continuously arranged, the length of the first cell group and the length of the first cell group may include the object in the image. The degree of “brightness uniformity” can be reflected. Since the i-th pair is composed of a pair of first cell groups that are sequentially selected in descending order of the first index, the number of overlapping cells in the column direction of the pair of first cell groups constituting a pair having a somewhat lower rank To some extent, the degree of “regularity of the outer shape” of the object in the image can be reflected.

したがって、前記判定により、撮像装置により得られた画像において輝度が全体的に一様であり、かつ、外形が規則的であるという性質を有する人工構造物に対象物が該当するか否かが高精度で判定されうる。また、対象物の一部が他の物体に隠れていても、残りの部分が前記のような性質を示すため、オクルージョンの発生の影響が軽減され、その結果として対象物が人工構造物に該当するか否かが高精度で判定されうる。   Therefore, it is highly determined by the above determination whether the object corresponds to an artificial structure having the properties that the luminance is uniform throughout the image obtained by the imaging apparatus and the outer shape is regular. Can be determined with accuracy. In addition, even if a part of the object is hidden behind other objects, the remaining part exhibits the above-mentioned properties, so the influence of the occurrence of occlusion is reduced, and as a result, the object corresponds to an artificial structure. Whether or not to do so can be determined with high accuracy.

前記第2画像処理手段は、前記第2画像処理手段は、前記行方向について前記第1セル群と背景セル群との境界を挟んで連続する複数のセルにより構成される第2セル群を定義し、前記列方向について重なる2つの第2セル群の相関度を第2指数として算出し、かつ、第1〜第j2ペア(「j2」は前記第1定数「j1」以下の第2定数である。)のそれぞれに対応する一対の第2セル群について、すべての前記第2指数が第2基準値以上であることをさらなる要件として、前記対象物が人工構造物に該当すると判定するように構成されてもよい。   The second image processing means defines a second cell group composed of a plurality of cells continuous across the boundary between the first cell group and the background cell group in the row direction. Then, the degree of correlation between the two second cell groups that overlap in the column direction is calculated as a second index, and the first to j2 pairs ("j2" is a second constant equal to or less than the first constant "j1"). With respect to a pair of second cell groups corresponding to each of (2), it is determined that all the second indices are equal to or greater than a second reference value, and that the object corresponds to an artificial structure. It may be configured.

当該構成の車両周辺監視装置によれば、第1〜第j2ペアのそれぞれに対応する一対の第2セル群について、すべての第2指数が第2基準値以上であるか否かが判定される。「第2指数」は列方向について重なる2つの第2セル群の相関度を意味する。   According to the vehicle periphery monitoring device having the configuration, it is determined whether or not all the second indices are equal to or greater than the second reference value for the pair of second cell groups corresponding to the first to j2 pairs. . The “second index” means the degree of correlation between two second cell groups that overlap in the column direction.

第2セル群は、第1セル群の境界を挟んで連続する複数のセルにより構成されているので、第2セル群の相関度の高低には、画像における対象物の列方向への「輪郭の延び方の一様性」の程度が反映されうる。   Since the second cell group is composed of a plurality of cells that are continuous across the boundary of the first cell group, the “contour” in the column direction of the object in the image is used for the degree of correlation of the second cell group. The degree of “uniformity of the extending direction” can be reflected.

したがって、前記判定により、列方向に輪郭が一様に延びるような規則的な外形を有する人工構造物に対象物が該当するか否かが、オクルージョンの発生の有無の影響を低減しながら高精度で判定されうる。   Therefore, according to the above determination, whether or not the object corresponds to an artificial structure having a regular outer shape whose contour extends uniformly in the row direction is highly accurate while reducing the influence of occurrence of occlusion. Can be determined.

撮像装置および車両周辺監視装置の車両への搭載態様に関する説明図。Explanatory drawing regarding the mounting aspect to the vehicle of an imaging device and a vehicle periphery monitoring apparatus. 車両周辺監視装置の構成説明図。The structure explanatory drawing of a vehicle periphery monitoring apparatus. 車両周辺監視装置の全体的な機能を示すフローチャート。The flowchart which shows the whole function of a vehicle periphery monitoring apparatus. 人工構造物判定処理の手順を示すフローチャート。The flowchart which shows the procedure of an artificial structure determination process. 対象物領域の抽出方法に関する説明図。Explanatory drawing regarding the extraction method of a target object area | region. 第1セル群および第2セル群の定義方法に関する説明図。Explanatory drawing regarding the definition method of a 1st cell group and a 2nd cell group.

本発明の車両周辺監視装置の実施形態について説明する。   An embodiment of a vehicle periphery monitoring device of the present invention will be described.

まず、本実施形態の車両周辺監視装置の構成について説明する。   First, the structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated.

車両周辺監視装置は図1および図2に示されている画像処理ユニット1を備えている。画像処理ユニット1には、車両10の前方を撮像する左右一対の赤外線カメラ(本発明の「撮像装置」に該当する。)2R,2Lが接続されるとともに、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3、車両10の走行速度(車速)を検出する車速センサ4および車両10のブレーキ操作の有無を検出するブレーキセンサ5が接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な通報情報を出力するためのスピーカ6および赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な通報情報を表示するためにフロントウィンドウ付近に配置されているHUD7が接続されている。   The vehicle periphery monitoring device includes an image processing unit 1 shown in FIGS. 1 and 2. The image processing unit 1 is connected to a pair of left and right infrared cameras (corresponding to the “imaging device” of the present invention) 2R and 2L that image the front of the vehicle 10 and sensors that detect the traveling state of the vehicle 10. The yaw rate sensor 3 for detecting the yaw rate of the vehicle 10, the vehicle speed sensor 4 for detecting the traveling speed (vehicle speed) of the vehicle 10, and the brake sensor 5 for detecting the presence or absence of a brake operation of the vehicle 10 are connected. Further, the image processing unit 1 has a speaker 6 for outputting auditory report information such as voice and the vicinity of the front window for displaying captured images taken by the infrared cameras 2R and 2L and visual report information. HUD7 arrange | positioned is connected.

HUDに代えてまたは加えて、車両10の車速などの走行状態を表示する表示パネル、あるいは、車両10に搭載されているナビゲーション装置の構成要素であるディスプレイが画像表示装置として採用されてもよい。   Instead of or in addition to the HUD, a display panel that displays a traveling state such as the vehicle speed of the vehicle 10 or a display that is a component of a navigation device mounted on the vehicle 10 may be employed as the image display device.

画像処理ユニット1は、A/D変換回路、CPU、RAM、ROM等のメモリ、I/O回路およびこれらを接続するバスなどにより構成されているECU(電子制御ユニット)により構成されている。   The image processing unit 1 includes an ECU (electronic control unit) that includes an A / D conversion circuit, a memory such as a CPU, a RAM, and a ROM, an I / O circuit, and a bus that connects these.

画像処理ユニット1は第1画像処理手段11および第2画像処理手段12を備えている。各手段は、メモリと、このメモリに保存されているプログラムおよびデータのうち一方または両方を読み出し、読み出したプログラム等にしたがって演算処理を実行するCPUにより構成されている。   The image processing unit 1 includes first image processing means 11 and second image processing means 12. Each means includes a memory and a CPU that reads one or both of a program and data stored in the memory and executes arithmetic processing according to the read program or the like.

赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化され、CPUによりデジタル化されたデータに基づき、人間(歩行者または自転車もしくは二輪自動車の乗員など)または人工構造物(壁または建造物など)等の対象物を検出し、検出した対象物が所定の通報要件を満たす場合にスピーカ6やHUD7を通じて対象物の存在、または、車両10と対象物との接触可能性の高低を運転者に通報する。   Analog signals output from the infrared cameras 2R, 2L, the yaw rate sensor 3, the vehicle speed sensor 4, and the brake sensor 5 are converted into digital data by the A / D conversion circuit, and based on the data digitized by the CPU, humans (pedestrians) Or an object such as an occupant of a bicycle or a two-wheeled vehicle) or an artificial structure (such as a wall or a building), and when the detected object satisfies a predetermined notification requirement, the presence of the object through the speaker 6 or the HUD 7 Alternatively, the driver is notified of the possibility of contact between the vehicle 10 and the object.

図2に示されているように、赤外線カメラ2R,2Lは、車両10の前方を撮像するために車両10の前部(図ではフロントグリルの部分)に取り付けられている。右側の赤外線カメラ2Rは車両10の車幅方向の中心よりも右寄りの位置に配置され、左側の赤外線カメラ2Lは車両10の車幅方向の中心よりも左寄りの位置に配置されている。それらの位置は車両10の車幅方向の中心に対して左右対称である。赤外線カメラ2R,2Lは光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion of the vehicle 10 (the front grill portion in the figure) in order to image the front of the vehicle 10. The right infrared camera 2R is disposed at a position to the right of the center of the vehicle 10 in the vehicle width direction, and the left infrared camera 2L is disposed at a position to the left of the center of the vehicle 10 in the vehicle width direction. Their positions are symmetrical with respect to the center of the vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are fixed so that their optical axes extend in the front-rear direction of the vehicle 10 in parallel with each other, and the heights of the respective optical axes from the road surface are equal to each other. The infrared cameras 2R and 2L have sensitivity in the far-infrared region, and have a characteristic that the higher the temperature of an object to be imaged, the higher the level of the output video signal (the higher the luminance of the video signal). is doing.

なお、対象物との距離がレーダーにより測定される場合、1台の赤外線カメラのみが車両10に搭載されてもよい。また、赤外線カメラに代えてまたは加えて、CCDカメラ、CMOSイメージセンサ等、さまざまな周波数帯の光に対して感度を有するカメラが撮像装置として車両10に搭載されてもよい。   When the distance to the object is measured by a radar, only one infrared camera may be mounted on the vehicle 10. Further, instead of or in addition to the infrared camera, a camera having sensitivity to light in various frequency bands, such as a CCD camera or a CMOS image sensor, may be mounted on the vehicle 10 as an imaging device.

次に、前記構成の車両周辺監視装置の機能について説明する。なお、画像処理の詳細は特開2001−006096号公報および特開2007−310705号公報等に開示されているので簡単に説明する。   Next, functions of the vehicle periphery monitoring device having the above-described configuration will be described. Details of the image processing are disclosed in Japanese Patent Application Laid-Open Nos. 2001-006096 and 2007-310705, and will be described briefly.

まず、第1画像処理手段11により「対象物抽出処理」が実行される(図3/STEP100)。具体的には、赤外線カメラ2R、2Lから画像処理ユニット1に入力された赤外画像信号がA/D変換され、A/D変換された赤外画像信号に基づいてグレースケール画像が生成され、基準となるグレースケール画像(右画像)が2値化される。その上で、2値化画像において対象物が存在する領域が対象物領域として抽出される。   First, the “object extraction process” is executed by the first image processing means 11 (FIG. 3 / STEP 100). Specifically, the infrared image signal input to the image processing unit 1 from the infrared cameras 2R and 2L is A / D converted, and a grayscale image is generated based on the A / D converted infrared image signal. A reference grayscale image (right image) is binarized. In addition, an area where the object exists in the binarized image is extracted as the object area.

詳細には、2値化画像の高輝度領域を構成する画素群がランレングスデータに変換され、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)が付され、ライン群のそれぞれが対象物領域として抽出される。これにより、図5に示されているようなひとまとまりの高輝度画素(画素値=1の画素)により構成される高輝度領域を囲む矩形状の領域が対象物領域として抽出される。   Specifically, the pixel group constituting the high-luminance region of the binarized image is converted into run-length data, and a label (identifier) is attached to each of the line groups that overlap in the vertical direction of the reference image. Each is extracted as an object area. As a result, a rectangular region surrounding the high luminance region constituted by a group of high luminance pixels (pixel value = 1 pixel) as shown in FIG. 5 is extracted as the object region.

続いて、各対象物の重心の位置(基準画像上での位置)、面積および外接四角形の縦横比が算定される。また、対象物の時刻間追跡が実行され、画像処理ユニット1の演算処理周期毎の対象物の同一性が判定される。さらに、車速センサ4およびヨーレートセンサ5の出力(車速の検出値及びヨーレートの検出値)が読み込まれる。また、外接四角形の縦横比算出および対象物の時刻間追跡と並行して、基準画像のうち、各対象物に対応する領域(たとえば対象物の外接四角形の領域)が探索画像として抽出される。   Subsequently, the position of the center of gravity of each object (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle are calculated. Further, tracking of the target object is performed, and the identity of the target object is determined for each calculation processing cycle of the image processing unit 1. Further, the outputs (vehicle speed detection value and yaw rate detection value) of the vehicle speed sensor 4 and the yaw rate sensor 5 are read. Further, in parallel with the calculation of the aspect ratio of the circumscribed rectangle and the tracking of the object during the time, the area corresponding to each object (for example, the area of the circumscribed rectangle of the object) is extracted as a search image from the reference image.

さらに、相関演算が実行されることにより左画像中から探索画像に対応する画像(対応画像)が探索かつ抽出される。また、車両10から対象物までの実空間距離(車両10の前後方向における距離)zが算定される。また、各対象物の実空間位置(車両10に対する相対位置)が算定される。さらに、対象物の実空間位置(X,Y,Z)(図2参照)のうちのX成分が回頭角の時系列データに応じて補正される。また、車両10に対する対象物の相対移動ベクトルが算定される。   Furthermore, by executing the correlation calculation, an image (corresponding image) corresponding to the search image is searched and extracted from the left image. Further, a real space distance (distance in the front-rear direction of the vehicle 10) z from the vehicle 10 to the object is calculated. Moreover, the real space position (relative position with respect to the vehicle 10) of each object is calculated. Further, the X component of the real space position (X, Y, Z) (see FIG. 2) of the object is corrected according to the time-series data of the turning angle. Further, a relative movement vector of the object with respect to the vehicle 10 is calculated.

続いて、第2画像処理手段12により、「人工構造物判定処理」が実行される(図3/STEP200)。後述するように対象物が人工構造物に該当すると判定された場合、フラグkが「1」に設定される一方、対象物が人工構造物に該当しないと判定された場合、フラグkが「0」に設定される。   Subsequently, the “artificial structure determination process” is executed by the second image processing means 12 (FIG. 3 / STEP 200). As described later, when it is determined that the object corresponds to an artificial structure, the flag k is set to “1”, whereas when it is determined that the object does not correspond to an artificial structure, the flag k is set to “0”. "Is set.

その後、画像処理ユニット1により次の一連の処理が実行される。フラグkが1であるか否かが判定され(図3/STEP300)、当該判定結果が肯定的である場合(図3/STEP200‥YES)、すなわち、対象物が人工構造物に該当すると判定された場合、後述する注意喚起処理等は実行されず、対象物抽出処理以降の処理が繰り返される(図3/STEP100等参照)。   Thereafter, the image processing unit 1 executes the following series of processes. It is determined whether or not the flag k is 1 (FIG. 3 / STEP 300). If the determination result is affirmative (FIG. 3 / STEP 200... YES), that is, it is determined that the object corresponds to an artificial structure. In such a case, the alerting process described later is not executed, and the process after the object extraction process is repeated (see FIG. 3 / STEP 100, etc.).

フラグkが1ではない(0である)と判定された場合(図3/STEP200‥NO)、対象物が歩行者もしくは自転車乗員等の人間、または、鹿、馬もしくは犬等の四足動物などの注意対象に該当するか否かが判定される(図3/STEP400)。具体的には、グレースケール画像上で対象物領域における高輝度領域(図5参照)の形状もしくはサイズ、または、輝度分布等の特徴量に基づき、対象物が人間または四足動物に該当するか否かが判定される。   When it is determined that the flag k is not 1 (0) (FIG. 3 / STEP200... NO), the object is a human such as a pedestrian or a bicycle occupant, or a quadruped such as a deer, horse or dog. It is determined whether it falls under the attention object (FIG. 3 / STEP 400). Specifically, whether the object corresponds to a human or a quadruped animal based on the shape or size of the high-luminance area (see FIG. 5) in the object area on the gray scale image or the feature quantity such as the luminance distribution. It is determined whether or not.

対象物の実空間距離zが閾値zth以下であるか否かが判定され、対象物の実空間距離zが閾値zth以下であると判定されたことを要件として、対象物の種類が判定されてもよい。閾値zthは対象物の種類判定精度の向上の観点から設定される。   It is determined whether or not the real space distance z of the object is equal to or less than the threshold value zth, and the type of the object is determined as a requirement that the real space distance z of the object is determined to be equal to or less than the threshold value zth. Also good. The threshold value zth is set from the viewpoint of improving the object type determination accuracy.

さらに、対象物が注意対象に該当すると判定された場合(図3/STEP400‥NO)、車両10と対象物との接触可能性の高低が判定される(図3/STEP500)。   Further, when it is determined that the object corresponds to the attention object (FIG. 3 / STEP 400... NO), the level of possibility of contact between the vehicle 10 and the object is determined (FIG. 3 / STEP 500).

この判定手法についても特開2001−006096号公報および特開2007−310705号公報に開示されているので簡単に説明する。まず、対象物の実空間距離zが相対速度Vsと余裕時間Tとの乗算値以下であるか否かが判定される。また、実空間距離zが当該値以下であると判定された場合、対象物が接近判定領域に存在するか否かが判定される(第1の接触判定処理)。接近判定領域は車両10の前方において車両10の左右方向に対称に広がり、車両10の幅にオフセット値を加えた幅を有している。第1の接触判定処理における判定結果が肯定的である場合、対象物が車両10と接触する可能性が高いと判定される。一方、第1の接触判定処理における判定結果が否定的である場合、対象物が接近判定領域の外側にある進入判定領域に存在し、かつ、対象物の相対移動ベクトルが接近判定領域に向かっているか否かがさらに判定される(第2の接触判定処理)。第2の接触判定処理における判定結果が肯定的である場合、対象物が車両10と接触する可能性が高いと判定される。   Since this determination method is also disclosed in Japanese Patent Laid-Open Nos. 2001-006096 and 2007-310705, it will be briefly described. First, it is determined whether or not the real space distance z of the object is equal to or less than the product of the relative speed Vs and the margin time T. When it is determined that the real space distance z is equal to or less than the value, it is determined whether or not the object exists in the approach determination region (first contact determination process). The approach determination area extends symmetrically in the left-right direction of the vehicle 10 in front of the vehicle 10 and has a width obtained by adding an offset value to the width of the vehicle 10. When the determination result in the first contact determination process is affirmative, it is determined that there is a high possibility that the object is in contact with the vehicle 10. On the other hand, when the determination result in the first contact determination process is negative, the object exists in the entry determination area outside the approach determination area, and the relative movement vector of the object moves toward the approach determination area. It is further determined whether or not there is (second contact determination process). When the determination result in the second contact determination process is affirmative, it is determined that there is a high possibility that the target object is in contact with the vehicle 10.

車両10と対象物との接触可能性が高いと判定された場合(第1または第2の接触判定処理における判定結果が肯定的である場合)(図3/STEP500‥YES)、「注意喚起処理」が実行される(図3/STEP600)。これにより、スピーカ6から「ピピピ」というように音声が出力される。また、対象物およびこれを囲む矩形状のフレームがHUD7に表示される。   When it is determined that the possibility of contact between the vehicle 10 and the object is high (when the determination result in the first or second contact determination process is affirmative) (FIG. 3 / STEP 500... YES), “attention processing Is executed (FIG. 3 / STEP 600). As a result, sound is output from the speaker 6 as “beep”. In addition, an object and a rectangular frame surrounding the object are displayed on the HUD 7.

対象物が注意対象に該当しないと判定された場合(図3/STEP400‥NO)、または、車両10と対象物との接触可能性が低いと判定された場合(図3/STEP500‥NO)、注意喚起処理が実行されることなく対象物抽出処理以降の処理が繰り返される(図3/STEP100等参照)。   When it is determined that the object does not correspond to the attention object (FIG. 3 / STEP 400... NO), or when it is determined that the possibility of contact between the vehicle 10 and the object is low (FIG. 3 / STEP 500... NO). The processing after the object extraction processing is repeated without executing the alert processing (see FIG. 3 / STEP 100, etc.).

ここで、人工構造物判定処理(図3/STEP200)について詳細に説明する。   Here, the artificial structure determination process (FIG. 3 / STEP 200) will be described in detail.

まず、対象物領域を構成する複数のセル行のそれぞれについて、輝度が指定輝度範囲に含まれるとともに隣接する複数のセルにより構成される第1セル群が定義される(図4/STEP202)。   First, for each of a plurality of cell rows constituting the object region, a first cell group including a plurality of adjacent cells whose luminance is included in the designated luminance range is defined (FIG. 4 / STEP 202).

たとえば、対象物領域(図5参照)の平均輝度または所定輝度以上の範囲が指定輝度範囲として採用されうる。これにより、たとえば図6(a)に示されているように定義されている画像座標系(x,y)において、x方向(行方向)に連続して並んでいる複数のセル(またはピクセル)により構成され、y方向(列方向)に並んでいる複数の第1セル群y1〜y19が定義される。   For example, the average luminance of the object area (see FIG. 5) or a range equal to or higher than a predetermined luminance can be adopted as the designated luminance range. Thereby, for example, in the image coordinate system (x, y) defined as shown in FIG. 6A, a plurality of cells (or pixels) arranged in succession in the x direction (row direction). And a plurality of first cell groups y1 to y19 arranged in the y direction (column direction) are defined.

なお、行方向および列方向のそれぞれがx方向およびy方向のそれぞれに一致しているほか、異なる任意の方向のそれぞれに一致していてもよい。たとえば、行方向がy方向に一致する一方、列方向がx方向に一致していてもよい。行方向がx軸に対して反時計回りに30°傾いた方向に一致する一方、列方向がy軸に対して反時計回りに30°傾いた方向に一致していてもよい。また、行方向および列方向は直交していなくてもよい。たとえば、行方向がx軸に対して反時計回りに30°傾いた方向に一致する一方、列方向がy軸に対して反時計回りに45°傾いた方向に一致していてもよい。   Each of the row direction and the column direction may match each of the x direction and the y direction, or may match each of different arbitrary directions. For example, the row direction may coincide with the y direction while the column direction may coincide with the x direction. The row direction may coincide with a direction inclined 30 ° counterclockwise with respect to the x-axis, while the column direction may coincide with a direction inclined 30 ° counterclockwise with respect to the y-axis. Further, the row direction and the column direction may not be orthogonal to each other. For example, the row direction may coincide with a direction inclined 30 ° counterclockwise with respect to the x axis, while the column direction may coincide with a direction inclined 45 ° counterclockwise with respect to the y axis.

また、複数のセル行が並ぶ列方向について一対の第1セル群のセルの重なり個数が第1指数C1として算出される(図4/STEP204)。なお、異なる2つの第1セル群のあらゆる組み合わせのすべてについて第1指数C1が算出される必要はなく、画像座標系における両端の座標値に鑑みてペアを構成する可能性が高い2つの第1セル群を対象として第1指数C1が算出されればよい。   Further, the number of overlapping cells in the pair of first cell groups in the column direction in which a plurality of cell rows are arranged is calculated as the first index C1 (FIG. 4 / STEP 204). Note that it is not necessary to calculate the first index C1 for every combination of two different first cell groups, and the two first items that are likely to form a pair in view of the coordinate values at both ends in the image coordinate system. The first index C1 may be calculated for the cell group.

さらに、第1指数C1に基づき、第iペア(i=1〜N)が定義される(図4/STEP206)。   Furthermore, the i-th pair (i = 1 to N) is defined based on the first index C1 (FIG. 4 / STEP 206).

具体的には、第1指数C1が最大となる一対の第1セル群が「第1ペア」として定義される。そして、第iペア(i=1,2,‥,N−1)の一方の第1セル群と、第1〜第iペアとして定義されていない第1セル群のうち、当該一方の第1セル群との前記第1指数が最大となる1つの第1セル群とが第i+1ペアとして定義される。   Specifically, a pair of first cell groups with the maximum first index C1 is defined as “first pair”. Then, among the first cell group of one of the i-th pair (i = 1, 2,..., N−1) and the first cell group not defined as the first to i-th pairs, One first cell group having the maximum first index with the cell group is defined as the (i + 1) th pair.

これにより、たとえば図6(a)に示されている第1セル群y1〜y19のうち、第1セル群y2およびy3が第1ペアとして定義される。また、第1ペアの一方の第1セル群y2と、第1指数が最大となる第1セル群y4とが第2ペアとして定義される。以下、同様にして第18ペアまで逐次定義される。第1セル群y8〜y12は他の第1セル群と比較して短いが、これはオクルージョンが発生したために対象物の一部が他の物体の陰に隠れている可能性があることを示唆している。   Thereby, for example, among the first cell groups y1 to y19 shown in FIG. 6A, the first cell groups y2 and y3 are defined as the first pair. Further, one first cell group y2 of the first pair and the first cell group y4 having the maximum first index are defined as the second pair. Hereinafter, the 18th pair is sequentially defined in the same manner. The first cell group y8 to y12 is shorter than the other first cell groups, but this suggests that part of the object may be hidden behind other objects due to the occurrence of occlusion. is doing.

第1セル群y1〜y19の左端または右端(行方向についての端)がそろうように、第1セル群y1〜y19のうち一部または全部がx方向(行方向)に変位された上で、前記のように第iペアが定義されてもよい。   After some or all of the first cell groups y1 to y19 are displaced in the x direction (row direction) so that the left ends or right ends (ends in the row direction) of the first cell groups y1 to y19 are aligned, As described above, the i-th pair may be defined.

第1セル群y1〜y19のx方向の少なくとも一方について端位置の分散が許容値以下であることを要件として、x方向の長さの偏差、すなわち、第1セル群を構成するセルの個数の偏差が小さいほど第1指数C1が高くなるように、第1指数C1が評価されたうえで第iペアが定義されてもよい。   With the requirement that the dispersion of the end positions is not more than an allowable value for at least one of the first cell groups y1 to y19 in the x direction, the deviation of the length in the x direction, that is, the number of cells constituting the first cell group The i-th pair may be defined after the first index C1 is evaluated so that the first index C1 becomes higher as the deviation is smaller.

なお、図6(b)に示されているように、所属先のペアの第1指数C1が高い順に第1セル群y1〜y19が並べ替えられてもよい(ソートされてもよい)。   Note that, as illustrated in FIG. 6B, the first cell groups y1 to y19 may be rearranged in the descending order of the first index C1 of the affiliation pair (may be sorted).

さらに、第1セル群の境界を挟んで連続する複数のセルにより構成される第2セル群が定義される(図4/STEP208)。これにより、図6(c)に示されているように第1セル群y1〜y19のそれぞれの右側の境界を挟んで連続する複数のセルにより構成される第2セル群Δy1〜Δy19が定義される。なお、第1セル群y1〜y19のそれぞれの左側の境界を挟んで連続する複数のセルにより構成される第2セル群が代替的または付加的に定義されてもよい。   Furthermore, a second cell group composed of a plurality of cells that are continuous across the boundary of the first cell group is defined (FIG. 4 / STEP 208). Thereby, as shown in FIG. 6C, the second cell groups Δy1 to Δy19 configured by a plurality of cells that are continuous across the right boundary of each of the first cell groups y1 to y19 are defined. The Note that a second cell group including a plurality of cells that are continuous across the left boundary of each of the first cell groups y1 to y19 may be defined alternatively or additionally.

また、一対の第2セル群の相関度が第2指数として算出される(図4/STEP210)。相関度の演算手法としては正規化相関等、公知手法が採用される。なお、異なる2つの第2セル群のあらゆる組み合わせのすべてについて第2指数C2が算出される必要はなく、ペアを構成する一対の第1セル群のそれぞれに対応する一対の第2セル群を対象として第2指数C2が算出されればよい。これにより、第1ペアに相当する一対の第2セル群Δy3およびΔy2の相関度が第2指数C2として算出される。その他、第2ペアに相当する一対の第2セル群Δy2およびΔy4等の相関度が第2指数C2として算出される。   Further, the degree of correlation between the pair of second cell groups is calculated as the second index (FIG. 4 / STEP 210). As a method for calculating the correlation degree, a known method such as normalized correlation is employed. Note that the second index C2 need not be calculated for every combination of two different second cell groups, but a pair of second cell groups corresponding to each of the pair of first cell groups constituting the pair is targeted. The second index C2 may be calculated as follows. As a result, the degree of correlation between the pair of second cell groups Δy3 and Δy2 corresponding to the first pair is calculated as the second index C2. In addition, the degree of correlation between the pair of second cell groups Δy2 and Δy4 corresponding to the second pair is calculated as the second index C2.

第j1ペア(「j1」はN未満の第1定数である。)を構成する一対の第1セル行の第1指数C1(j1)が第1基準値TH1以上であるか否かが判定される(図4/STEP212)。   It is determined whether or not the first index C1 (j1) of the pair of first cell rows constituting the j1 pair (“j1” is a first constant less than N) is greater than or equal to the first reference value TH1. (FIG. 4 / STEP 212).

前記のように第1指数(列方向のセルの重なり個数)C1が高い順に第1〜第Nペアが順に定義されることから、当該判定は、第1〜第j1ペアのすべてについて第1指数C1が第1基準値TH1以上であるか否かを判定することと同等である。すなわち、当該判定は、対象物が実空間において第1指数j1に応じた程度の高さと、第1基準値TH1に応じた程度の幅とを有するまとまった一または複数の部分を有しているか否かを判定することに該当する。   As described above, the first index (the number of overlapping cells in the column direction) C1 is defined in order from the first to the Nth pairs in descending order, and therefore, the determination is made for all of the first to j1th pairs. This is equivalent to determining whether C1 is equal to or greater than the first reference value TH1. That is, in the determination, whether the object has one or a plurality of portions having a height corresponding to the first index j1 and a width corresponding to the first reference value TH1 in the real space. This corresponds to determining whether or not.

第1定数j1は壁、柱などの人工構造物の実空間における標準的な高さに基づき、オクルージョンが生じた場合に他の物体の陰に隠れる度合いを考慮して設定される。第1基準値TH1は人工構造物の実空間における標準的な幅に基づき、オクルージョンが生じた場合に他の物体の陰に隠れる度合いを考慮して設定される。画像における対象物の大小は実空間距離の長短に応じて変化するので、第1定数j1および第1基準値TH1のそれぞれは対象物抽出処理(図3/STEP100参照)において算出された実空間位置に応じて可変的に設定されうる。   The first constant j1 is set on the basis of the standard height in the real space of an artificial structure such as a wall or a column in consideration of the degree of hiding behind other objects when occlusion occurs. The first reference value TH1 is set based on the standard width in the real space of the artificial structure in consideration of the degree of occlusion that is hidden behind other objects. Since the size of the object in the image changes according to the length of the real space distance, each of the first constant j1 and the first reference value TH1 is the real space position calculated in the object extraction process (see FIG. 3 / STEP 100). It can be variably set according to.

たとえば、図6(b)に示されているように、画像における人工構造物の標準的な高さ(オクルージョン発生を考慮して若干減算された値)Ythに相当する第1〜第11ペアのセルの重なり個数(第1指数C1)が、画像における人工構造物の標準的な幅Xthに相当する1閾値TH1以上である場合、当該判定結果は肯定的になる。   For example, as shown in FIG. 6B, the first to eleventh pairs corresponding to the standard height (a value slightly subtracted in consideration of the occurrence of occlusion) Yth of the artificial structure in the image. When the number of overlapping cells (first index C1) is equal to or greater than one threshold TH1 corresponding to the standard width Xth of the artificial structure in the image, the determination result is positive.

第j1ペアを構成する一対の第1セル行の第1指数C1(j1)が第1基準値TH1以上であると判定された場合(図4/STEP212‥YES)、第1〜第j2ペア(「j2」は第1定数j1以下の第2定数である。)のそれぞれに対応する一対の第2セル群について、すべての第2指数C2が第2基準値TH2以上であるか否かがさらに判定される(図4/STEP214)。   When it is determined that the first index C1 (j1) of the pair of first cell rows constituting the j1 pair is equal to or greater than the first reference value TH1 (FIG. 4 / STEP212... YES), the first to j2th pairs ( “J2” is a second constant less than or equal to the first constant j1.) For each pair of second cell groups, it is further determined whether or not all the second indices C2 are greater than or equal to the second reference value TH2. It is determined (FIG. 4 / STEP 214).

前記のように第1セル群の境界を挟む複数のセルが第2セル群として定義されることから、当該判定は、対象物の輪郭が列方向(y方向)について第2定数j2に応じた距離だけ安定に伸びている一または複数の部分を含んでいるか否かを判定することに該当する。   As described above, since the plurality of cells sandwiching the boundary of the first cell group are defined as the second cell group, the determination is made according to the second constant j2 with respect to the column direction (y direction). This corresponds to determining whether or not one or a plurality of portions that are stably extended by a distance are included.

たとえば、図6(c)に示されているように、画像における人工構造物の標準的な高さYth以下の範囲Yth’にわたる数のペアのすべての第2指数C2が第2基準値以上である場合、当該判定結果は肯定的になる。   For example, as shown in FIG. 6 (c), all the second indices C2 of the number pairs over the range Yth ′ below the standard height Yth of the artificial structure in the image are greater than or equal to the second reference value. In some cases, the determination result is positive.

第1〜第j2ペアのそれぞれに対応する一対の第2セル群について、すべての第2指数C2が第2基準値TH2以上であると判定された場合(図4/STEP214‥YES)、フラグkは対象物が人工対象物に該当することを表わす「1」に設定される(図4/STEP216)。   When it is determined that all the second indices C2 are equal to or greater than the second reference value TH2 for the pair of second cell groups corresponding to the first to j2 pairs (FIG. 4 / STEP214... YES), the flag k Is set to “1” indicating that the object corresponds to an artificial object (FIG. 4 / STEP 216).

一方、前記判定結果のうち一方が否定的であった場合(図4/STEP212‥NO,STEP214‥NO)、フラグkは対象物が人工対象物に該当しないことを表わす「0」に設定される(図4/STEP218)。   On the other hand, when one of the determination results is negative (FIG. 4 / STEP 212... NO, STEP 214... NO), the flag k is set to “0” indicating that the object does not correspond to the artificial object. (FIG. 4 / STEP 218).

前記機能を発揮する車両周辺監視装置によれば、第1〜第j1ペアのそれぞれを構成する一対の第1セル群について、すべての第1指数C1が第1基準値TH1以上であるか否かが判定される(図4/STEP212参照)。第1指数C1は複数のセル行が並ぶ列方向(図6のy方向参照)についてセルの重なり個数を意味する。   According to the vehicle periphery monitoring device that exhibits the above function, whether or not all the first indices C1 are equal to or greater than the first reference value TH1 for the pair of first cell groups constituting each of the first to j1 pairs. Is determined (see FIG. 4 / STEP 212). The first index C1 means the number of overlapping cells in the column direction in which a plurality of cell rows are arranged (see the y direction in FIG. 6).

第1セル群は、指定輝度範囲に含まれるとともに連続して並んでいる複数のセルにより構成されているので、第1セル群の長短および第1セル群の多少には、画像における対象物の「輝度の一様性」の程度が反映されうる(図6(a)参照)。第iペア(i=1,2,‥N)は第1指数C1が高い順に逐次選定される一対の第1セル群により構成されているので、順位がある程度低いペアを構成する一対の第1セル群の列方向のセルの重なり個数の多少には、画像における対象物の「外形の規則性」の程度が反映されうる(図6(b)参照)。   Since the first cell group is composed of a plurality of cells that are included in the designated luminance range and are continuously arranged, the length of the first cell group and the length of the first cell group may include the object in the image. The degree of “luminance uniformity” can be reflected (see FIG. 6A). Since the i-th pair (i = 1, 2,... N) is composed of a pair of first cell groups that are sequentially selected in descending order of the first index C1, a pair of first cells constituting a pair having a somewhat lower order. The degree of “regularity of the outer shape” of the object in the image can be reflected on the number of overlapping cells in the column direction of the cell group (see FIG. 6B).

したがって、前記判定(図4/STEP212参照)により、赤外線カメラ2R,2Lにより得られた画像において輝度が全体的に一様であり、かつ、外形が規則的であるという性質を有する人工構造物に対象物が該当するか否かが高精度で判定されうる。また、対象物の一部が他の物体に隠れていても、残りの部分が前記のような性質を示すため、オクルージョンの発生の影響が軽減され、その結果として対象物が人工構造物に該当するか否かが高精度で判定されうる。   Therefore, by the determination (see FIG. 4 / STEP 212), the artificial structure having the properties that the luminance is uniform overall and the outer shape is regular in the images obtained by the infrared cameras 2R and 2L. Whether or not the object is applicable can be determined with high accuracy. In addition, even if a part of the object is hidden behind other objects, the remaining part exhibits the above-mentioned properties, so the influence of the occurrence of occlusion is reduced, and as a result, the object corresponds to an artificial structure. Whether or not to do so can be determined with high accuracy.

また、第1〜第j2ペアのそれぞれに対応する一対の第2セル群について、すべての第2指数C2が第2基準値TH2以上であるか否かが判定される(図4/STEP214参照)。第2指数C2は列方向について重なる2つの第2セル群の相関度を意味する。   Further, it is determined whether or not all second indices C2 are equal to or greater than the second reference value TH2 for the pair of second cell groups corresponding to the first to j2 pairs (see FIG. 4 / STEP 214). . The second index C2 means the degree of correlation between two second cell groups that overlap in the column direction.

第2セル群は、第1セル群の境界を挟んで連続する複数のセルにより構成されているので、第2セル群の相関度の高低には、画像における対象物の列方向への「輪郭の延び方の一様性」の程度が反映されうる(図6(c)参照)。   Since the second cell group is composed of a plurality of cells that are continuous across the boundary of the first cell group, the “contour” in the column direction of the object in the image is used for the degree of correlation of the second cell group. The degree of “uniformity of the extending direction” can be reflected (see FIG. 6C).

したがって、前記判定(図4/STEP214参照)により、列方向に輪郭が一様に延びるような規則的な外形を有する人工構造物に対象物が該当するか否かが、オクルージョンの発生の有無の影響を低減しながら高精度で判定されうる。   Accordingly, whether or not the object corresponds to an artificial structure having a regular outer shape whose contour extends uniformly in the column direction is determined by the above determination (see FIG. 4 / STEP 214). It can be determined with high accuracy while reducing the influence.

さらに、フラグkが0であること、すなわち、対象物が人工構造物に該当しないという判定結果(図3/STEP300‥NO参照)は、対象物の輝度が一様ではなく、また、外形が複雑であることを示唆することから、対象物が人間等の注意対象に該当するという判定に際して当該判定結果が補足的に利用されてもよい。   Further, the determination result that the flag k is 0, that is, the object does not correspond to the artificial structure (see FIG. 3 / STEP 300... NO), the brightness of the object is not uniform, and the outer shape is complicated. Therefore, the determination result may be supplementarily used when determining that the object corresponds to an attention object such as a human being.

なお、本発明の他の実施形態として第2セル群の定義および第2指数C2の算出および、第2指数C2および第2基準値TH2の対比が省略されてもよい(図4/STEP208,210および214参照)。当該実施形態によれば、第j1ペアの第1定数C1(j1)が第1基準値TH1以上であると判定された場合(図4/STEP212‥YES)、フラグkが「1」に設定される(図4/STEP216)。第j1ペアの第1定数C1(j1)が第1基準値TH1以上であると判定された場合(図4/STEP212‥YES)、フラグkが「1」に設定される(図4/STEP216)。   As another embodiment of the present invention, the definition of the second cell group, the calculation of the second index C2, and the comparison between the second index C2 and the second reference value TH2 may be omitted (FIG. 4 / STEP 208, 210). And 214). According to this embodiment, when it is determined that the first constant C1 (j1) of the j1st pair is equal to or greater than the first reference value TH1 (FIG. 4 / STEP212... YES), the flag k is set to “1”. (FIG. 4 / STEP 216). When it is determined that the first constant C1 (j1) of the j1st pair is equal to or greater than the first reference value TH1 (FIG. 4 / STEP 212... YES), the flag k is set to “1” (FIG. 4 / STEP 216). .

当該他の実施形態によっても前記のような理由により、対象物の一部が他の物体に隠れていても、残りの部分が前記のような性質を示すため、オクルージョンの発生の影響が軽減され、その結果として対象物が人工構造物に該当するか否かが高精度で判定されうる。   Even in the other embodiment, even if a part of the object is hidden behind another object due to the above-described reason, the remaining part exhibits the above-described property, so that the influence of the occurrence of occlusion is reduced. As a result, it can be determined with high accuracy whether or not the object corresponds to an artificial structure.

なお、複数の第1セル群のそれぞれに輝度が顕著に高いまたは低いなど特徴的な一または複数のセルにより構成される部分が存在し、かつ、当該部分のそれぞれが列方向に対して平衡または一定角度をなすなど規則的に配列されている場合、当該複数の第1セル群が人工構造物に該当すると判定されてもよい。当該実施形態によれば、対象物が、穴が形成されているまたは表面に特徴的な形状が表われている壁などの人工構造物に該当するか否かが判定されうる。   In addition, each of the plurality of first cell groups includes a portion constituted by one or a plurality of characteristic cells such as significantly high or low luminance, and each of the portions is balanced with respect to the column direction. When regularly arranged such as forming a certain angle, it may be determined that the plurality of first cell groups correspond to the artificial structure. According to the embodiment, it can be determined whether or not the object corresponds to an artificial structure such as a wall in which a hole is formed or a characteristic shape appears on the surface.

1‥画像処理ユニット、2R,2L‥赤外線カメラ(撮像装置)、10‥車両、11‥第1画像処理手段、12‥第2画像処理手段 DESCRIPTION OF SYMBOLS 1 ... Image processing unit, 2R, 2L ... Infrared camera (imaging device), 10 ... Vehicle, 11 ... 1st image processing means, 12 ... 2nd image processing means

Claims (2)

車両に搭載されている撮像装置により得られた前記車両の周辺の画像を用いて前記車両の周辺を監視する装置であって、
前記画像から前記車両の周辺に存在する対象物に相当する画像領域を対象物領域として抽出するように構成されている第1画像処理手段と、
前記対象物領域を構成する行方向に並んでいる複数のセル行のそれぞれについて、輝度が指定輝度範囲に含まれるとともに前記行方向に隣接する複数のセルにより構成される第1セル群を定義し、
前記複数のセル行が並ぶ列方向について一対の第1セル群のセルの重なり個数を第1指数として算出し、
前記第1指数が最大となる一対の第1セル群を第1ペアとして定義し、第iペア(i=1,2,‥,N−1)の一方の第1セル群と、第1〜第iペアとして定義されていない第1セル群のうち、前記一方の第1セル群との前記第1指数が最大となる1つの第1セル群とを第i+1ペアとして定義し、かつ、
第1〜第j1ペア(「j1」はN以下の第1定数である。)のそれぞれを構成する一対の第1セル群についてすべての前記第1指数が第1基準値以上であることを要件として、前記対象物が人工構造物に該当すると判定するように構成されている第2画像処理手段とを備えていることを特徴とする車両周辺監視装置。
An apparatus for monitoring the periphery of the vehicle using an image of the periphery of the vehicle obtained by an imaging device mounted on the vehicle,
A first image processing means configured to extract an image area corresponding to an object existing around the vehicle from the image as an object area;
For each of a plurality of cell rows arranged in the row direction constituting the object region, a first cell group including a plurality of cells whose luminance is included in a specified luminance range and adjacent in the row direction is defined. ,
Calculating the number of overlapping cells of a pair of first cell groups as a first index in the column direction in which the plurality of cell rows are arranged;
A pair of first cell groups having the maximum first index is defined as a first pair, and one first cell group of the i-th pair (i = 1, 2,..., N−1), Of the first cell groups not defined as the i-th pair, one first cell group having the maximum first index with the one first cell group is defined as the i + 1 pair, and
Requirement that all the first indices be greater than or equal to the first reference value for a pair of first cell groups constituting each of the first to j1 pairs ("j1" is a first constant equal to or less than N). And a second image processing means configured to determine that the object corresponds to an artificial structure.
請求項1記載の車両周辺監視装置において、
前記第2画像処理手段は、前記行方向について前記第1セル群と背景セル群との境界を挟んで連続する複数のセルにより構成される第2セル群を定義し、
前記列方向について重なる2つの第2セル群の相関度を第2指数として算出し、かつ、
第1〜第j2ペア(「j2」は前記第1定数「j1」以下の第2定数である。)のそれぞれに対応する一対の第2セル群について、すべての前記第2指数が第2基準値以上であることをさらなる要件として、前記対象物が人工構造物に該当すると判定するように構成されていることを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The second image processing means defines a second cell group composed of a plurality of cells that are continuous across the boundary between the first cell group and the background cell group in the row direction,
Calculating the degree of correlation between two second cell groups overlapping in the column direction as a second index; and
For the pair of second cells corresponding to each of the first to j2 pairs (“j2” is a second constant equal to or less than the first constant “j1”), all the second indices are the second reference. The vehicle periphery monitoring device is configured to determine that the target object corresponds to an artificial structure, as a further requirement that the value is equal to or greater than a value.
JP2009105640A 2009-04-23 2009-04-23 Vehicle periphery monitoring device Expired - Fee Related JP4815506B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009105640A JP4815506B2 (en) 2009-04-23 2009-04-23 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009105640A JP4815506B2 (en) 2009-04-23 2009-04-23 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010257154A JP2010257154A (en) 2010-11-11
JP4815506B2 true JP4815506B2 (en) 2011-11-16

Family

ID=43317999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009105640A Expired - Fee Related JP4815506B2 (en) 2009-04-23 2009-04-23 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4815506B2 (en)

Also Published As

Publication number Publication date
JP2010257154A (en) 2010-11-11

Similar Documents

Publication Publication Date Title
JP5198346B2 (en) Vehicle periphery monitoring device
WO2010050090A1 (en) System for monitoring the area around a vehicle
JP4456086B2 (en) Vehicle periphery monitoring device
JP4271720B1 (en) Vehicle periphery monitoring device
JP4521642B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
WO2009150771A1 (en) Vehicle periphery monitoring device
JP2007310706A (en) Vehicle periphery monitoring device
JP4486997B2 (en) Vehicle periphery monitoring device
JP4644273B2 (en) Vehicle periphery monitoring device
US7885430B2 (en) Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
JP5172482B2 (en) Vehicle periphery monitoring device
JP4615061B2 (en) Vehicle periphery monitoring device
JP4823753B2 (en) Vehicle periphery monitoring device
JP4815506B2 (en) Vehicle periphery monitoring device
JP5430213B2 (en) Vehicle periphery monitoring device
JP5026398B2 (en) Vehicle periphery monitoring device
JP4694441B2 (en) Vehicle perimeter monitoring system
JP4972073B2 (en) Environment recognition device
JP4590654B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP2008042779A5 (en)

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees