JP4871941B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP4871941B2
JP4871941B2 JP2008264128A JP2008264128A JP4871941B2 JP 4871941 B2 JP4871941 B2 JP 4871941B2 JP 2008264128 A JP2008264128 A JP 2008264128A JP 2008264128 A JP2008264128 A JP 2008264128A JP 4871941 B2 JP4871941 B2 JP 4871941B2
Authority
JP
Japan
Prior art keywords
vehicle
infrared
amount
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008264128A
Other languages
Japanese (ja)
Other versions
JP2010093715A (en
Inventor
伸治 長岡
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008264128A priority Critical patent/JP4871941B2/en
Publication of JP2010093715A publication Critical patent/JP2010093715A/en
Application granted granted Critical
Publication of JP4871941B2 publication Critical patent/JP4871941B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、赤外線カメラにより撮影された画像の2値化処理により対象物抽出を行う車両周辺監視装置に関するものである。   The present invention relates to a vehicle periphery monitoring apparatus that extracts an object by binarization processing of an image photographed by an infrared camera.

従来、自動車等の自車両に設けられた赤外線カメラにより撮影された車両周辺の画像を2値化処理することで歩行者と思われる対象物の抽出を行い、抽出された対象物と自車両との衝突可能性が高い場合にこの情報をドライバーに報知する車両周辺監視装置が知られている。
さらに近年、2つの赤外線カメラを用いて歩行者を対象物として抽出する車両周辺監視装置において、車両のテールライトなどの灯体と思われる高輝度物体の上部に探索領域を設定し、高輝度物体と同距離の物体が探索領域内に検索されて、且つ、探索領域の平均輝度が規定値より小さい場合に、この探索領域内の物体がウィンドシールドであると判定してこの物体が車両であると判定するものが提案されている(例えば、特許文献1参照)。
特開2003−230134号公報
Conventionally, an object that appears to be a pedestrian is extracted by binarizing an image of the periphery of the vehicle that is captured by an infrared camera provided on the own vehicle such as an automobile, and the extracted object and the own vehicle There is known a vehicle periphery monitoring device that notifies a driver of this information when there is a high possibility of collision.
In recent years, in a vehicle periphery monitoring apparatus that extracts pedestrians as objects using two infrared cameras, a search area is set above a high-brightness object such as a taillight of a vehicle and a high-brightness object. When the object having the same distance as is searched in the search area and the average brightness of the search area is smaller than the specified value, it is determined that the object in the search area is a windshield and the object is a vehicle. Have been proposed (see, for example, Patent Document 1).
JP 2003-230134 A

しかしながら、上述した従来の車両周辺監視装置にあっては、高輝度物体の上部周辺に低輝度物体が存在すると車両以外の物体でも車両であると誤判定してしまう虞がある。
また、車両のウィンドシールドは、一般にガラスで形成されていることから赤外線を反射し易く、空、雲および周囲の風景などを反射したときに輝度が低い部位が存在しない状況となる場合があり、車両を対象物から排除できない虞があるという課題がある。
However, in the conventional vehicle periphery monitoring device described above, if there is a low-luminance object around the upper portion of the high-luminance object, there is a possibility that an object other than the vehicle is erroneously determined as a vehicle.
In addition, since the windshield of a vehicle is generally made of glass, it is easy to reflect infrared rays, and there may be a situation where there is no part with low brightness when reflecting the sky, clouds, surrounding scenery, etc. There exists a subject that there exists a possibility that a vehicle cannot be excluded from a target object.

この発明は、上記事情に鑑みてなされたものであり、赤外線カメラにより撮影された画像に含まれる対象物から車両のみをより確実に排除してさらなる歩行者認識の精度向上を図ることが可能な車両周辺監視装置を提供するものである。   The present invention has been made in view of the above circumstances, and it is possible to more surely eliminate only the vehicle from the object included in the image captured by the infrared camera and further improve the accuracy of pedestrian recognition. A vehicle periphery monitoring device is provided.

上記の課題を解決するために、請求項1に記載した発明は、赤外線カメラ(例えば、実施の形態における赤外線カメラ2R,2L)によって捉えられた画像から車両の特徴部と思われる熱源を第1対象物(例えば、実施の形態におけるOBJ[1],OBJ[2])として抽出する特徴部抽出手段(例えば、実施の形態におけるステップS41〜S43)と、該第1対象物の周囲の領域(例えば、実施の形態における窓候補領域A)と、前記第1対象物との距離を比較して前記第1対象物との距離が所定範囲内となる第2対象物を抽出する第2対象物抽出手段(例えば、実施の形態におけるステップS44〜S46)と、該第2対象物から発生される赤外線量の時間的変化を検出する赤外線量変化検出手段(例えば、実施の形態におけるステップS50)と、該赤外線量変化検出手段により検出された前記第2対象物から発生される赤外線量の時間的変化が所定の赤外線量の条件を満たすか否かを判定する赤外線量判定手段(例えば、実施の形態におけるステップS51,S52)と、該赤外線量判定手段により、前記第2対象物から発生される赤外線量の時間的変化が所定の赤外線量の条件を満たすと判定された場合に、前記第1対象物と前記第2対象物とを含む物体が車両であると判定する車両判定手段(例えば、実施の形態におけるステップS53)とを設けたことを特徴とする。 In order to solve the above-described problem, the invention described in claim 1 is based on a first heat source that is considered to be a characteristic part of a vehicle from an image captured by an infrared camera (for example, the infrared cameras 2R and 2L in the embodiment). Feature extraction means (for example, steps S41 to S43 in the embodiment) for extracting as an object (for example, OBJ [1], OBJ [2] in the embodiment) and an area around the first object ( for example, a window candidate region a) in the embodiment, by comparing the distance between the first object, a second object distance between the first object to extract the second object falls within a predetermined range object extracting means (e.g., step S44~S46 in the embodiment) and, the amount of infrared change detecting means for detecting a temporal change in amount of infrared rays that are generated from the second object (e.g., the scan in the embodiment And-up S50), the amount of infrared rays temporal change that is generated from the second object detected by the infrared amount change detecting means, the amount of infrared radiation judgment judged whether or not the condition given in amount of infrared rays By means (for example, steps S51 and S52 in the embodiment) and the infrared amount determination means , it is determined that the temporal change in the amount of infrared rays generated from the second object satisfies the condition of a predetermined infrared amount . In this case, vehicle determining means (for example, step S53 in the embodiment) for determining that the object including the first object and the second object is a vehicle is provided.

請求項2に記載の発明は、車両の窓への映り込みが起こりやすい外部環境であるか判定する判定手段を備え、前記赤外線量判定手段は、前記判定手段により前記車両の窓への移り込みが起こりやすい外部環境であると判定された場合と、前記判定手段により前記車両の窓への移り込みが起こりやすい外部環境ではないと判定された場合とで、前記所定の赤外線量の条件を持ち替えて、前記第2対象物から発生される赤外線量の時間的変化が、当該所定の赤外線量の条件を満たすか否かを判定することを特徴とする。
請求項3に記載の発明は、前記外部環境が、空模様の状況であることを特徴とする。
請求項4に記載の発明は、前記外部環境が、車両の走行路近傍の物体の状況であることを特徴とする。
According to a second aspect of the present invention, there is provided a determination unit that determines whether or not an external environment in which reflection in a vehicle window is likely to occur , and the infrared amount determination unit is moved into the vehicle window by the determination unit. The condition of the predetermined infrared light amount is changed between the case where it is determined that the external environment is likely to occur and the case where the determination means determines that the external environment is not likely to move into the window of the vehicle. Te, temporal change in amount of infrared rays that are generated from the second object is characterized that you determine whether or not the condition of the predetermined amount of infrared rays.
The invention described in claim 3 is characterized in that the external environment is a sky pattern.
The invention described in claim 4 is characterized in that the external environment is a situation of an object in the vicinity of a traveling path of a vehicle.

請求項1に記載した発明によれば、特徴部抽出手段により抽出された第1対象物との距離が所定範囲内の第2対象物を第2対象物抽出手段により抽出して、第2対象物の赤外線量の時間的変化が所定の赤外線量の条件の場合に、第2対象物が車両のウィンドシールドなどのガラスである可能性が高いため、第1対象物と第2対象物とを含む物体が車両であると判定することができる。
したがって、第1対象物との距離が所定範囲内のウィンドシールドが周囲の風景などが反射して赤外線量の時間的変化の幅が大きくなった場合に物体が車両であると判定したり、快晴時の空や、雲一面の空が反射して赤外線量の時間的変化がなく一様である場合に物体が車両であると判定することができるため、車両のみを確実に排除して歩行者認識の精度向上に寄与することができる効果がある。
According to the first aspect of the present invention, the second object extraction means extracts the second object whose distance from the first object extracted by the feature extraction means is within a predetermined range, and the second object Since the second object is likely to be glass such as a windshield of a vehicle when the temporal change in the amount of infrared light of the object is a predetermined infrared light amount condition, the first object and the second object are It can be determined that the containing object is a vehicle.
Therefore, when the windshield whose distance from the first object is within a predetermined range reflects the surrounding scenery and the width of the temporal change in the amount of infrared rays increases, it is determined that the object is a vehicle or clear The object can be determined to be a vehicle when the sky of time or the sky of the clouds is reflected and there is no temporal change in the amount of infrared rays, so it is possible to determine that the object is a vehicle. There is an effect that can contribute to improvement of recognition accuracy.

以下、図面を参照して本発明の第1の実施の形態について説明する。
図1は、本発明の第1の実施の形態の車両周辺監視装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
The first embodiment of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of the vehicle periphery monitoring device according to the first embodiment of the present invention.
In FIG. 1, reference numeral 1 denotes an image processing unit including a CPU (central processing unit) that controls the vehicle periphery monitoring device according to the present embodiment, and includes two infrared cameras 2R and 2L capable of detecting far infrared rays. A yaw rate sensor 3 for detecting the yaw rate of the vehicle, a vehicle speed sensor 4 for detecting a traveling speed (vehicle speed) of the vehicle, and a brake sensor 5 for detecting a brake operation are connected. Thus, when the image processing unit 1 detects a moving object such as a pedestrian or an animal in front of the vehicle from an infrared image around the vehicle and a signal indicating the running state of the vehicle, and determines that the possibility of a collision is high Alarm.

また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display)7a等を含む画像表示装置7が接続されている。   In addition, the image processing unit 1 displays a speaker 6 for issuing a warning by voice and images taken by the infrared cameras 2R and 2L, and makes the vehicle driver recognize an object having a high risk of collision. For example, a meter-integrated display integrated with a meter that expresses the running state of the host vehicle, a NAVID display installed on the console of the host vehicle, and information displayed at a position on the front window that does not obstruct the driver's front view An image display device 7 including a HUD (Head Up Display) 7a is connected.

また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。   The image processing unit 1 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a CPU (central processing unit) that performs various arithmetic processes, RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs and tables executed by the CPU, maps, etc., speaker 6 drive signals, display signals such as HUD7a, etc. The output signals of the infrared cameras 2R and 2L, the yaw rate sensor 3, the vehicle speed sensor 4 and the brake sensor 5 are converted into digital signals and input to the CPU.

また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウィンドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
As shown in FIG. 2, the infrared cameras 2R and 2L are disposed in the front part of the host vehicle 10 at positions that are substantially symmetrical with respect to the center of the host vehicle 10 in the vehicle width direction. The optical axes of 2R and 2L are parallel to each other and are fixed so that the heights from both road surfaces are equal. The infrared cameras 2R and 2L have a characteristic that the output signal level increases (the luminance increases) as the temperature of the object increases.
The HUD 7a is provided so that the display screen is displayed at a position that does not obstruct the driver's front view of the front window of the host vehicle 10.

次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
Next, the operation of the present embodiment will be described with reference to the drawings.
FIG. 3 is a flowchart showing an object detection / alarm operation of a pedestrian or the like in the image processing unit 1 of the vehicle periphery monitoring device of the present embodiment.
First, the image processing unit 1 acquires infrared images, which are output signals of the infrared cameras 2R and 2L (step S1), performs A / D conversion (step S2), and stores a grayscale image in an image memory (step S1). S3). Here, the right image is obtained by the infrared camera 2R, and the left image is obtained by the infrared camera 2L. In addition, since the horizontal position of the same object on the display screen is shifted in the right image and the left image, the distance to the object can be calculated from this shift (parallax).

ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
If a grayscale image is obtained in step S3, then the right image obtained by the infrared camera 2R is used as a reference image, and binarization processing of the image signal, that is, an area brighter than the luminance threshold value ITH is “1” ( White) and the dark area is set to “0” (black) (step S4).
FIG. 4A shows a grayscale image obtained by the infrared camera 2R, and binarization processing is performed on the grayscale image to obtain an image as shown in FIG. 4B. In FIG. 4B, for example, an object surrounded by a frame from P1 to P4 is an object displayed as white on the display screen (hereinafter referred to as “high luminance region”).
When the binarized image data is acquired from the infrared image, the binarized image data is converted into run-length data (step S5). The line represented by the run-length data is an area that is whitened by binarization at the pixel level, and has a width of one pixel in the y direction, and each has a width in the x direction. It has the length of the pixels constituting the run-length data.

次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域が、それぞれ対象物(2値化対象物)1から4として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
Next, the target object is labeled from the image data converted into run-length data (step S6), thereby performing a process of extracting the target object (step S7). That is, of the lines converted into run length data, a line with a portion overlapping in the y direction is regarded as one object, so that, for example, the high luminance area shown in FIG. Things) will be grasped as 1 to 4.
When the extraction of the object is completed, next, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle of the extracted object are calculated (step S8).

ここで、面積Sは、ラベルaの対象物のランレングスデータを(x[i]、y[i]、run[i]、a)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
Here, the area S is (x [i], y [i], run [i], a) (i = 0, 1, 2,... N−1) ), The length of the run length data (run [i] −1) is calculated for the same object (N pieces of run length data). The coordinates (xc, yc) of the center of gravity G of the object a are the length (run [i] -1) of each run-length data and the coordinates x [i] or y [i] of each run-length data. Are multiplied by the area S and calculated by multiplying them by the area S.
Further, the aspect ratio ASPECT is calculated as a ratio Dy / Dx between the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object.
Since the run length data is indicated by the number of pixels (number of coordinates) (= run [i]), the actual length needs to be “−1” (= run [i] −1). Further, the position of the center of gravity G may be substituted by the position of the center of gravity of the circumscribed rectangle.

対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物a、bを抽出したら、時刻(k+1)で抽出した対象物c、dと対象物a、bとの同一性判定を行う。そして、対象物a、bと対象物c、dとが同一であると判定されたら、対象物c、dをそれぞれ対象物a、bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
Once the center of gravity, area, and circumscribing aspect ratio of the object can be calculated, next, the object is tracked between times, that is, the same object is recognized for each sampling period (step S9). In the tracking between times, the time obtained by discretizing the time t as an analog quantity with the sampling period is set as k. For example, if the objects a and b are extracted at the time k, the objects c and d extracted at the time (k + 1) and the target The identity determination with the objects a and b is performed. When it is determined that the objects a and b and the objects c and d are the same, the objects c and d are changed to labels of the objects a and b, respectively, so that tracking is performed for the time.
Further, the position coordinates (center of gravity) of each object recognized in this way are stored in the memory as time-series position data and used for the subsequent calculation processing.

なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θrを算出する(ステップS10)。
Note that the processes in steps S4 to S9 described above are performed on a binarized reference image (in this embodiment, a right image).
Next, the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3 are read, and the turning angle θr of the host vehicle 10 is calculated by integrating the yaw rate YR over time (step S10).

一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S11より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
On the other hand, in parallel with the processing of step S9 and step S10, in steps S11 to S13, processing for calculating the distance z between the object and the host vehicle 10 is performed. Since this calculation requires a longer time than steps S9 and S10, it is executed in a cycle longer than steps S9 and S11 (for example, a cycle that is about three times the execution cycle of steps S1 to S10).
First, by selecting one of the objects tracked by the binarized image of the reference image (right image), the search image R1 (here, the entire region surrounded by the circumscribed rectangle is searched for from the right image). Are extracted (step S11).

次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
Next, a search area for searching for an image corresponding to the search image R1 (hereinafter referred to as “corresponding image”) from the left image is set, and a correlation operation is executed to extract the corresponding image (step S12). Specifically, a search area R2 is set in the left image according to each vertex coordinate of the search image R1, and a luminance difference total value C (a indicating the level of correlation with the search image R1 within the search area R2 , B), and a region where the total value C (a, b) is minimum is extracted as a corresponding image. This correlation calculation is performed using a grayscale image instead of a binarized image.
When there is past position data for the same object, an area R2a narrower than the search area R2 is set as a search area based on the position data.

ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。距離zを求める式は後述する。
次に、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
The search image R1 is extracted from the reference image (right image) and the corresponding image R4 corresponding to the target object is extracted from the left image by the processing in step S12. Next, the search image R1 corresponds to the center of gravity position of the search image R1. The position of the center of gravity of the image R4 and the parallax Δd (number of pixels) are obtained, and the distance z between the vehicle 10 and the object is calculated from the position (step S13). An expression for obtaining the distance z will be described later.
Next, when the calculation of the turning angle θr in step S10 and the distance calculation with the object in step S13 are completed, the coordinates (x, y) and the distance z in the image are changed to real space coordinates (X, Y, Z). Conversion is performed (step S14).
Here, the real space coordinates (X, Y, Z) are, as shown in FIG. 2, with the origin O as the midpoint position (position fixed to the host vehicle 10) of the attachment position of the infrared cameras 2R, 2L. The coordinates in the image are determined as shown in the figure, with the center of the image as the origin and the horizontal direction as x and the vertical direction as y.

また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
When the real space coordinates are obtained, the turning angle correction for correcting the positional deviation on the image due to the turning of the host vehicle 10 is performed (step S15). In the turning angle correction, when the host vehicle 10 turns, for example, to the left by the turning angle θr during the period from time k to (k + 1), the range of the image is shifted in the x direction by Δx on the image obtained by the camera. This is a process for correcting this.
In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).

実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める(ステップS16)。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
When the turning angle correction with respect to the real space coordinates is completed, N (for example, about N = 10) real space position data after the turning angle correction obtained during the monitoring period of ΔT for the same object, that is, From the time series data, an approximate straight line LMV corresponding to the relative movement vector between the object and the host vehicle 10 is obtained (step S16).
Next, the latest position coordinates P (0) = (X (0), Y (0), Z (0)) and (N-1) position coordinates P (N−1) before the sample (before time ΔT). = (X (N-1), Y (N-1), Z (N-1)) is corrected to a position on the approximate straight line LMV, and the corrected position coordinates Pv (0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1), Zv (N-1)) are obtained.

これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
Thereby, a relative movement vector is obtained as a vector from the position coordinates Pv (N−1) to Pv (0).
In this way, by calculating an approximate straight line that approximates the relative movement locus of the object with respect to the host vehicle 10 from a plurality (N) of data within the monitoring period ΔT, the influence of the position detection error is reduced. Thus, the possibility of collision with the object can be predicted more accurately.

また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
If the relative movement vector is obtained in step S16, an alarm determination process for determining the possibility of collision with the detected object is performed (step S17). Details of the alarm determination process will be described later.
If it is determined in step S17 that there is no possibility of collision between the host vehicle 10 and the detected object (NO in step S17), the process returns to step S1 and the above-described processing is repeated.
If it is determined in step S17 that there is a possibility of collision between the host vehicle 10 and the detected object (YES in step S17), the process proceeds to an alarm output determination process in step S18.

ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
In step S18, it is determined whether or not the driver of the host vehicle 10 is performing a brake operation from the output BR of the brake sensor 5, thereby determining whether or not to perform alarm output determination processing, that is, whether or not alarm output is performed (step S18). Step S18).
If the driver of the host vehicle 10 is performing a braking operation, the acceleration Gs generated by the driver is calculated (the deceleration direction is positive). It is determined that the collision is avoided by the operation, the alarm output determination process is terminated (NO in step S18), the process returns to step S1, and the above process is repeated.
As a result, when an appropriate brake operation is performed, an alarm is not issued, so that the driver is not bothered excessively.

また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。   Further, when the acceleration Gs is equal to or less than the predetermined threshold GTH, or when the driver of the host vehicle 10 is not performing a brake operation, the process immediately proceeds to the process of step S19 (YES in step S18), and may contact the object. Therefore, an alarm is issued by voice through the speaker 6 (step S19), and an image obtained by, for example, the infrared camera 2R is output to the image display device 7 so that the approaching object 10 Is displayed as an emphasized image for the driver (step S20).

なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。   The predetermined threshold GTH is a value corresponding to a condition in which the host vehicle 10 stops at a travel distance equal to or less than the distance Zv (0) between the object and the host vehicle 10 when the acceleration Gs during the brake operation is maintained as it is. It is.

以上が、本実施の形態の車両周辺監視装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳しく説明する。
図5は、本実施の形態の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
The above is the object detection / alarm operation in the image processing unit 1 of the vehicle periphery monitoring device of the present embodiment. Next, referring to the flowchart shown in FIG. 5, step S17 of the flowchart shown in FIG. The alarm determination process in will be described in more detail.
FIG. 5 is a flowchart showing the alarm determination processing operation of the present embodiment.
The warning determination process includes the object detected as the vehicle 10 by the following collision determination process, determination process whether or not the vehicle is in the approach determination area, approach collision determination process, pedestrian determination process, and artificial structure determination process. This is a process for determining the possibility of collision. Hereinafter, as shown in FIG. 6, a case where there is an object 20 traveling at a speed Vp from a direction of approximately 90 ° with respect to the traveling direction of the host vehicle 10 will be described as an example.

図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS31)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。   In FIG. 5, first, the image processing unit 1 performs a collision determination process (step S31). In the collision determination process, in FIG. 6, when the object 20 approaches the distance Zv (0) from the distance Zv (N−1) during the time ΔT, the relative speed Vs in the Z direction with the host vehicle 10 is obtained. This is a process for determining whether or not they collide within the margin time T, assuming that both move within the height H while maintaining the relative speed Vs. Here, the margin time T is intended to determine the possibility of a collision by a time T before the predicted collision time. Accordingly, the margin time T is set to about 2 to 5 seconds, for example. H is a predetermined height that defines a range in the height direction, and is set to about twice the vehicle height of the host vehicle 10, for example.

次に、ステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS31のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS32)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。   Next, in step S31, when there is a possibility that the host vehicle 10 and the target object collide within the margin time T (YES in step S31), the image processing unit 1 sets the target in order to further improve the reliability of the determination. A determination process is performed as to whether or not an object exists in the approach determination area (step S32). As shown in FIG. 7, if the area that can be monitored by the infrared cameras 2R and 2L is an outer triangular area AR0 indicated by a thick solid line, as shown in FIG. A region AR1 that is closer to the host vehicle 10 than Vs × T and corresponds to a range in which the object has a margin β (for example, about 50 to 100 cm) on both sides of the vehicle width α of the host vehicle 10, that is, the target This is a process for determining whether or not an object exists in the approach determination area AR1 where the possibility of a collision with the host vehicle 10 is extremely high if the object continues to exist. The approach determination area AR1 also has a predetermined height H.

更に、ステップS32において、対象物が接近判定領域内に存在しない場合(ステップS32のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS33)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。
なお、進入判定領域AR2、AR3も所定高さHを有する。
Furthermore, when the target object does not exist in the approach determination area in step S32 (NO in step S32), the image processing unit 1 may enter the approach determination area and collide with the host vehicle 10. An approach collision determination process is performed to determine whether or not (step S33). In the approach collision determination process, the areas AR2 and AR3 in which the absolute value of the X coordinate is larger than the above-described approach determination area AR1 (outside in the lateral direction of the approach determination area) are called the entry determination areas, and the objects in this area are This is a process for determining whether or not the vehicle enters the approach determination area AR1 and collides with the host vehicle 10 by moving.
The entry determination areas AR2 and AR3 also have a predetermined height H.

一方、ステップS32において、対象物が接近判定領域内に存在している場合(ステップS32のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS34)。歩行者判定処理は、グレースケール画像上で対象物画像の形状や大きさ、輝度分散等の特徴から、対象物が歩行者か否かを判定する処理である。
また、ステップS34において、対象物は歩行者の可能性があると判定された場合(ステップS34のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS35)。人工構造物判定処理は、グレースケール画像上で、例えば車両のような対象物を人工構造物と判定し、警報の対象から除外する処理である。なお、人工構造物判定処理については、詳細を後述する。
On the other hand, when the target object is present in the approach determination area in step S32 (YES in step S32), the image processing unit 1 determines whether the target object is a pedestrian or not. Processing is performed (step S34). The pedestrian determination process is a process for determining whether or not the target object is a pedestrian from features such as the shape and size of the target object image and luminance dispersion on the grayscale image.
If it is determined in step S34 that the object is likely to be a pedestrian (YES in step S34), it is determined whether or not the object is an artificial structure in order to further increase the reliability of the determination. An artificial structure determination process is performed (step S35). The artificial structure determination process is a process of determining an object such as a vehicle as an artificial structure on a gray scale image and excluding it from an alarm target. The details of the artificial structure determination process will be described later.

従って、上述のステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS33のYES)、及びステップS35において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS35のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS36)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。   Therefore, in the above-described step S33, when there is a possibility that the target object enters the approach determination area and collides with the own vehicle 10 (YES in step S33), and in step S35, there is a possibility of a pedestrian. When the determined object is not an artificial structure (NO in step S35), the image processing unit 1 has a possibility of collision between the host vehicle 10 and the detected object (being an alarm target). A determination is made (step S36), the process proceeds to step S18 as YES in step S17 shown in FIG. 3, and an alarm output determination process (step S18) is performed.

一方、上述のステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS31のNO)、あるいはステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS33のNO)、あるいはステップS34において、対象物は歩行者の可能性がないと判定された場合(ステップS34のNO)、更にはステップS35において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS35のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS37)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。   On the other hand, in step S31 described above, when there is no possibility that the host vehicle 10 and the target object collide within the margin time T (NO in step S31), or in step S33, the target object enters the approach determination area. If there is no possibility of colliding with the host vehicle 10 (NO in step S33), or if it is determined in step S34 that the object is not likely to be a pedestrian (NO in step S34), further step S35 is performed. When the object determined to be a pedestrian is an artificial structure (YES in step S35), the image processing unit 1 detects the host vehicle 10. It is determined that there is no possibility of collision with the object (not an alarm target) (step S37), and the process proceeds to step S1 as NO in step S17 shown in FIG. Ri, repeat the object detection and alarm operation such as a pedestrian.

次に、図8に示すフローチャートを参照して、図5に示したフローチャートのステップS35における人工構造物判定処理について更に詳しく説明する。図8は、本実施の形態の人工構造物判定処理動作を示すフローチャートである。
図8において、まず、画像処理ユニット1は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)、面積S、更に対象物の外接四角形の縦横比ASPECT、及びステップS13において算出された自車両10と対象物との距離zに加えて、2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)の値を利用して、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS41)。なお、求める2値化対象物形状特徴量は、カメラの基線長D[m]、カメラ焦点距離f[m]、画素ピッチp[m/pixel]、及び左右映像の相関演算によって算出される視差Δd[pixel]を用いて算出する。
Next, the artificial structure determination process in step S35 of the flowchart shown in FIG. 5 will be described in more detail with reference to the flowchart shown in FIG. FIG. 8 is a flowchart showing the artificial structure determination processing operation of the present embodiment.
In FIG. 8, first, the image processing unit 1 determines the center of gravity G (xc, yc) and area S of the binarized object calculated in step S8 of the flowchart shown in FIG. In addition to the ratio ASPECT and the distance z between the host vehicle 10 and the object calculated in step S13, the height hb and width wb of the circumscribed rectangle of the binarized object, and the coordinates of the circumscribed rectangle centroid (xb, yb) The binarized object shape feature amount indicating the shape characteristic of the binarized object in the real space is calculated using the value of (2). Note that the binarized object shape feature value to be obtained is a parallax calculated by correlation calculation of the base line length D [m], camera focal length f [m], pixel pitch p [m / pixel], and left and right images. It calculates using (DELTA) d [pixel].

具体的には、自車両10と対象物との距離zは、
z=(f×D)/(Δd×p) ・・・(1)
と表されるので、実空間における2値化対象物の幅ΔWbや高さΔHbは、
ΔWb=wb×z×p/fΔHb=hb×z×p/f ・・・(2)
2値化対象物の上端位置座標(Xt,Yt,Zt)は、
Xt=xb×z×p/fYt
=yb×z×p/f−ΔHb/2Zt
=z ・・・(3)で算出することができる。
Specifically, the distance z between the host vehicle 10 and the object is
z = (f × D) / (Δd × p) (1)
Therefore, the width ΔWb and height ΔHb of the binarized object in real space are
ΔWb = wb × z × p / f ΔHb = hb × z × p / f (2)
The upper end position coordinates (Xt, Yt, Zt) of the binarized object are
Xt = xb × z × p / fYt
= Yb * z * p / f- [Delta] Hb / 2Zt
= Z (3) can be calculated.

次に、図3に示したフローチャートのステップS7において抽出された2値化対象物の中に、ステップS41において取得された2値化対象物中で、対称な位置に存在する2値化対象物を探索する(ステップS42)。具体的には、図9に示すようなOBJ[I](IはOBJを区別するための番号)の中で、以下の(4)〜(6)式に示す条件を満たす2値化対象物を、対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]と判定する。   Next, among the binarized objects extracted in step S7 of the flowchart shown in FIG. 3, among the binarized objects acquired in step S41, the binarized objects existing at symmetrical positions. Is searched (step S42). Specifically, in OBJ [I] (I is a number for distinguishing OBJ) as shown in FIG. 9, a binarized object that satisfies the conditions shown in the following expressions (4) to (6): Are determined to be binarized objects OBJ [X] and OBJ [Y] existing at symmetrical positions.

条件1:(4)式を満たして距離の差分が規定値TH1より小さく、同一距離とみなせる2値化対象物。
|Zt[X]−Zt[Y]|<TH1 ・・・(4)
条件2:(5)式を満たして上端高さ位置の差分が規定値TH2より小さく、同一高さに存在するとみなせる2値化対象物。
|Yt[X]−Yt[Y]|<TH2 ・・・(5)
条件3:(6)式を満たして左右のエッジ間(左側に位置する2値化対象物の左エッジと右側に位置する2値化対象物の右エッジとの間)の最大幅が、規定の車両の幅TH3[m]より大きくTH4[m]より小さい2値化対象物。
TH3<|(Xt[X]+ΔWb[X]/2)−(Xt[Y]−ΔWb[Y]/2)|<TH4 ・・・(6)
但し、Zt[X]、Zt[Y]は、それぞれOBJ[X]、OBJ[Y]の距離を示し、Yt[X]、Yt[Y]は、それぞれOBJ[X]、OBJ[Y]の上端高さ位置を示す。また、(6)式はOBJ(X)がOBJ(Y)の右側に存在する場合を示す。
Condition 1: A binarized object that satisfies the equation (4) and has a distance difference smaller than the prescribed value TH1 and can be regarded as the same distance.
| Zt [X] −Zt [Y] | <TH1 (4)
Condition 2: A binarized object that satisfies the equation (5) and can be considered to exist at the same height with the difference in the upper end height position being smaller than the specified value TH2.
| Yt [X] −Yt [Y] | <TH2 (5)
Condition 3: The maximum width between the left and right edges (between the left edge of the binarized object located on the left side and the right edge of the binarized object located on the right side) satisfying equation (6) is defined. The binarized object that is larger than the vehicle width TH3 [m] and smaller than TH4 [m].
TH3 <| (Xt [X] + ΔWb [X] / 2) − (Xt [Y] −ΔWb [Y] / 2) | <TH4 (6)
However, Zt [X] and Zt [Y] indicate distances of OBJ [X] and OBJ [Y], respectively, and Yt [X] and Yt [Y] are OBJ [X] and OBJ [Y], respectively. Indicates the upper end height position. Also, equation (6) shows the case where OBJ (X) exists on the right side of OBJ (Y).

そして、対称な位置に存在する2つの2値化対象物の有無を判定し(ステップS43)、(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS43のYES)、該2つの2値化対象物の上方に複数の探索領域MASK[i]を設定する(ステップS44)。探索領域MASK[i]は上下2列に配列され、図9に示すように、その上下の幅Lが、一般的な車両のウィンドシールドの上下幅程度に設定されている。
ここで、例えば(4)〜(6)式に示す条件を満たして対称な位置に存在する2値化対象物OBJ[1]とOBJ[2]とが車両のライト(ヘッドライトやテールライト等の車両灯体)であれば、上方にはウィンドシールドが存在するため、探索領域MASK[i]に捉えられた物体の距離は、ライトと略同一距離とみなせる(近傍の距離を示す)。また、上述の2値化対象物が歩行者であれば、頭部の上端は空間であるため、探索領域MASK[i]に物体が捉えられず距離は不定となる。
Then, the presence / absence of two binarized objects existing at symmetrical positions is determined (step S43), and two binarized objects existing at symmetrical positions satisfying the conditions shown in equations (4) to (6) If there is an object (YES in step S43), a plurality of search areas MASK [i] are set above the two binarized objects (step S44). The search areas MASK [i] are arranged in two upper and lower rows, and as shown in FIG. 9, the upper and lower widths L are set to be approximately the vertical width of the windshield of a general vehicle.
Here, for example, binarized objects OBJ [1] and OBJ [2] that exist in symmetrical positions that satisfy the conditions shown in equations (4) to (6) are vehicle lights (headlights, taillights, etc.). Therefore, the distance of the object captured in the search area MASK [i] can be regarded as substantially the same distance as the light (indicating the distance in the vicinity). If the binarized object described above is a pedestrian, the upper end of the head is a space, and no object is captured in the search area MASK [i], and the distance is indefinite.

そこで、探索領域MASK[i]の距離MASK[i]_Zを相関演算により算出し(ステップS45)、(7)式を満たして対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]のいずれか一方(本実施の形態ではOBJ[X]、また図9ではX=1とする)と探索領域MASK[i]との距離の差分が規定値TH5より小さく、探索領域MASK[i]に捉えられた物体が2値化対象物と同一距離であるか否かを判定する(ステップS46)。
|MASK[i]_Z−Zt[X]|<TH5 ・・・(7)
但し、規定値TH5は、ヘッドライトやテールライトとウィンドシールドまでの距離、及び視差精度を考慮した値とする。
なお、図9においては、正方形の探索領域MASK[i]を水平方向に沿って上下2列に配列して設定する場合を示しているが、この構成に限られるものではなく、探索領域MASK[i]が設定される領域や形状についてはウィンドシールドを十分に含むものであればよい。
Therefore, the distance MASK [i] _Z of the search area MASK [i] is calculated by correlation calculation (step S45), and the binarized objects OBJ [X] and OBJ existing at symmetrical positions satisfying the expression (7) are satisfied. The difference between the distances between any one of [Y] (OBJ [X] in this embodiment and X = 1 in FIG. 9) and the search area MASK [i] is smaller than the specified value TH5, and the search area MASK. It is determined whether or not the object captured in [i] is the same distance as the binarized object (step S46).
| MASK [i] _Z-Zt [X] | <TH5 (7)
However, the prescribed value TH5 is a value that takes into account the distance from the headlight or taillight to the windshield and the parallax accuracy.
FIG. 9 shows a case where the square search areas MASK [i] are set in two horizontal rows along the horizontal direction. However, the present invention is not limited to this configuration, and the search areas MASK [ The area and shape in which i] is set may be any as long as it sufficiently includes the windshield.

次に、複数の探索領域MASK[i]のうち、2値化対象物OBJ[X]、OBJ[Y]と略同一距離にあるとみなせる物体を捉えた探索領域MASK[i]のみからなる領域(図10,図11参照)を、ウィンドシールドが存在すると推定される窓候補領域Aとして設定する(ステップS47)。   Next, among the plurality of search areas MASK [i], an area consisting only of the search area MASK [i] that captures an object that can be regarded as being at substantially the same distance as the binarized objects OBJ [X] and OBJ [Y]. (Refer to FIGS. 10 and 11) is set as the window candidate area A in which the windshield is estimated to exist (step S47).

そして、この窓候補領域A内の水平エッジおよび垂直エッジを算出し(ステップS48)、図11に示すように、これら水平エッジおよび垂直エッジよりも車両上下方向内側で且つ左右方向内側の領域内において最大となる略矩形の領域を輝度分散演算領域Bとして設定する(ステップS49)。これにより、輝度分散演算領域Bがウィンドシールドの上縁、左右側縁およびワイパーを含まないウィンドシールドのガラス部分のみが存在すると推定される位置に設定される。なお、図10の一例では、窓候補領域Aを構成する探索領域MASK[i]において水平エッジおよび垂直エッジを含むものに丸印を付している。また、車両の特徴部に成り得る対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]としては、上述した車両の灯火類以外に、排気管(例えば、OBJ[3])、タイヤ(例えば、OBJ[4],[5])、ピラーなどが挙げられる。   Then, the horizontal edge and the vertical edge in the window candidate area A are calculated (step S48), and as shown in FIG. 11, in the area in the vehicle vertical direction inner side and the horizontal direction inner side than the horizontal edge and vertical edge. The maximum substantially rectangular area is set as the luminance dispersion calculation area B (step S49). As a result, the luminance dispersion calculation area B is set to a position where it is estimated that only the glass portion of the windshield not including the upper edge, the left and right edges, and the wiper of the windshield exists. In the example of FIG. 10, the search area MASK [i] constituting the window candidate area A is marked with a circle including a horizontal edge and a vertical edge. Further, as binarized objects OBJ [X] and OBJ [Y] that exist in symmetrical positions that can be characteristic parts of the vehicle, in addition to the above-mentioned vehicle lights, an exhaust pipe (for example, OBJ [3] ), Tires (for example, OBJ [4], [5]), pillars, and the like.

次に、輝度分散演算領域Bの輝度分散の時間的変化幅Wが所定の閾値TH6より小さいか判定する(ステップS51)。輝度分散演算領域Bにおける輝度分散の時間的変化幅Wが所定の閾値TH6より大きい場合(ステップS51でNO)対象物は車両であると判定する(ステップS53)。   Next, it is determined whether the temporal variation width W of the luminance dispersion in the luminance dispersion calculation area B is smaller than a predetermined threshold value TH6 (step S51). If the temporal variation width W of the luminance dispersion in the luminance dispersion calculation area B is larger than the predetermined threshold TH6 (NO in step S51), it is determined that the object is a vehicle (step S53).

ここで、時間的変化幅Wとは、現在から過去に赤外線カメラ2R,2Lにて撮影した所定枚数の赤外線画像Flame[t](t=1〜n)に含まれる輝度分散演算領域Bの輝度分散Var[t](t=1〜n)の変化であり、つまり時間的変化幅Wは、輝度分散の最小値である最小輝度分散Min_Varと輝度分散の最大値である最大輝度分散Max_Varとの差分として求められる。
Max_Var−Min_Var<TH6 ・・・(8)
そして、一般に、周囲の風景の赤外線が走行中の車両10のウィンドシールドで反射される場合、ウィンドシールドの輝度分散の時間的変化幅Wが大きくなる傾向があるため、閾値TH6は、周囲の風景の反射による輝度分散の時間的変化幅Wであると分かる程度の比較的大きい輝度分散に設定される。
Here, the temporal change width W is the luminance of the luminance dispersion calculation area B included in a predetermined number of infrared images Frame [t] (t = 1 to n) captured by the infrared cameras 2R and 2L from the present to the past. This is a change in the variance Var [t] (t = 1 to n), that is, the temporal change width W is a minimum luminance variance Min_Var that is the minimum value of luminance variance and a maximum luminance variance Max_Var that is the maximum value of luminance variance. It is calculated as a difference.
Max_Var−Min_Var <TH6 (8)
In general, when infrared rays of the surrounding landscape are reflected by the windshield of the traveling vehicle 10, the threshold TH6 is set to the surrounding landscape because the temporal change width W of the luminance dispersion of the windshield tends to increase. The luminance dispersion is set to a relatively large luminance dispersion that can be recognized as the temporal variation width W of the luminance dispersion due to the reflection of.

ステップS51によって輝度分散演算領域Bにおける輝度分散の時間的変化が閾値TH6よりも小さいと判定された場合(ステップS51でYES)、輝度分散演算領域Bの輝度分散の時間的変化が一様か否かを判定する(ステップS52)。輝度分散演算領域Bの輝度分散の時間的変化が一様である場合(ステップS52でYES)、対象物は車両であると判定(ステップS53)し、一様でない場合(ステップS52でNO)、対象物は車両ではないと判定する(ステップS54)。ここで、輝度分散演算領域Bにおける輝度分散の時間的変化が一様であるか否かの判定は、例えば、赤外線画像Flame[t](t=1〜n)において、全ての輝度分散Var[t](t=1〜n)が所定の閾値TH7よりも小さい場合に輝度分散演算領域Bの輝度分散の時間的変化が一様であると判定することができる。
TH7>Var[t] ・・・(9)
If it is determined in step S51 that the temporal change in luminance dispersion in the luminance dispersion calculation area B is smaller than the threshold value TH6 (YES in step S51), whether the temporal change in luminance dispersion in the luminance dispersion calculation area B is uniform or not. Is determined (step S52). When the temporal change of the luminance dispersion in the luminance dispersion calculation area B is uniform (YES in step S52), it is determined that the object is a vehicle (step S53), and when the object is not uniform (NO in step S52), It is determined that the object is not a vehicle (step S54). Here, the determination as to whether or not the temporal change of the luminance dispersion in the luminance dispersion calculation area B is uniform is, for example, in the infrared image Frame [t] (t = 1 to n), for all the luminance dispersion Var [ t] (t = 1 to n) is smaller than the predetermined threshold value TH7, it can be determined that the temporal change in the luminance dispersion in the luminance dispersion calculation area B is uniform.
TH7> Var [t] (9)

なお、上述のステップS43において、(4)〜(6)式に示す条件を満たして対称な位置に存在する2つの2値化対象物があった場合(ステップS43のYES)、ステップS47において探索領域MASK1にウィンドシールドが含まれているか否かを判定せずに、対称な2値化対象物を含む物体を車両と認識しても良い。
また、2値化対象物から削除したい車両の形状に合わせて、探索領域の大きさや位置を任意に調整できるようにしても良い。
更に、図9に示すOBJ[4]、OBJ[5]の位置に、連続走行時間の少ないタイヤ等の平均輝度値の低い物体を探索するようにしても良い。
If there are two binarized objects that exist at symmetrical positions that satisfy the conditions shown in equations (4) to (6) in step S43 described above (YES in step S43), the search is performed in step S47. An object including a symmetric binarization target may be recognized as a vehicle without determining whether or not the area MASK1 includes a windshield.
Moreover, you may enable it to adjust arbitrarily the magnitude | size and position of a search area | region according to the shape of the vehicle to delete from a binarization target object.
Furthermore, an object having a low average luminance value such as a tire having a short continuous running time may be searched for at the positions OBJ [4] and OBJ [5] shown in FIG.

なお、本実施の形態では、画像処理ユニット1が、特徴部抽出手段と、第2対象物距離対象物抽出手段とを含んでいる。より具体的には、図3のS1〜S13、及び図8のS41〜S43が特徴部抽出手段に相当し、図8のS44〜S46が第2対象物抽出手段に相当し、図8のステップS50が赤外線量変化検出手段に相当する。また、図8のステップS51,52が赤外線量判定手段に相当し、図8のS53が車両判定手段に相当する。   In the present embodiment, the image processing unit 1 includes feature part extraction means and second object distance object extraction means. More specifically, S1 to S13 in FIG. 3 and S41 to S43 in FIG. 8 correspond to feature extraction means, S44 to S46 in FIG. 8 correspond to second object extraction means, and the steps of FIG. S50 corresponds to the infrared ray amount change detecting means. Further, steps S51 and S52 in FIG. 8 correspond to infrared amount determination means, and S53 in FIG. 8 corresponds to vehicle determination means.

以上説明したように、本実施の形態の車両周辺監視装置は、赤外線カメラ2L,2Rにより撮影された画像のグレースケール画像から、2値化処理により2値化対象物OBJ[i]を抽出する。そして、取得された2値化対象物中に、対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]が存在する場合、対称な位置に存在する2つの2値化対象物OBJ[X]、OBJ[Y]の上方に設定した輝度分散演算領域Bの輝度分散の時間的変化に基づいて、周囲の風景が反射したり、快晴時の空や個も一面の空が反射したウィンドシールドの存在を確認し、このウィンドシールドが存在する場合に2値化対象物OBJ[X]、OBJ[Y]を含めて、この物体は車両であると認識する。   As described above, the vehicle periphery monitoring apparatus according to the present embodiment extracts the binarized object OBJ [i] by binarization processing from the grayscale images of the images photographed by the infrared cameras 2L and 2R. . If the binarized objects OBJ [X] and OBJ [Y] existing at the symmetric position are present in the acquired binarized objects, the two binarized objects existing at the symmetric positions are present. Based on the temporal change of the luminance dispersion in the luminance dispersion calculation area B set above the objects OBJ [X] and OBJ [Y], the surrounding landscape is reflected, the sky in clear weather and the sky of one side are also The presence of the reflected windshield is confirmed, and when this windshield exists, the object including the binarized objects OBJ [X] and OBJ [Y] is recognized as a vehicle.

これにより、車両構造物における熱を発する物体とウィンドシールドの輝度分散の時間的変化の条件を満たした物体との組み合わせを用いて、比較的簡単な手順で、赤外線カメラ2L,2Rで捉えられた対象物から歩行者とは明らかに異なる特徴を持つ車両を予め除外し、歩行者認識の精度を向上させることができる。   As a result, the infrared camera 2L or 2R was captured by a relatively simple procedure using a combination of an object that generates heat in the vehicle structure and an object that satisfies the condition of temporal variation in luminance dispersion of the windshield. Vehicles having characteristics that are clearly different from those of pedestrians can be excluded in advance from the object, and the accuracy of pedestrian recognition can be improved.

なお、上述した第1の実施の形態の車両周辺監視装置においては、赤外線カメラ2L,2Rを備えるステレオ映像に基づいて探索領域MASK[i]と、それぞれ対称な位置に存在する2値化対象物OBJ[X]、OBJ[Y]との相対的な距離を算出する場合について説明したが、この構成に限られず、例えば他の態様として、一つの赤外線カメラを用いるいわゆる単眼映像より相対的な距離を算出するようにしても良い。この単眼映像により相対的な距離を算出する方法は、過去の映像の2値化対象物と、所定時間経過後の映像の2値化対象物との同一性判定を行うと共に、その2値化対象物の周囲の背景の変化に基づいて2値化対象物と周囲との相対的な位置関係を算出するというものである(例えば、特開2008−113296号公報)。   Note that, in the vehicle periphery monitoring device according to the first embodiment described above, the binarized object that exists in a symmetric position with the search area MASK [i] based on the stereo image including the infrared cameras 2L and 2R. Although the case of calculating the relative distance between OBJ [X] and OBJ [Y] has been described, the present invention is not limited to this configuration. For example, as another aspect, a relative distance from a so-called monocular image using one infrared camera is used. May be calculated. This method of calculating a relative distance from a monocular image is performed by performing identity determination between a binarized object of a past image and a binarized object of a video after a predetermined time has elapsed, and binarization thereof. The relative positional relationship between the binarized object and the surroundings is calculated based on the change in the background around the object (for example, JP 2008-113296 A).

また、上述した第1の実施の形態では、車両のウィンドシールドと推定される物体を抽出する一例を説明したが、灯体など対称な位置に存在する2値化対象物の上方に存在して赤外線を反射し易い物体としては、例えば、タンクローリーのタンクなどがあり、この場合も物体を車両と判定することができる。   In the first embodiment described above, an example of extracting an object that is estimated to be a windshield of a vehicle has been described. However, the object is present above a binarized object that exists at a symmetrical position such as a lamp. Examples of the object that easily reflects infrared rays include a tank lorry tank. In this case as well, the object can be determined as a vehicle.

次に、この発明の第2の実施の形態について、図12のフローチャートを参照しながら説明する。なお、この第2の実施の形態は、上述した第1の実施の形態の構成に、ウィンドシールドへの映りこみが起こりやすい状況か予測する手段を追加したものであり、同一ステップに同一符号を付して重複部分の詳細な説明を省略する。
ここで、ウィンドシールドへの映りこみとは、何らかの物体がウィンドシールドのガラスに部分的に比較的短時間映り込む状況であり、このような状況においては、時間的な輝度分散の変化が大きくなる。そして、この状況が起こりやすい外部環境としては、走行路近傍の物体として比較的車両近傍に背の高い物体として、例えば、電柱、建物および樹木などの物体が、それぞれ十分に離間して存在している状況や、空模様がまだらで雲が一様ではない状況などがある。そして、上記の時間的変化が大きい場合としては、例えば、車両が林の中の走行路を駆け抜ける場合などがある。
Next, a second embodiment of the present invention will be described with reference to the flowchart of FIG. In the second embodiment, means for predicting whether or not the reflection to the windshield is likely to occur is added to the configuration of the first embodiment described above. A detailed description of the overlapping parts will be omitted.
Here, the reflection on the windshield is a situation in which some object is partially reflected on the glass of the windshield for a relatively short time, and in such a situation, the change in temporal luminance dispersion becomes large. . As an external environment in which this situation is likely to occur, objects such as utility poles, buildings, trees, etc. are sufficiently separated from each other as tall objects near the vehicle as objects near the road. There are situations where the sky is mottled and the clouds are not uniform. And as a case where said time change is large, there exists a case where a vehicle runs through the traveling path in a forest, for example.

まず、図8のフローチャートと同様に、ステップS41〜S49を行う。
次いで、車両の外部環境を検出する(ステップS60)。ここで、外部環境の検出は、車両の外界を撮像するカメラにより検出したり、路車間通信などによる天気情報を取得することで検出するようにしても良い。
輝度分散演算領域内Bにウィンドシールドが存在する場合に、ウィンドシールドへの映りこみ可能性が高い外部環境か否かを判定する(ステップS61)。
映り込み可能性が高い外部環境である場合(ステップS60でYES)は、輝度分散演算領域内Bの輝度分散の時間的変化を検出する(ステップS50)。なお、上述したステップS60〜S61の処理が車両の窓への映り込みが起こりやすい外部環境であるか判定する判定手段に相当する。
First, similarly to the flowchart of FIG. 8, steps S41 to S49 are performed.
Next, the external environment of the vehicle is detected (step S60). Here, the external environment may be detected by a camera that captures the outside world of the vehicle or by acquiring weather information by road-to-vehicle communication or the like.
When the windshield exists in the luminance dispersion calculation area B, it is determined whether or not the external environment is highly likely to be reflected on the windshield (step S61).
When the external environment is highly likely to be reflected (YES in step S60), a temporal change in the luminance dispersion in the luminance dispersion calculation area B is detected (step S50). In addition, the process of step S60-S61 mentioned above is corresponded to the determination means which determines whether it is an external environment where the reflection to the window of a vehicle occurs easily.

そして、ステップS51によって輝度分散演算領域Bにおける輝度分散の時間的変化が閾値TH6よりも小さいと判定された場合(ステップS51でYES)、対象物は車両ではないと判定し(ステップS54)、輝度分散演算領域Bにおける輝度分散の時間的変化が閾値TH6以上と判定された場合(ステップS51でNO)、すなわち実際に輝度分散の時間的変化が大きいと判定された場合に、対象物は車両であると判定(ステップS53)する。   If it is determined in step S51 that the temporal change in luminance dispersion in the luminance dispersion calculation area B is smaller than the threshold value TH6 (YES in step S51), it is determined that the object is not a vehicle (step S54). If it is determined that the temporal change in luminance dispersion in the variance calculation area B is greater than or equal to the threshold TH6 (NO in step S51), that is, if it is determined that the temporal change in luminance dispersion is actually large, the object is a vehicle. It is determined that there is (step S53).

一方、ウィンドシールドへの映り込み可能性が高い外部環境ではない場合(ステップS61でNO)、例えば、走行路近傍に比較的背の高い物体が検出されなかったり、空模様として一様となる、快晴であったり、雲一面の曇りや雨などの天候が検出された場合には、実際に輝度分散演算領域Bにおける輝度分散の時間的変化が一様か否か判定を行う(ステップS52)。輝度分散演算領域Bにおける輝度分散の時間的変化が一様ではないと判定された場合(ステップS52でNO)、対象物は車両ではないと判定(ステップS54)し、輝度分散演算領域Bにおける輝度分散の時間的変化が一様であると判定された場合(ステップS52でYES)、対象物は車両であると判定(ステップS53)する。なお、輝度分散演算領域Bの時間的変化が一様であるか否かの判定は、上述した(9)式に基づいて判定する。
なお、ステップS50の時間的変化の検出をする際の判定時間ついては、第2対象物であるウィンドシールドと走行路近傍の物体あるいは空模様との距離などの相関に基づいて変更するようにしても良い。
On the other hand, when the external environment is not highly likely to be reflected on the windshield (NO in step S61), for example, a relatively tall object is not detected in the vicinity of the traveling path, or the sky is uniform and clear. If the weather such as cloudiness or rain is detected, it is determined whether or not the temporal change of the luminance dispersion in the luminance dispersion calculation area B is actually uniform (step S52). When it is determined that the temporal change of the luminance dispersion in the luminance dispersion calculation area B is not uniform (NO in step S52), it is determined that the object is not a vehicle (step S54), and the luminance in the luminance dispersion calculation area B is determined. If it is determined that the temporal change in dispersion is uniform (YES in step S52), it is determined that the object is a vehicle (step S53). Note that whether or not the temporal change of the luminance dispersion calculation area B is uniform is determined based on the above-described equation (9).
Note that the determination time for detecting the temporal change in step S50 may be changed based on the correlation of the distance between the windshield, which is the second object, and the object near the travel path or the sky pattern. .

したがって、上述した第2の実施の形態によれば、第2対象物であるウィンドシールドへの映りこみ可能性を外部環境に基づいて判定し、映り込み可能性が高い場合には輝度分散演算領域Bの輝度分散の時間的変化が大きくなると予測されるので、実際に輝度分散の時間的変化が閾値TH6以上か判定して閾値TH6以上である場合に対象物を車両と判定し、また、映りこみ可能性が低い場合には輝度分散演算領域Bの輝度分散の時間的変化が一様になると予測されるので、実際に輝度分散の時間的変化が一様か判定して一様である場合に対象物を車両と判定することができるため、輝度分散の時間的変化だけに基づいて対象物を車両か否か判定する場合よりも映りこみ可能性を判定する分だけ判定精度を向上することができる。   Therefore, according to the second embodiment described above, the possibility of reflection on the windshield as the second object is determined based on the external environment, and when the possibility of reflection is high, the luminance dispersion calculation area Since the temporal change in the luminance dispersion of B is predicted to increase, it is determined whether the temporal change in the luminance dispersion is actually greater than or equal to the threshold value TH6, and if it is greater than or equal to the threshold value TH6, the object is determined to be a vehicle. When the possibility of contamination is low, it is predicted that the temporal change of the luminance dispersion in the luminance dispersion calculation area B will be uniform, so it is determined whether the temporal change of the luminance dispersion is actually uniform. Therefore, it is possible to determine the object as a vehicle, so that the determination accuracy is improved by determining the possibility of reflection rather than determining whether the object is a vehicle based only on the temporal change in luminance dispersion. Can do.

本発明の第1の実施の形態の車両周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus of the 1st Embodiment of this invention. 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。It is a figure which shows the attachment position of the infrared camera, a sensor, a display, etc. in a vehicle. 第1の実施の形態の車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。It is a flowchart which shows the target object detection and alarm operation | movement of the vehicle periphery monitoring apparatus of 1st Embodiment. 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。It is a figure which shows the gray scale image obtained with an infrared camera, and its binarized image. 第1の実施の形態の警報判定処理動作を示すフローチャートである。It is a flowchart which shows the alarm determination processing operation | movement of 1st Embodiment. 衝突が発生しやすい場合を示す図である。It is a figure which shows the case where a collision is easy to generate | occur | produce. 車両前方の領域区分を示す図である。It is a figure which shows the area | region division ahead of a vehicle. 第1の実施の形態の人工構造物判定処理動作を示すフローチャートである。It is a flowchart which shows the artificial structure determination processing operation | movement of 1st Embodiment. 第1の実施の形態の探索領域の設定処理について示す図である。It is a figure shown about the setting process of the search area | region of 1st Embodiment. 第1の実施の形態のエッジ抽出の処理について示す図である。It is a figure shown about the process of edge extraction of 1st Embodiment. 第1の実施の形態の窓候補領域および輝度分散演算領域Bについて示す図である。It is a figure shown about the window candidate area | region and luminance dispersion | distribution calculation area | region B of 1st Embodiment. 第2の実施の形態の人工構造物判定処理動作を示すフローチャートである。It is a flowchart which shows the artificial structure determination processing operation | movement of 2nd Embodiment.

符号の説明Explanation of symbols

1 画像処理ユニット
2R,2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置
10 自車両
S41〜S43 特徴部抽出手段
S44〜S46 第2対象物抽出手段
S50 赤外線量変化検出手段
S51,S52 赤外線量判定手段
S53 車両判定手段
S60〜S61 判定手段
DESCRIPTION OF SYMBOLS 1 Image processing unit 2R, 2L Infrared camera 3 Yaw rate sensor 4 Vehicle speed sensor 5 Brake sensor 6 Speaker 7 Image display apparatus 10 Own vehicle S41-S43 Feature part extraction means S44-S46 2nd object extraction means S50 Infrared quantity change detection means S51 , S52 Infrared amount determination means S53 Vehicle determination means S60 to S61 Determination means

Claims (4)

赤外線カメラによって捉えられた画像から車両の特徴部と思われる熱源を第1対象物として抽出する特徴部抽出手段と、
該第1対象物の周囲の領域と前記第1対象物との距離を比較して前記第1対象物との距離が所定範囲内となる第2対象物を抽出する第2対象物抽出手段と
第2対象物から発生される赤外線量の時間的変化を検出する赤外線量変化検出手段と、
該赤外線量変化検出手段により検出された前記第2対象物から発生される赤外線量の時間的変化が所定の赤外線量の条件を満たすか否かを判定する赤外線量判定手段と、
該赤外線量判定手段により、前記第2対象物から発生される赤外線量の時間的変化が所定の赤外線量の条件を満たすと判定された場合に、前記第1対象物と前記第2対象物とを含む物体が車両であると判定する車両判定手段とを設けたことを特徴とする車両周辺監視装置。
A feature extraction means for extracting, as a first object, a heat source that seems to be a feature of the vehicle from an image captured by an infrared camera;
By comparing the distance between the peripheral region and the first object of the first object, a second object extraction means for extracting a second object distance between the first object is within a predetermined range and,
An infrared amount change detecting means for detecting a temporal change in amount of infrared rays that are generated from the second object,
An infrared amount determination means for determining whether or not a temporal change in the amount of infrared rays generated from the second object detected by the infrared amount change detection means satisfies a predetermined infrared amount condition;
When it is determined by the infrared light amount determination means that the temporal change in the amount of infrared light generated from the second object satisfies the condition of a predetermined infrared light amount, the first object and the second object A vehicle periphery monitoring device comprising: vehicle determination means for determining that an object including the vehicle is a vehicle.
車両の窓への映り込みが起こりやすい外部環境であるか判定する判定手段を備え
前記赤外線量判定手段は、
前記判定手段により前記車両の窓への移り込みが起こりやすい外部環境であると判定された場合と、前記判定手段により前記車両の窓への移り込みが起こりやすい外部環境ではないと判定された場合とで、前記所定の赤外線量の条件を持ち替えて、
前記第2対象物から発生される赤外線量の時間的変化が、当該所定の赤外線量の条件を満たすか否かを判定することを特徴とする請求項1に記載の車両周辺監視装置。
A determination means for determining whether the external environment is likely to be reflected in a vehicle window ;
The infrared amount determination means includes
When the determination means determines that the external environment is likely to move into the vehicle window, and when the determination means determines that the external environment is not likely to move into the vehicle window And change the condition of the predetermined amount of infrared rays,
The amount of infrared rays temporal change that is generated from the second object, a vehicle surroundings monitoring apparatus according to claim 1, characterized that you determine whether or not the condition of the predetermined amount of infrared rays.
前記外部環境は、空模様の状況であることを特徴とする請求項2に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 2, wherein the external environment is in a sky pattern. 前記外部環境は、車両の走行路近傍の物体の状況であることを特徴とする請求項2に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 2, wherein the external environment is a situation of an object near a traveling path of the vehicle.
JP2008264128A 2008-10-10 2008-10-10 Vehicle periphery monitoring device Expired - Fee Related JP4871941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008264128A JP4871941B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008264128A JP4871941B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010093715A JP2010093715A (en) 2010-04-22
JP4871941B2 true JP4871941B2 (en) 2012-02-08

Family

ID=42255971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008264128A Expired - Fee Related JP4871941B2 (en) 2008-10-10 2008-10-10 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4871941B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348282A (en) * 1999-06-03 2000-12-15 Mitsubishi Electric Corp Vehicle detecting device
JP2002312769A (en) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd Monitoring device and parameter setting method therefor
JP3839329B2 (en) * 2002-02-04 2006-11-01 本田技研工業株式会社 Night vision system
JP4267657B2 (en) * 2006-10-31 2009-05-27 本田技研工業株式会社 Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2010093715A (en) 2010-04-22

Similar Documents

Publication Publication Date Title
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
US7436982B2 (en) Vehicle surroundings monitoring apparatus
US7672510B2 (en) Vehicle environment monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
US6690011B2 (en) Infrared image-processing apparatus
JP3934119B2 (en) Vehicle periphery monitoring device
JP4203512B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
US20130235202A1 (en) Vehicle periphery monitoring apparatus and method of determining type of object for use in vehicle periphery monitoring apparatus
US10565438B2 (en) Vehicle periphery monitor device
JP5480917B2 (en) Vehicle periphery monitoring device
JP2003216937A (en) Night vision system
JP3839329B2 (en) Night vision system
JP3916930B2 (en) Approach warning device
JP3844750B2 (en) Infrared image recognition device and alarm device using infrared image recognition device
JP3898157B2 (en) Infrared image recognition device
JP4567072B2 (en) Vehicle periphery monitoring device
JP4871941B2 (en) Vehicle periphery monitoring device
JP3961269B2 (en) Obstacle alarm device
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method
JP2010092437A (en) Vehicle periphery monitoring device
JP2004135034A (en) Vehicle periphery monitoring unit
JP2022161700A (en) Traffic light recognition device
JP3939580B2 (en) Obstacle alarm device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees