JP2003284057A - Vehicle periphery monitoring unit - Google Patents

Vehicle periphery monitoring unit

Info

Publication number
JP2003284057A
JP2003284057A JP2002297219A JP2002297219A JP2003284057A JP 2003284057 A JP2003284057 A JP 2003284057A JP 2002297219 A JP2002297219 A JP 2002297219A JP 2002297219 A JP2002297219 A JP 2002297219A JP 2003284057 A JP2003284057 A JP 2003284057A
Authority
JP
Japan
Prior art keywords
pedestrian
image
binarized
grayscale
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002297219A
Other languages
Japanese (ja)
Other versions
JP4060159B2 (en
Inventor
Shinji Nagaoka
伸治 長岡
Takayuki Tsuji
孝之 辻
Masato Watanabe
正人 渡辺
Hiroshi Hattori
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002297219A priority Critical patent/JP4060159B2/en
Priority to DE10301468A priority patent/DE10301468B4/en
Priority to US10/346,517 priority patent/US7130448B2/en
Publication of JP2003284057A publication Critical patent/JP2003284057A/en
Application granted granted Critical
Publication of JP4060159B2 publication Critical patent/JP4060159B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring unit which stably extracts a walker by exactly deciding an unshaped binarized object to be extracted from an image imaged by a camera. <P>SOLUTION: An image processing unit calculates a binarized object shape feature quantities in the real space by utilizing the center of gravity, area, of the binarized object, distance from its own vehicle, further aspect ratio, a height and a width of a circumscribed rectangular shape of the object and the coordinate values of the center of gravity (S41). Then, the unit obtains the height of the object on an object for a gray scale including the binarized object (S42), and sets a plurality of mask regions in the object for the gray scale and calculates a luminance mean value and a luminance change (dispersion) of each mask (S43). The unit decides whether the height, width, presence height, luminance means value, luminance dispersion of the binarized object are values within suitable ranges as the walker or not (S44 to S48). If any is decided not to be in the suitable range as a pedestrian, it is decided that the object is not a pedestrian (S49). <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、赤外線カメラに
より撮影された画像の2値化処理により、対象物抽出を
行う車両周辺監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle periphery monitoring device for extracting an object by binarizing an image captured by an infrared camera.

【0002】[0002]

【従来の技術】従来、赤外線カメラにより捉えられた車
両周辺の画像から、車両との衝突の可能性がある歩行者
等の対象物を抽出し、その情報を車両の運転者に提供す
る車両周辺監視装置が提案されている。このシステムで
は、歩行者等の対象物における車両との衝突の可能性
は、車両と対象物との相対距離や相対速度に基づいて判
定される。
2. Description of the Related Art Conventionally, an object around a vehicle such as a pedestrian having a possibility of collision with a vehicle is extracted from an image around the vehicle captured by an infrared camera, and the information is provided to a driver of the vehicle. Monitoring devices have been proposed. In this system, the possibility of collision with an object such as a pedestrian is determined based on the relative distance between the vehicle and the object or the relative speed.

【0003】また、例えばこのように赤外線カメラによ
り捉えられた車両周辺の画像から、車両との衝突の可能
性がある歩行者等の対象物を抽出する車両周辺監視装置
には、以下に示すようなものがある。具体的に説明する
と、この装置は赤外線画像を2値化処理して明部が集中
している領域を探し、この領域の縦横比や充足率、更に
は実面積と画面上の重心位置を用いて距離を算出するこ
とで、この領域が歩行者の頭部であるか否かを判定す
る。そして、歩行者の頭部の領域を決定することができ
たら、決定した頭部領域のカメラからの距離と成人の平
均身長とから、画像上の歩行者の身長を計算して歩行者
の身体を包含する領域を設定し、これらの領域を他の領
域と区分して表示する。これにより、赤外線画像上の歩
行者の身体全体の位置を特定し、この情報を車両の運転
者に対して表示することで、より効果的な視覚補助を行
うことができる(例えば、特許文献1参照。)。
Further, for example, a vehicle periphery monitoring device for extracting an object such as a pedestrian having a possibility of collision with the vehicle from an image of the periphery of the vehicle captured by the infrared camera as described below is as follows. There is something like this. More specifically, this device binarizes an infrared image to search for a region where bright parts are concentrated, and uses the aspect ratio and sufficiency ratio of this region, and also the actual area and the position of the center of gravity on the screen. By calculating the distance by using the distance, it is determined whether or not this area is the head of the pedestrian. Then, if the area of the pedestrian's head can be determined, the height of the pedestrian on the image is calculated from the determined distance from the camera of the head area and the average height of the adult to determine the pedestrian's body. Areas are set, and these areas are displayed separately from other areas. Thereby, the position of the entire body of the pedestrian on the infrared image is specified, and this information is displayed to the driver of the vehicle, whereby more effective visual assistance can be performed (for example, Patent Document 1). reference.).

【0004】[0004]

【特許文献1】特開平11−328364号公報[Patent Document 1] Japanese Patent Laid-Open No. 11-328364

【0005】[0005]

【発明が解決しようとする課題】しかし、赤外線画像上
での歩行者は、着帽、着衣の影響や、歩行者自身の存在
環境によって、2値化処理により頭部のみ、頭部の一部
のみ、上半身のみ、下半身のみ、更には身体全体が抽出
されるなど、その2値化形状は不定形である。また、一
般的に車両走行時には、前方路面の形状の変化や、車両
のピッチングの影響があり、歩行者も子供から大人(成
人)まで本来とは異なる身長で検出される。従って、対
象物の画面での重心座標が距離に対して固定化できない
ため、上述の従来の装置のように、形状判定のみで歩行
者の抽出を行った場合、歩行者のみを安定して抽出でき
ない可能性があった。
However, the pedestrian on the infrared image has only the head or a part of the head due to the binarization processing depending on the influence of the cap, clothing, and the existence environment of the pedestrian himself / herself. The binarized shape is indefinite such that only the upper body, only the lower body, and the entire body are extracted. Further, in general, when the vehicle is traveling, there is a change in the shape of the front road surface and the influence of the pitching of the vehicle, and a pedestrian can be detected from a child to an adult (adult) with a height different from the original height. Therefore, since the barycentric coordinates on the screen of the object cannot be fixed with respect to the distance, when the pedestrian is extracted only by the shape determination as in the conventional device described above, only the pedestrian is stably extracted. There was a possibility that I could not.

【0006】本発明は、上記課題に鑑みてなされたもの
で、カメラにより撮影された画像から抽出される不定形
な2値化対象物を的確に判定し、安定した歩行者の抽出
を行う車両周辺監視装置を提供することを目的とする。
The present invention has been made in view of the above problems, and is a vehicle for accurately determining an indeterminate binarized object extracted from an image taken by a camera and stably extracting pedestrians. An object is to provide a peripheral monitoring device.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、請求項1の発明に係わる車両周辺監視装置は、2つ
の赤外線カメラにより捉えられた画像を利用して、歩行
者を認識する車両周辺監視装置であって、前記画像のグ
レースケール画像を2値化処理することにより、前記グ
レースケール画像から2値化対象物を抽出する2値化対
象物抽出手段(例えば実施の形態のステップS1〜ステ
ップS13)と、前記グレースケール画像の輝度変化に
より、前記グレースケール画像から前記2値化対象物を
包含する範囲のグレースケール対象物を抽出するグレー
スケール対象物抽出手段(例えば実施の形態のステップ
S41〜ステップS42)と、前記グレースケール対象
物の領域(例えば実施の形態の領域AREA0)に探索
領域(例えば実施の形態のマスク領域AREA1、AR
EA2、AREA3)を設定し、該探索領域の輝度分散
に基づいて前記グレースケール画像中の歩行者を認識す
る歩行者判別手段(例えば実施の形態のステップS43
〜ステップS80)とを備えたことを特徴とする。
In order to solve the above problems, a vehicle periphery monitoring device according to the invention of claim 1 is a vehicle for recognizing a pedestrian by using images captured by two infrared cameras. A surrounding monitoring device, which is a binarized object extracting means for extracting a binarized object from the grayscale image by binarizing the grayscale image of the image (for example, step S1 of the embodiment). ~ Step S13) and a grayscale object extraction means (for example, in the embodiment) that extracts a grayscale object in a range including the binarized object from the grayscale image by changing the brightness of the grayscale image. Steps S41 to S42) and a search area (for example, an implementation) in the area of the grayscale object (for example, the area AREA0 in the embodiment). The form of a mask area AREA1, AR
EA2, AREA3) is set, and a pedestrian discrimination means for recognizing a pedestrian in the grayscale image based on the luminance distribution of the search area (for example, step S43 of the embodiment).
Up to step S80).

【0008】以上の構成を備えた車両周辺監視装置は、
まず2値化対象物抽出手段により2値化対象物の位置を
グレースケール画像上に認識する。そして、グレースケ
ール対象物抽出手段により、2値化対象物を含む範囲の
グレースケール対象物を設定し、歩行者判別手段により
グレースケール対象物上に設定した探索領域毎の輝度分
散を計算することで、探索領域の輝度分散の特徴から2
値化対象物が歩行者か否かを判断することができる。
The vehicle periphery monitoring device having the above-mentioned configuration is
First, the position of the binarized object is recognized on the grayscale image by the binarized object extraction means. Then, the grayscale object extracting means sets a grayscale object in a range including the binarized object, and the pedestrian discriminating means calculates the luminance dispersion for each search area set on the grayscale object. Then, from the characteristics of the brightness distribution of the search area, 2
It is possible to determine whether the object to be valued is a pedestrian.

【0009】請求項2の発明に係わる車両周辺監視装置
は、請求項1に記載の車両周辺監視装置において、前記
歩行者判別手段が、前記探索領域の横方向の大きさを2
値化対象物画像の横幅とし、前記探索領域の縦方向の大
きさをグレースケール対象物画像の高さとして設定する
ことを特徴とする。以上の構成を備えた車両周辺監視装
置は、輝度分散を求めるグレースケール画像上の探索領
域の横幅を2値化対象物の横幅とすることで、探索領域
の横幅を歩行者を認識するのに適当な横幅に設定して2
値化対象物が歩行者か否かを判断することができる。
According to a second aspect of the invention, there is provided the vehicle periphery monitoring device according to the first aspect, wherein the pedestrian discrimination means sets the lateral size of the search area to 2
The width of the binarized object image is set, and the vertical size of the search area is set as the height of the grayscale object image. The vehicle periphery monitoring device having the above-described configuration uses the horizontal width of the search area on the grayscale image for which the luminance dispersion is obtained as the horizontal width of the binarized object to recognize the pedestrian in the horizontal width of the search area. Set to an appropriate width 2
It is possible to determine whether the object to be valued is a pedestrian.

【0010】請求項3の発明に係わる車両周辺監視装置
は、請求項1に記載の車両周辺監視装置において、前記
歩行者判別手段が、前記探索領域として、前記グレース
ケール対象物の上端を基準に、歩行者の頭部に相当する
大きさの頭部領域を設定することを特徴とする。以上の
構成を備えた車両周辺監視装置は、輝度分散を求めるグ
レースケール画像上の探索領域を歩行者の頭部を認識す
るのに適当な大きさに設定して2値化対象物が歩行者か
否かを判断することができる。
According to a third aspect of the present invention, there is provided a vehicle periphery monitoring device according to the first aspect, wherein the pedestrian discrimination means uses the upper end of the grayscale object as a reference for the search area. , A head region having a size corresponding to the head of a pedestrian is set. In the vehicle periphery monitoring device having the above configuration, the binarized object is set as a binarized object by setting the search area on the grayscale image for obtaining the luminance dispersion to an appropriate size for recognizing the head of the pedestrian. It can be determined whether or not.

【0011】請求項4の発明に係わる車両周辺監視装置
は、請求項1に記載の車両周辺監視装置において、前記
歩行者判別手段が、前記探索領域として、前記グレース
ケール対象物の上端を基準に、歩行者の頭部に相当する
大きさの頭部領域と、該頭部領域の下方に、歩行者の胴
部に相当する前記頭部領域より大きい胴部領域を設定す
ることを特徴とする。以上の構成を備えた車両周辺監視
装置は、輝度分散を求めるグレースケール画像上に、歩
行者の頭部を認識するのに適当な大きさの探索領域と、
歩行者の胴部を認識するのに適当な大きさの探索領域と
を設定して2値化対象物が歩行者か否かを判断すること
ができる。
According to a fourth aspect of the invention, there is provided the vehicle periphery monitoring device according to the first aspect, wherein the pedestrian discrimination means uses the upper end of the grayscale object as a reference for the search area. A head region having a size corresponding to the head of the pedestrian and a torso region larger than the head region corresponding to the torso of the pedestrian below the head region. . The vehicle surroundings monitoring device having the above configuration, on the grayscale image for which the brightness dispersion is obtained, a search area of a size suitable for recognizing the head of a pedestrian,
It is possible to determine whether or not the binarized object is a pedestrian by setting a search area having an appropriate size for recognizing the torso of the pedestrian.

【0012】請求項5の発明に係わる車両周辺監視装置
は、赤外線カメラにより撮影された赤外線画像から、車
両の周辺に存在する物体を検出する車両周辺監視装置で
あって、前記赤外線画像から赤外線を発する対象物を抽
出する対象物抽出手段(例えば実施の形態のステップS
1〜ステップS13)と、前記対象物抽出手段により抽
出された対象物から、自らは発熱せずに外部より与えら
れた熱のみを蓄熱する蓄熱体を抽出する蓄熱体抽出手段
(例えば実施の形態のステップS45、S46、S4
7、S52、S53、S53−1、S60、S61、S
62)と、前記蓄熱体抽出手段により抽出された前記蓄
熱体を除く前記対象物の中から歩行者を認識する歩行者
認識手段(例えば実施の形態のステップS48〜ステッ
プS50、ステップS54〜ステップS59、ステップ
S63〜ステップS80)とを備えたことを特徴とす
る。
According to a fifth aspect of the present invention, there is provided a vehicle surroundings monitoring device for detecting an object existing around the vehicle from an infrared image taken by an infrared camera, wherein infrared rays are detected from the infrared image. Object extracting means for extracting the object to be emitted (eg, step S of the embodiment)
1 to step S13) and a heat storage body extracting means for extracting a heat storage body that stores only heat given from outside without generating heat from the target object extracted by the target object extracting means (for example, the embodiment. Steps S45, S46, S4
7, S52, S53, S53-1, S60, S61, S
62) and pedestrian recognition means for recognizing a pedestrian from the objects excluding the heat storage body extracted by the heat storage body extraction means (for example, step S48 to step S50, step S54 to step S59 of the embodiment). , Step S63 to step S80).

【0013】以上の構成を備えた車両周辺監視装置は、
蓄熱体抽出手段により、対象物の中から、歩行者とはそ
の性質が異なるものの、外部環境の影響を受けて歩行者
と誤認識する可能性がある蓄熱体を除く事で、可能な限
り歩行者とその性質が似ている対象物の中から、それが
歩行者か否かを判断することができる。
A vehicle periphery monitoring device having the above-mentioned configuration is
By the heat storage body extraction means, walking as far as possible by removing the heat storage body from the object that has a different property from the pedestrian but may be mistakenly recognized as a pedestrian due to the influence of the external environment. Whether or not it is a pedestrian can be determined from among objects that are similar in nature to the person.

【0014】[0014]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。図1は、本発明の一実施の
形態の車両周辺監視装置の構成を示すブロック図であ
る。図1において、符号1は、本実施の形態の車両周辺
監視装置を制御するCPU(中央演算装置)を備えた画
像処理ユニットであって、遠赤外線を検出可能な2つの
赤外線カメラ2R、2Lと当該車両のヨーレートを検出
するヨーレートセンサ3、更に、当該車両の走行速度
(車速)を検出する車速センサ4とブレーキの操作を検
出するためのブレーキセンサ5が接続される。これによ
り、画像処理ユニット1は、車両の周辺の赤外線画像と
車両の走行状態を示す信号から、車両前方の歩行者や動
物等を検出し、衝突の可能性が高いと判断したときに警
報を発する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. In FIG. 1, reference numeral 1 is an image processing unit including a CPU (central processing unit) for controlling the vehicle periphery monitoring device of the present embodiment, and two infrared cameras 2R and 2L capable of detecting far infrared rays. A yaw rate sensor 3 for detecting a yaw rate of the vehicle, a vehicle speed sensor 4 for detecting a traveling speed (vehicle speed) of the vehicle, and a brake sensor 5 for detecting a brake operation are connected. As a result, the image processing unit 1 detects a pedestrian or an animal in front of the vehicle from the infrared image of the periphery of the vehicle and a signal indicating the traveling state of the vehicle, and issues an alarm when it is determined that the possibility of collision is high. Emit.

【0015】また、画像処理ユニット1には、音声で警
報を発するためのスピーカ6と、赤外線カメラ2R、2
Lにより撮影された画像を表示し、衝突の危険性が高い
対象物を車両の運転者に認識させるための、例えば自車
両の走行状態を数字で表すメータと一体化されたメータ
一体Displayや自車両のコンソールに設置される
NAVIDisplay、更にフロントウィンドウの運
転者の前方視界を妨げない位置に情報を表示するHUD
(Head Up Display )7a等を含む画像表示装置7が接
続されている。
Further, the image processing unit 1 includes a speaker 6 for issuing a sound alarm and infrared cameras 2R, 2R.
For example, a display integrated with a meter or a display integrated with a meter that displays a running state of the vehicle by a numerical value for displaying an image captured by L so that the driver of the vehicle recognizes an object having a high risk of collision. NAVIDisplay installed on the console of the vehicle, and HUD that displays information in a position that does not obstruct the driver's forward view of the front window
An image display device 7 including (Head Up Display) 7a and the like is connected.

【0016】また、画像処理ユニット1は、入力アナロ
グ信号をディジタル信号に変換するA/D変換回路、デ
ィジタル化した画像信号を記憶する画像メモリ、各種演
算処理を行うCPU(中央演算装置)、CPUが演算途
中のデータを記憶するために使用するRAM(Random A
ccess Memory)、CPUが実行するプログラムやテーブ
ル、マップなどを記憶するROM(Read Only Memor
y)、スピーカ6の駆動信号、HUD7a等の表示信号
などを出力する出力回路を備えており、赤外線カメラ2
R、2L及びヨーレートセンサ3、車速センサ4、ブレ
ーキセンサ5の各出力信号は、ディジタル信号に変換さ
れてCPUに入力されるように構成されている。
The image processing unit 1 also includes an A / D conversion circuit for converting an input analog signal into a digital signal, an image memory for storing a digitized image signal, a CPU (central processing unit) for performing various arithmetic processes, and a CPU. RAM (Random A) used to store data during calculation
ccess Memory), ROM (Read Only Memor) that stores programs executed by the CPU, tables, maps, etc.
y), an output circuit for outputting a driving signal for the speaker 6, a display signal for the HUD 7a, etc., and the infrared camera 2
The output signals of the R, 2L, yaw rate sensor 3, vehicle speed sensor 4, and brake sensor 5 are converted into digital signals and input to the CPU.

【0017】また、図2に示すように、赤外線カメラ2
R、2Lは、自車両10の前部に、自車両10の車幅方
向中心部に対してほぼ対象な位置に配置されており、2
つの赤外線カメラ2R、2Lの光軸が互いに平行であっ
て、かつ両者の路面からの高さが等しくなるように固定
されている。なお、赤外線カメラ2R、2Lは、対象物
の温度が高いほど、その出力信号レベルが高くなる(輝
度が増加する)特性を有している。また、HUD7a
は、自車両10のフロントウインドウの運転者の前方視
界を妨げない位置に表示画面が表示されるように設けら
れている。
Further, as shown in FIG. 2, the infrared camera 2
R and 2L are arranged in the front part of the host vehicle 10 at positions substantially symmetrical to the center of the host vehicle 10 in the vehicle width direction.
The optical axes of the two infrared cameras 2R and 2L are parallel to each other, and they are fixed so that their heights from the road surface are equal. The infrared cameras 2R and 2L have a characteristic that the output signal level thereof increases (luminance increases) as the temperature of the object increases. Also, HUD7a
Is provided so that the display screen is displayed at a position in the front window of the host vehicle 10 that does not hinder the driver's forward visibility.

【0018】次に、本実施の形態の動作について図面を
参照して説明する。図3は、本実施の形態の車両周辺監
視装置の画像処理ユニット1における歩行者等の対象物
検出・警報動作を示すフローチャートである。まず、画
像処理ユニット1は、赤外線カメラ2R、2Lの出力信
号である赤外線画像を取得して(ステップS1)、A/
D変換し(ステップS2)、グレースケール画像を画像
メモリに格納する(ステップS3)。なお、ここでは赤
外線カメラ2Rにより右画像が得られ、赤外線カメラ2
Lにより左画像が得られる。また、右画像と左画像で
は、同一の対象物の表示画面上の水平位置がずれて表示
されるので、このずれ(視差)によりその対象物までの
距離を算出することができる。
Next, the operation of this embodiment will be described with reference to the drawings. FIG. 3 is a flowchart showing an operation of detecting and warning an object such as a pedestrian in the image processing unit 1 of the vehicle periphery monitoring device according to the present embodiment. First, the image processing unit 1 acquires an infrared image which is an output signal of the infrared cameras 2R and 2L (step S1), and A /
D conversion is performed (step S2), and the grayscale image is stored in the image memory (step S3). Here, the right image is obtained by the infrared camera 2R,
The left image is obtained by L. Further, in the right image and the left image, the horizontal position of the same target object on the display screen is displaced, and thus the distance to the target object can be calculated from this displacement (parallax).

【0019】ステップS3においてグレースケール画像
が得られたら、次に、赤外線カメラ2Rにより得られた
右画像を基準画像とし、その画像信号の2値化処理、す
なわち、輝度閾値ITHより明るい領域を「1」(白)
とし、暗い領域を「0」(黒)とする処理を行う(ステ
ップS4)。図4(a)は、赤外線カメラ2Rにより得
られたグレースケール画像を示し、これに2値化処理を
行うことにより、図4(b)に示すような画像を得る。
なお、図4(b)において、例えばP1からP4の枠で
囲った物体を、表示画面上に白色として表示される対象
物(以下「高輝度領域」という)とする。赤外線画像か
ら2値化された画像データを取得したら、2値化した画
像データをランレングスデータに変換する処理を行う
(ステップS5)。ランレングスデータにより表される
ラインは、2値化により白となった領域を画素レベルで
示したもので、いずれもy方向には1画素の幅を有して
おり、またx方向にはそれぞれランレングスデータを構
成する画素の長さを有している。
When a grayscale image is obtained in step S3, the right image obtained by the infrared camera 2R is used as a reference image, and the image signal is binarized, that is, an area brighter than the luminance threshold value ITH is ". 1 ”(white)
Then, processing for setting the dark area to “0” (black) is performed (step S4). FIG. 4A shows a grayscale image obtained by the infrared camera 2R, and by binarizing the grayscale image, an image as shown in FIG. 4B is obtained.
Note that, in FIG. 4B, for example, an object surrounded by a frame of P1 to P4 is an object displayed as white on the display screen (hereinafter, referred to as “high brightness area”). When binarized image data is acquired from the infrared image, a process of converting the binarized image data into run length data is performed (step S5). The line represented by the run length data is a pixel level representation of a region that has become white due to binarization. Each line has a width of 1 pixel in the y direction, and has a width of 1 pixel in the x direction. It has the length of the pixel which comprises run length data.

【0020】次に、ランレングスデータに変換された画
像データから、対象物のラベリングをする(ステップS
6)ことにより、対象物を抽出する処理を行う(ステッ
プS7)。すなわち、ランレングスデータ化したライン
のうち、y方向に重なる部分のあるラインを1つの対象
物とみなすことにより、例えば図4(b)に示す高輝度
領域P1からP4が、それぞれ対象物(2値化対象物)
として把握されることになる。対象物の抽出が完了した
ら、次に、抽出した対象物の重心G、面積S及び外接四
角形の縦横比ASPECTを算出する(ステップS
8)。
Next, the object is labeled from the image data converted into the run length data (step S).
By performing 6), the process of extracting the object is performed (step S7). That is, of the lines converted into run-length data, the line having a portion overlapping in the y direction is regarded as one target, so that, for example, the high-brightness areas P1 to P4 shown in FIG. Target object)
Will be understood as. When the extraction of the object is completed, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed quadrangle of the extracted object are calculated (step S).
8).

【0021】ここで、面積Sは、ラベルAの対象物のラ
ンレングスデータを(x[i]、y[i]、run
[i]、A)(i=0,1,2,・・・N−1)とする
と、ランレングスデータの長さ(run[i]−1)を
同一対象物(N個のランレングスデータ)について積算
することにより算出する。また、対象物Aの重心Gの座
標(xc、yc)は、各ランレングスデータの長さ(r
un[i]−1)と各ランレングスデータの座標x
[i]、またはy[i]とをそれぞれ掛け合わせ、更に
これを同一対象物について積算したものを、面積Sで割
ることにより算出する。更に、縦横比ASPECTは、
対象物の外接四角形の縦方向の長さDyと横方向の長さ
Dxとの比Dy/Dxとして算出する。なお、ランレン
グスデータは画素数(座標数)(=run[i])で示
されているので、実際の長さは「−1」する(1を減算
する)必要がある(=run[i]−1)。また、重心
Gの位置は、外接四角形の重心位置で代用してもよい。
Here, as for the area S, the run length data of the object of the label A is (x [i], y [i], run.
[I], A) (i = 0, 1, 2, ... N-1), the run length data length (run [i] -1) is the same object (N run length data). ) Is added to calculate. Further, the coordinates (xc, yc) of the center of gravity G of the object A are the lengths (r
un [i] -1) and coordinates x of each run length data
It is calculated by multiplying by [i] or y [i], respectively, and further summing these for the same object and dividing by the area S. Furthermore, the aspect ratio ASPECT is
It is calculated as the ratio Dy / Dx of the vertical length Dy and the horizontal length Dx of the circumscribed quadrangle of the object. Since the run length data is indicated by the number of pixels (the number of coordinates) (= run [i]), the actual length needs to be “−1” (1 is subtracted) (= run [i] ] -1). Further, the position of the center of gravity G may be replaced by the position of the center of gravity of the circumscribing quadrangle.

【0022】対象物の重心、面積、外接四角形の縦横比
が算出できたら、次に、対象物の時刻間追跡、すなわち
サンプリング周期毎の同一対象物の認識を行う(ステッ
プS9)。時刻間追跡は、アナログ量としての時刻tを
サンプリング周期で離散化した時刻をkとし、例えば時
刻kで対象物A、Bを抽出したら、時刻(k+1)で抽
出した対象物C、Dと対象物A、Bとの同一性判定を行
う。そして、対象物A、Bと対象物C、Dとが同一であ
ると判定されたら、対象物C、Dをそれぞれ対象物A、
Bというラベルに変更することにより、時刻間追跡が行
われる。また、このようにして認識された各対象物の
(重心の)位置座標は、時系列位置データとしてメモリ
に格納され、後の演算処理に使用される。
After the center of gravity of the object, the area, and the aspect ratio of the circumscribing quadrangle can be calculated, the object is time-tracked, that is, the same object is recognized for each sampling cycle (step S9). In the time tracking, the time t as an analog quantity is discretized in a sampling cycle, and the time is set to k. For example, when the objects A and B are extracted at time k, the objects C and D extracted at time (k + 1) and the object are extracted. The identity with the objects A and B is determined. Then, when it is determined that the objects A and B are the same as the objects C and D, the objects C and D are set to the objects A and B, respectively.
By changing the label to B, time tracking is performed. Further, the position coordinates (of the center of gravity) of each object recognized in this way are stored in the memory as time-series position data and used in the subsequent arithmetic processing.

【0023】なお、以上説明したステップS4〜S9の
処理は、2値化した基準画像(本実施の形態では、右画
像)について実行する。次に、車速センサ4により検出
される車速VCAR及びヨーレートセンサ3より検出さ
れるヨーレートYRを読み込み、ヨーレートYRを時間
積分することより、自車両10の回頭角θrを算出する
(ステップS10)。
The processes of steps S4 to S9 described above are executed for the binarized reference image (the right image in this embodiment). Next, the turning speed θr of the host vehicle 10 is calculated by reading the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3 and integrating the yaw rate YR with time (step S10).

【0024】一方、ステップS9とステップS10の処
理に平行して、ステップS11〜S13では、対象物と
自車両10との距離zを算出する処理を行う。この演算
はステップS9、及びステップS10より長い時間を要
するため、ステップS9、S11より長い周期(例えば
ステップS1〜S10の実行周期の3倍程度の周期)で
実行される。まず、基準画像(右画像)の2値化画像に
よって追跡される対象物の中の1つを選択することによ
り、右画像から探索画像R1(ここでは、外接四角形で
囲まれる領域全体を探索画像とする)を抽出する(ステ
ップS11)。
On the other hand, in parallel with the processing in steps S9 and S10, in steps S11 to S13, processing for calculating the distance z between the object and the vehicle 10 is performed. Since this calculation requires a longer time than steps S9 and S10, it is executed at a cycle longer than steps S9 and S11 (for example, a cycle about three times the execution cycle of steps S1 to S10). First, by selecting one of the objects tracked by the binarized image of the reference image (right image), the search image R1 (here, the entire area surrounded by the circumscribed rectangle is searched image from the right image). Is extracted) (step S11).

【0025】次に、左画像中から探索画像R1に対応す
る画像(以下「対応画像」という)を探索する探索領域
を設定し、相関演算を実行して対応画像を抽出する(ス
テップS12)。具体的には、探索画像R1の各頂点座
標に応じて、左画像中に探索領域R2を設定し、探索領
域R2内で探索画像R1との相関の高さを示す輝度差分
総和値C(a,b)を算出し、この総和値C(a,b)
が最小となる領域を対応画像として抽出する。なお、こ
の相関演算は、2値化画像ではなくグレースケール画像
を用いて行う。また同一対象物についての過去の位置デ
ータがあるときは、その位置データに基づいて探索領域
R2より狭い領域R2aを探索領域として設定する。
Next, a search area for searching the image corresponding to the search image R1 (hereinafter referred to as "corresponding image") in the left image is set, and the correlation calculation is executed to extract the corresponding image (step S12). Specifically, the search area R2 is set in the left image according to the vertex coordinates of the search image R1, and the brightness difference sum value C (a) indicating the height of the correlation with the search image R1 in the search area R2 is set. , B) is calculated, and the total value C (a, b) is calculated.
The area with the minimum is extracted as the corresponding image. Note that this correlation calculation is performed using a grayscale image instead of a binarized image. If there is past position data for the same object, a region R2a narrower than the search region R2 is set as the search region based on the position data.

【0026】ステップS12の処理により、基準画像
(右画像)中に探索画像R1と、左画像中にこの対象物
に対応する対応画像R4とが抽出されるので、次に、探
索画像R1の重心位置と対応画像R4の重心位置と視差
量Δd(画素数)を求め、これから自車両10と対象物
との距離zを算出する(ステップS13)。次に、ステ
ップS10における回頭角θrの算出と、ステップS1
3における対象物との距離算出が完了したら、画像内の
座標(x,y)及び距離zを実空間座標(X,Y,Z)
に変換する(ステップS14)。ここで、実空間座標
(X,Y,Z)は、図2に示すように、赤外線カメラ2
R、2Lの取り付け位置の中点の位置(自車両10に固
定された位置)を原点Oとして、図示のように定め、画
像内の座標は、画像の中心を原点として水平方向をx、
垂直方向をyと定めている。
Since the search image R1 is extracted in the reference image (right image) and the corresponding image R4 corresponding to this object is extracted in the left image by the processing in step S12, the center of gravity of the search image R1 is next extracted. The position, the position of the center of gravity of the corresponding image R4, and the parallax amount Δd (the number of pixels) are obtained, and the distance z between the vehicle 10 and the object is calculated from this (step S13). Next, calculation of the turning angle θr in step S10 and step S1
When the calculation of the distance to the object in 3 is completed, the coordinates (x, y) in the image and the distance z are converted to real space coordinates (X, Y, Z).
(Step S14). Here, the real space coordinates (X, Y, Z) are the infrared camera 2 as shown in FIG.
The position of the midpoint of the mounting position of R, 2L (the position fixed to the vehicle 10) is set as the origin O, and the coordinates are determined as shown in the figure.
The vertical direction is defined as y.

【0027】また、実空間座標が求められたら、自車両
10が回頭することによる画像上の位置ずれを補正する
ための回頭角補正を行う(ステップS15)。回頭角補
正は、時刻kから(k+1)までの期間中に自車両10
が例えば左方向に回頭角θrだけ回頭すると、カメラに
よって得られる画像上では、画像の範囲がΔxだけx方
向にずれるので、これを補正する処理である。なお、以
下の説明では、回頭角補正後の座標を(X,Y,Z)と
表示する。
Further, when the real space coordinates are obtained, the turning angle correction for correcting the positional deviation on the image due to the turning of the vehicle 10 is performed (step S15). The turning angle correction is performed by the vehicle 10 during the period from time k to (k + 1).
When, for example, the head is turned leftward by the turning angle θr, the range of the image shifts by Δx in the x direction on the image obtained by the camera, and this is a process of correcting this. In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).

【0028】実空間座標に対する回頭角補正が完了した
ら、次に、同一対象物について、ΔTのモニタ期間内に
得られた、回頭角補正後のN個(例えばN=10程度)
の実空間位置データ、すなわち時系列データから、対象
物と自車両10との相対移動ベクトルに対応する近似直
線LMVを求める。次いで、最新の位置座標P(0)=
(X(0),Y(0),Z(0))と、(N−1)サン
プル前(時間ΔT前)の位置座標P(Nー1)=(X
(N−1),Y(N−1),Z(N−1))を近似直線
LMV上の位置に補正し、補正後の位置座標Pv(0)
=(Xv(0),Yv(0),Zv(0))及びPv
(N−1)=(Xv(N−1),Yv(N−1),Zv
(N−1))を求める。
After the turning angle correction for the real space coordinates is completed, then, for the same object, N pieces (for example, N = 10) after the turning angle correction are obtained within the monitoring period of ΔT.
The approximate straight line LMV corresponding to the relative movement vector between the object and the own vehicle 10 is obtained from the real space position data of, that is, the time series data. Then, the latest position coordinate P (0) =
(X (0), Y (0), Z (0)) and position coordinates P (N-1) = (X) before (N-1) samples (before time ΔT).
(N-1), Y (N-1), Z (N-1)) are corrected to the positions on the approximate straight line LMV, and the corrected position coordinates Pv (0)
= (Xv (0), Yv (0), Zv (0)) and Pv
(N-1) = (Xv (N-1), Yv (N-1), Zv
(N-1)) is calculated.

【0029】これにより、位置座標Pv(N−1)から
Pv(0)に向かうベクトルとして、相対移動ベクトル
が得られる(ステップS16)。このようにモニタ期間
ΔT内の複数(N個)のデータから対象物の自車両10
に対する相対移動軌跡を近似する近似直線を算出して相
対移動ベクトルを求めることにより、位置検出誤差の影
響を軽減して対象物との衝突の可能性をより正確に予測
することが可能となる。
As a result, a relative movement vector is obtained as a vector from the position coordinates Pv (N-1) to Pv (0) (step S16). In this way, from the plurality (N pieces) of data within the monitoring period ΔT, the target vehicle 10
By calculating an approximate straight line that approximates the relative movement trajectory with respect to the relative movement vector to obtain the relative movement vector, the influence of the position detection error can be reduced and the possibility of collision with the object can be predicted more accurately.

【0030】また、ステップS16において、相対移動
ベクトルが求められたら、次に、検出した対象物との衝
突の可能性を判定する警報判定処理を行う(ステップS
17)。なお、警報判定処理については、詳細を後述す
る。ステップS17において、自車両10と検出した対
象物との衝突の可能性がないと判定された場合(ステッ
プS17のNO)、ステップS1へ戻り、上述の処理を
繰り返す。また、ステップS17において、自車両10
と検出した対象物との衝突の可能性があると判定された
場合(ステップS17のYES)、ステップS18の警
報出力判定処理へ進む。
When the relative movement vector is obtained in step S16, next, an alarm determination process is performed to determine the possibility of collision with the detected object (step S).
17). The details of the alarm determination process will be described later. When it is determined in step S17 that there is no possibility of collision between the vehicle 10 and the detected object (NO in step S17), the process returns to step S1 and the above-described processing is repeated. In step S17, the own vehicle 10
When it is determined that there is a possibility of collision with the detected object (YES in step S17), the process proceeds to the alarm output determination process in step S18.

【0031】ステップS18では、ブレーキセンサ5の
出力BRから自車両10の運転者がブレーキ操作を行っ
ているか否かを判別することにより、警報出力判定処
理、すなわち警報出力を行うか否かの判定を行う(ステ
ップS18)。もし、自車両10の運転者がブレーキ操
作を行っている場合には、それによって発生する加速度
Gs(減速方向を正とする)を算出し、この加速度Gs
が所定閾値GTHより大きいときは、ブレーキ操作によ
り衝突が回避されると判定して警報出力判定処理を終了
し(ステップS18のNO)、ステップS1へ戻り、上
述の処理を繰り返す。これにより、適切なブレーキ操作
が行われているときは、警報を発しないようにして、運
転者に余計な煩わしさを与えないようにすることができ
る。
In step S18, it is determined from the output BR of the brake sensor 5 whether or not the driver of the vehicle 10 is performing a brake operation, thereby performing an alarm output determination process, that is, determination of whether or not to output an alarm. Is performed (step S18). If the driver of the host vehicle 10 is performing a brake operation, the acceleration Gs (the deceleration direction is positive) generated thereby is calculated, and this acceleration Gs is calculated.
Is greater than the predetermined threshold value GTH, it is determined that the collision is avoided by the brake operation, the alarm output determination process is ended (NO in step S18), the process returns to step S1, and the above process is repeated. As a result, when an appropriate brake operation is performed, an alarm is not issued, and it is possible to prevent the driver from getting annoyed.

【0032】また、加速度Gsが所定閾値GTH以下で
あるとき、または自車両10の運転者がブレーキ操作を
行っていなければ、直ちにステップS19の処理へ進み
(ステップS18のYES)、対象物と接触する可能性
が高いので、スピーカ6を介して音声による警報を発す
る(ステップS19)とともに、画像表示装置7に対し
て、例えば赤外線カメラ2Rにより得られる画像を出力
し、接近してくる対象物を自車両10の運転者に対する
強調映像として表示する(ステップS20)。なお、所
定閾値GTHは、ブレーキ操作中の加速度Gsがそのま
ま維持された場合に、対象物と自車両10との距離Zv
(0)以下の走行距離で自車両10が停止する条件に対
応する値である。
Further, when the acceleration Gs is less than or equal to the predetermined threshold value GTH, or when the driver of the vehicle 10 is not performing the brake operation, the process immediately proceeds to step S19 (YES in step S18) to contact the object. Therefore, an alarm is issued by a voice through the speaker 6 (step S19), and an image obtained by, for example, the infrared camera 2R is output to the image display device 7 to detect an approaching object. The image is displayed as a highlighted image for the driver of the vehicle 10 (step S20). Note that the predetermined threshold value GTH is the distance Zv between the object and the host vehicle 10 when the acceleration Gs during the brake operation is maintained as it is.
It is a value corresponding to the condition that the vehicle 10 stops at the travel distance of (0) or less.

【0033】以上が、本実施の形態の車両周辺監視装置
の画像処理ユニット1における対象物検出・警報動作で
あるが、次に、図5に示すフローチャートを参照して、
図3に示したフローチャートのステップS17における
警報判定処理について更に詳しく説明する。図5は、本
実施の形態の警報判定処理動作を示すフローチャートで
ある。警報判定処理は、以下に示す衝突判定処理、接近
判定領域内か否かの判定処理、進入衝突判定処理、歩行
者判定処理、及び人工構造物判定処理により、自車両1
0と検出した対象物との衝突の可能性を判定する処理で
ある。以下、図6に示すように、自車両10の進行方向
に対してほぼ90°の方向から、速度Vpで進行してく
る対象物20がいる場合を例に取って説明する。
The above is the object detection / warning operation in the image processing unit 1 of the vehicle periphery monitoring device of the present embodiment. Next, referring to the flow chart shown in FIG.
The alarm determination process in step S17 of the flowchart shown in FIG. 3 will be described in more detail. FIG. 5 is a flowchart showing the alarm determination processing operation of this embodiment. The warning determination process includes the following collision determination process, determination process of whether or not the vehicle is in the approach determination region, approach collision determination process, pedestrian determination process, and artificial structure determination process.
This is a process of determining the possibility of collision with an object detected as 0. Hereinafter, as shown in FIG. 6, an example will be described in which there is an object 20 moving at a speed Vp from a direction substantially 90 ° with respect to the traveling direction of the host vehicle 10.

【0034】図5において、まず、画像処理ユニット1
は衝突判定処理を行う(ステップS31)。衝突判定処
理は、図6において、対象物20が時間ΔTの間に距離
Zv(N−1)から距離Zv(0)に接近した場合に、
自車両10とのZ方向の相対速度Vsを求め、両者が高
さH以内で相対速度Vsを維持して移動すると仮定し
て、余裕時間T以内に両者が衝突するか否かを判定する
処理である。ここで、余裕時間Tは、衝突の可能性を予
測衝突時刻より時間Tだけ前に判定することを意図した
ものである。従って、余裕時間Tは例えば2〜5秒程度
に設定される。またHは、高さ方向の範囲を規定する所
定高さであり、例えば自車両10の車高の2倍程度に設
定される。
In FIG. 5, first, the image processing unit 1
Performs a collision determination process (step S31). In FIG. 6, the collision determination process is performed when the target object 20 approaches the distance Zv (0) from the distance Zv (N−1) during the time ΔT.
A process of determining a relative velocity Vs in the Z direction with the host vehicle 10 and determining whether the two collide with each other within the allowance time T, assuming that the two move within the height H while maintaining the relative velocity Vs. Is. Here, the margin time T is intended to determine the possibility of a collision by the time T before the predicted collision time. Therefore, the allowance time T is set to, for example, about 2 to 5 seconds. H is a predetermined height that defines the range in the height direction, and is set to, for example, about twice the vehicle height of the host vehicle 10.

【0035】次に、ステップS31において、余裕時間
T以内に自車両10と対象物とが衝突する可能性がある
場合(ステップS31のYES)、更に判定の信頼性を
上げるために、画像処理ユニット1は対象物が接近判定
領域内に存在するか否かの判定処理を行う(ステップS
32)。接近判定領域内か否かの判定処理は、図7に示
すように、赤外線カメラ2R、2Lで監視可能な領域を
太い実線で示す外側の三角形の領域AR0とすると、領
域AR0内の、Z1=Vs×Tより自車両10に近い領
域であって、対象物が自車両10の車幅αの両側に余裕
β(例えば50〜100cm程度とする)を加えた範囲
に対応する領域AR1、すなわち対象物がそのまま存在
し続ければ自車両10との衝突の可能性がきわめて高い
接近判定領域AR1内に存在するか否かを判定する処理
である。なお、接近判定領域AR1も所定高さHを有す
る。
Next, in step S31, when there is a possibility that the vehicle 10 and the object collide with each other within the allowance time T (YES in step S31), the image processing unit further increases the reliability of the determination. 1 performs a determination process as to whether or not the target object exists within the approach determination area (step S
32). As shown in FIG. 7, assuming that the area that can be monitored by the infrared cameras 2R and 2L is an outer triangular area AR0 indicated by a thick solid line, Z1 = A region AR1 that is closer to the host vehicle 10 than Vs × T and corresponds to a range in which the object has a margin β (for example, about 50 to 100 cm) added to both sides of the vehicle width α of the host vehicle 10, that is, the target This is a process of determining whether or not an object exists in the approach determination area AR1 in which the possibility of collision with the vehicle 10 is extremely high if the object continues to exist. The approach determination area AR1 also has the predetermined height H.

【0036】更に、ステップS32において、対象物が
接近判定領域内に存在しない場合(ステップS32のN
O)、画像処理ユニット1は対象物が接近判定領域内へ
進入して自車両10と衝突する可能性があるか否かを判
定する進入衝突判定処理を行う(ステップS33)。進
入衝突判定処理は、上述の接近判定領域AR1よりX座
標の絶対値が大きい(接近判定領域の横方向外側の)領
域AR2、AR3を進入判定領域と呼び、この領域内に
ある対象物が、移動することにより接近判定領域AR1
に進入すると共に自車両10と衝突するか否かを判定す
る処理である。なお、進入判定領域AR2、AR3も所
定高さHを有する。
Furthermore, in step S32, when the object does not exist in the approach determination area (N in step S32).
O), the image processing unit 1 performs the approach collision determination process for determining whether or not the object may enter the approach determination area and collide with the host vehicle 10 (step S33). In the approach collision determination process, areas AR2 and AR3 having a larger absolute value of the X coordinate than the approach determination area AR1 (laterally outside the approach determination area) are referred to as approach determination areas, and an object in this area is By moving, the approach determination area AR1
Is a process of determining whether or not to collide with the host vehicle 10 while entering the vehicle. The entry determination areas AR2 and AR3 also have the predetermined height H.

【0037】一方、ステップS32において、対象物が
接近判定領域内に存在している場合(ステップS32の
YES)、画像処理ユニット1は対象物が歩行者の可能
性があるか否かを判定する歩行者判定処理を行う(ステ
ップS34)。なお、歩行者判定処理については、詳細
を後述する。また、ステップS34において、対象物は
歩行者の可能性があると判定された場合(ステップS3
4のYES)、更に判定の信頼性を上げるために、対象
物が人工構造物であるか否かを判定する人工構造物判定
処理を行う(ステップS35)。人工構造物判定処理
は、対象物画像に、例えば以下に示すような歩行者には
あり得ない特徴が検出された場合、該対象物を人工構造
物と判定し、警報の対象から除外する処理である。 (1)対象物の画像に直線エッジを示す部分が含まれる
場合。 (2)対象物の画像の角が直角である場合。 (3)対象物の画像に同じ形状のものが複数含まれてい
る場合。 (4)対象物の画像が予め登録された人口構造物の形状
と一致する場合。
On the other hand, in step S32, when the object is present in the approach determination area (YES in step S32), the image processing unit 1 determines whether the object may be a pedestrian. Pedestrian determination processing is performed (step S34). The details of the pedestrian determination process will be described later. If it is determined in step S34 that the object may be a pedestrian (step S3
4), the artificial structure determination process for determining whether or not the object is an artificial structure is performed to further improve the reliability of the determination (step S35). The artificial structure determination process is a process of determining an object as an artificial structure and excluding it from an alarm target when a characteristic that is not possible for a pedestrian such as the following is detected in the object image. Is. (1) When the image of the target object includes a portion indicating a straight edge. (2) When the corners of the image of the object are right angles. (3) When the image of the target object includes a plurality of objects having the same shape. (4) When the image of the object matches the shape of the artificial structure registered in advance.

【0038】従って、上述のステップS33において、
対象物が接近判定領域内へ進入して自車両10と衝突す
る可能性がある場合(ステップS33のYES)、及び
ステップS35において、歩行者の可能性があると判定
された対象物が人工構造物でなかった場合(ステップS
35のNO)、画像処理ユニット1は、自車両10と検
出した対象物との衝突の可能性がある(警報の対象であ
る)と判定し(ステップS36)、図3に示すステップ
S17のYESとしてステップS18へ進み、警報出力
判定処理(ステップS18)を行う。
Therefore, in step S33 described above,
When the target object may enter the approach determination region and collide with the host vehicle 10 (YES in step S33), and in step S35, the target object that is determined to be a pedestrian is an artificial structure. If not a thing (step S
No of 35), the image processing unit 1 determines that there is a possibility of collision between the vehicle 10 and the detected object (target of alarm) (step S36), and YES of step S17 shown in FIG. Then, the process proceeds to step S18, and an alarm output determination process (step S18) is performed.

【0039】一方、上述のステップS31において、余
裕時間T以内に自車両10と対象物とが衝突する可能性
がない場合(ステップS31のNO)、あるいはステッ
プS33において、対象物が接近判定領域内へ進入して
自車両10と衝突する可能性がない場合(ステップS3
3のNO)、あるいはステップS34において、対象物
は歩行者の可能性がないと判定された場合(ステップS
34のNO)、更にはステップS35において、歩行者
の可能性があると判定された対象物が人工構造物であっ
た場合(ステップS35のYES)のいずれかであった
場合は、画像処理ユニット1は、自車両10と検出した
対象物との衝突の可能性がない(警報の対象ではない)
と判定し(ステップS37)、図3に示すステップS1
7のNOとしてステップS1へ戻り、歩行者等の対象物
検出・警報動作を繰り返す。
On the other hand, in step S31 described above, if there is no possibility of collision between the host vehicle 10 and the object within the allowance time T (NO in step S31), or in step S33, the object falls within the approach determination area. When there is no possibility of entering the vehicle and colliding with the host vehicle 10 (step S3
3), or when it is determined in step S34 that the object is not a pedestrian (step S).
If the target object that is determined to be a pedestrian in step S35 is an artificial structure (YES in step S35), the image processing unit 1 indicates that there is no possibility of collision between the host vehicle 10 and the detected object (not the target of warning)
(Step S37), and step S1 shown in FIG.
If NO in step 7, the process returns to step S1, and the object detection / warning operation of a pedestrian or the like is repeated.

【0040】次に、図8から図13に示すフローチャー
トを参照して、図5に示したフローチャートのステップ
S34における歩行者判定処理について更に詳しく説明
する。図8から図13は、本実施の形態の歩行者判定処
理動作を示すフローチャートである。図8において、ま
ず、画像処理ユニット1は、図3に示したフローチャー
トのステップS8において算出された2値化対象物の重
心G(xc、yc)(図14に示す2値化対象物の重心
G100)、面積S(図14に示す2値化対象物面積S
101)、更に対象物の外接四角形の縦横比ASPEC
T、及びステップS13において算出された自車両10
と対象物との距離zに加えて、図14に示す2値化対象
物の外接四角形の高さhbと幅wb、及び外接四角形重
心座標(xb、yb)(図14に示す外接四角形重心1
02)の値を利用して、実空間での2値化対象物の形状
の特徴を示す2値化対象物形状特徴量を算出する(ステ
ップS41)。なお、求める2値化対象物形状特徴量
は、カメラの基線長D[m]、カメラ焦点距離f
[m]、画素ピッチp[m/pixel]、及び左右映
像の相関演算によって算出される視差量Δd[pixe
l]を用いて算出する。
Next, the pedestrian determination processing in step S34 of the flowchart shown in FIG. 5 will be described in more detail with reference to the flowcharts shown in FIGS. 8 to 13 are flowcharts showing the pedestrian determination processing operation of the present embodiment. In FIG. 8, first, the image processing unit 1 performs the center of gravity G (xc, yc) of the binarized object calculated in step S8 of the flowchart shown in FIG. 3 (the center of gravity of the binarized object shown in FIG. 14). G100), area S (binary object area S shown in FIG. 14)
101), and the aspect ratio ASPEC of the circumscribed rectangle of the object
T, and own vehicle 10 calculated in step S13
In addition to the distance z between the object and the object, the height hb and width wb of the circumscribed quadrangle of the binarized object shown in FIG. 14, and the circumscribed quadrangle barycentric coordinates (xb, yb) (circumscribed quadrangle barycenter 1 shown in FIG.
02) is used to calculate the binarized object shape feature amount indicating the shape feature of the binarized object in the real space (step S41). The binary object shape feature amount to be obtained is the camera base length D [m] and the camera focal length f.
[M], pixel pitch p [m / pixel], and parallax amount Δd [pixel] calculated by correlation calculation of left and right images.
l] is used for the calculation.

【0041】具体的には、外接四角形と対象物面積の比
率Rateは、 Rate=S/(hb×wb) ・・・(1) 外接四角形の縦横比ASPECTを表すAspは、 Asp=hb/wb ・・・(2) 自車両10と対象物との距離zは、 z=(f×D)/(Δd×p) ・・・(3) と表されるので、実空間における2値化対象物の幅ΔW
bや高さΔHbは、 ΔWb=wb×z×p/f ΔHb=hb×z×p/f ・・・(4)
Specifically, the rate Rate of the circumscribed quadrangle and the object area is Rate = S / (hb × wb) (1) Asp, which represents the aspect ratio ASPECT of the circumscribed quadrangle, is Asp = hb / wb. (2) The distance z between the host vehicle 10 and the target object is expressed as z = (f × D) / (Δd × p) (3), so it is a binarization target in the real space. Object width ΔW
b and the height ΔHb are ΔWb = wb × z × p / f ΔHb = hb × z × p / f (4)

【0042】2値化対象物の重心座標(Xc,Yc,Z
c)は、 Xc=xc×z×p/f Yc=yc×z×p/f Zc=z ・・・(5) 対象物外接四角形重心座標(Xb,Yb,Zb)は、 Xb=xb×z×p/f Yb=yb×z×p/f Zb=z ・・・(6) 2値化対象物の上端位置座標(Xt,Yt,Zt)は、 Xt=xb×z×p/f Yt=yb×z×p/f−ΔHb/2 Zt=z ・・・(7) で算出することができる。
The barycentric coordinates of the binarized object (Xc, Yc, Z
c) is Xc = xc × z × p / f Yc = yc × z × p / f Zc = z (5) The barycenter coordinates of the circumscribed quadrangle of the object (Xb, Yb, Zb) are Xb = xb × z × p / f Yb = yb × z × p / f Zb = z (6) The upper end position coordinates (Xt, Yt, Zt) of the binarized object are: Xt = xb × z × p / f It can be calculated by Yt = yb × z × p / f−ΔHb / 2 Zt = z (7).

【0043】次に、図3に示したフローチャートのステ
ップS3において取得されたグレースケール画像を用い
て、ステップS7において抽出された2値化対象物を含
むグレースケール画像上の対象物の高さを求める(ステ
ップS42)。グレースケール画像上の対象物の高さの
求め方は、所定の大きさのマスク領域を、2値化対象物
外接四角形の上端から複数個並べてグレースケール画像
上に設定し、マスク領域内の輝度変化が大きく(対象物
と背景画像とが含まれている)、かつ左右の画像間のマ
スク領域の相関度が高い(マスク領域内に2つ以上の対
象物が存在しない)と共に、更に2値化対象物と同距離
(同視差)であるマスク領域を包含する領域をグレース
ケール対象物の領域として抽出する。そして、画像上で
のグレースケール対象物の領域の高さHeight(p
ixel)を算出し、(8)式によりグレースケール対
象物の高さΔHgを算出する。 ΔHg=z×Height×p/f ・・・(8)
Next, using the grayscale image acquired in step S3 of the flowchart shown in FIG. 3, the height of the object on the grayscale image including the binarized object extracted in step S7 is calculated. Obtain (step S42). To determine the height of the object on the grayscale image, set a mask area of a predetermined size from the upper end of the binarized object circumscribing rectangle and set it on the grayscale image. The change is large (the object and the background image are included), the degree of correlation of the mask areas between the left and right images is high (there are no two or more objects in the mask area), and the value is further binary. An area including a mask area having the same distance (parallax) as the object to be converted is extracted as an area of the grayscale object. Then, the height of the area of the grayscale object on the image Height (p
ixel) is calculated, and the height ΔHg of the grayscale object is calculated by the equation (8). ΔHg = z × Height × p / f (8)

【0044】また、図15に示すように、画像上でのグ
レースケール対象物の領域をAREA0とし、その中に
マスク領域AREA1、AREA2、AREA3を設定
し、各マスクの輝度平均値と、輝度変化(分散)を算出
する(ステップS43)。ここで、AREA1の輝度平
均値をAve_A1、AREA2の輝度分散をVar_
A2、AREA3の輝度分散をVar_A3とする。な
お、以下の処理において、AREA1は対象物の頭の存
在判定に、AREA2は対象物の胴体の存在判定に、更
にAREA3は頭部から下半身にかけての形状変化の存
在判定にそれぞれ使用する。また、AREA3は、例え
ば壁のような自らは発熱せずに外部より与えられた熱の
みを蓄熱する蓄熱体であって、単調な輝度変化を示す対
象物の一部が2値化処理により抽出された場合、これを
歩行者と識別するためにも用いる。なお、図15はカメ
ラで捉えられた歩行者を模式的に表したもので、斜線の
領域が2値化で捉えられた対象物の部位であり、点線で
囲まれた領域が2値化では捉えられていないが、グレー
スケール画像で背景に対して物体の存在が確認できる対
象物の部位を表す。また、図15に示した各部の寸法
は、実空間での各部の寸法の一例である。
As shown in FIG. 15, the area of the grayscale object on the image is AREA0, and mask areas AREA1, AREA2, and AREA3 are set therein, and the average brightness value and the brightness change of each mask are set. (Dispersion) is calculated (step S43). Here, the average luminance value of AREA1 is Ave_A1, and the luminance variance of AREA2 is Var_.
The luminance dispersion of A2 and AREA3 is Var_A3. In the following processing, AREA1 is used to determine the presence of the head of the target object, AREA2 is used to determine the presence of the body of the target object, and AREA3 is used to determine the presence of a shape change from the head to the lower body. The AREA 3 is a heat storage body that does not generate heat by itself, such as a wall, and stores only the heat given from the outside, and a part of the object showing a monotonous change in brightness is extracted by the binarization process. If it is given, it will also be used to identify it as a pedestrian. In addition, FIG. 15 schematically shows a pedestrian captured by a camera, and a hatched region is a region of an object captured by binarization, and a region surrounded by a dotted line is binarization. Although not captured, it represents the part of the object where the presence of the object can be confirmed against the background in the grayscale image. The dimensions of each part shown in FIG. 15 are examples of the dimensions of each part in the real space.

【0045】以下、図8から図13に示すフローチャー
トに沿って、更に具体的に2値化対象物の形状による歩
行者判定及びグレースケール画像の各マスク領域の輝度
分散を利用した歩行者判定について説明する。まず、画
像処理ユニット1は、2値化対象物の高さ、幅、存在高
さ、輝度平均値、輝度分散について、歩行者として適当
な範囲内の値か否かを判定する。具体的には、歩行者を
対象とするため、2値化対象物の幅ΔWbが閾値TH1
以上TH2以下(歩行者の幅として適当な値)か否かを
判定する(ステップS44)。ステップS44におい
て、2値化対象物の幅ΔWbが閾値TH1以上TH2以
下であった場合(ステップS44のYES)、2値化対
象物の高さΔHbが閾値TH3(歩行者の高さとして適
当な値)未満で、かつグレースケール対象物の高さΔH
gが閾値TH4(歩行者の高さとして適当な値)未満か
否かを判定する(ステップS45)。
More specifically, the pedestrian determination based on the shape of the binarized object and the pedestrian determination using the luminance dispersion of each mask area of the grayscale image will be described below with reference to the flowcharts shown in FIGS. 8 to 13. explain. First, the image processing unit 1 determines whether or not the height, width, existing height, luminance average value, and luminance dispersion of the binarized object are within a range suitable for a pedestrian. Specifically, since the target is a pedestrian, the width ΔWb of the binarized object is the threshold TH1.
It is determined whether or not it is TH2 or less (appropriate value as the width of a pedestrian) or more (step S44). In step S44, when the width ΔWb of the binarized object is greater than or equal to the threshold value TH1 and less than or equal to TH2 (YES in step S44), the height ΔHb of the binarized object is the threshold value TH3 (suitable as the height of a pedestrian. Value) and height of grayscale object ΔH
It is determined whether or not g is less than a threshold value TH4 (an appropriate value as the height of a pedestrian) (step S45).

【0046】ステップS45において、2値化対象物の
高さΔHbが閾値TH3未満で、かつグレースケール対
象物の高さΔHgが閾値TH4未満であった場合(ステ
ップS45のYES)、路面からの対象物の上端高さ位
置Ytが閾値TH5(歩行者の高さとして適当な値)未
満か否かを判定する(ステップS46)。また、ステッ
プS46において、路面からの対象物の上端高さ位置Y
tが閾値TH5未満であった場合(ステップS46のY
ES)、マスク領域AREA3の輝度分散Var_A3
が閾値TH6より大きいか否かを判定する(ステップS
47)。この処理を、図16の対象物が歩行者の一部あ
るいは全体である場合や壁の場合のマスク領域AREA
3の輝度分散を示した図を用いて説明する。
When the height ΔHb of the binarized object is less than the threshold TH3 and the height ΔHg of the grayscale object is less than the threshold TH4 in step S45 (YES in step S45), the object from the road surface is detected. It is determined whether or not the upper end height position Yt of the object is less than a threshold value TH5 (an appropriate value as the height of a pedestrian) (step S46). In step S46, the upper end height position Y of the object from the road surface is
When t is less than the threshold value TH5 (Y in step S46)
ES), luminance distribution Var_A3 of mask area AREA3
Is greater than the threshold TH6 (step S
47). This processing is performed in the mask area AREA when the object of FIG. 16 is a part or the whole of a pedestrian or a wall.
This will be described with reference to the figure showing the luminance dispersion of No. 3.

【0047】具体的には、マスク領域AREA3の領域
幅を2値化対象物幅とすることで、図16(a)に示す
ように、歩行者の頭部のみが2値化処理により抽出され
た場合は、下半身部位との輝度差が生じる。また、図1
6(b)に示すように、少なくとも歩行者の上半身、ま
たは全身が2値化処理により抽出された場合には、背景
領域(画像)との輝度差が生じる。一方、図16(c)
に示すように、壁のように対象物全体の温度差が少ない
対象物の場合、2値化抽出部位とそうでない部位の輝度
差は少なく、また、対象物はAREA3のように直線部
位で構成されている。このため、AREA3の輝度分散
Var_A3は、歩行者の場合には高い値、壁のような
対象物の場合には低い値を示す。従って、ステップS4
7では、マスク領域AREA3の輝度分散Var_A3
が閾値TH6より大きいか否かを判定することで、対象
物が歩行者であるか否かを判定する。
Specifically, by setting the area width of the mask area AREA3 as the binarization object width, only the head of the pedestrian is extracted by the binarization processing as shown in FIG. 16 (a). In the case of lighting, there is a difference in brightness from the lower body part. Also, FIG.
As shown in 6 (b), when at least the upper body or the whole body of the pedestrian is extracted by the binarization process, a brightness difference from the background area (image) occurs. On the other hand, FIG.
As shown in Fig. 3, in the case of an object such as a wall where the temperature difference of the entire object is small, the difference in brightness between the binarized extraction part and the part that is not so is small, and the object is composed of a linear part like AREA3. Has been done. Therefore, the luminance dispersion Var_A3 of AREA3 shows a high value for a pedestrian and a low value for an object such as a wall. Therefore, step S4
7, the luminance distribution Var_A3 of the mask area AREA3
Is greater than the threshold value TH6, it is determined whether the object is a pedestrian.

【0048】更に、ステップS47において、マスク領
域AREA3の輝度分散Var_A3が閾値TH6より
大きかった場合(ステップS47のYES)、対象物形
状の時間変化による歩行者判定を行う。具体的には、歩
行者の2値化対象物を対象とするため、2値化対象物形
状が時間的に大きく変化することはないと考えられる。
このため、規定時間内の外接四角形の面積と2値化対象
物の面積比率であるRateの最大値Max_Rate
と最小値Min_Rateの差分が閾値TH7未満であ
るか否かを判定する(ステップS48)。
Further, in step S47, when the luminance variance Var_A3 of the mask area AREA3 is larger than the threshold value TH6 (YES in step S47), the pedestrian determination is performed based on the temporal change of the object shape. Specifically, since the target is a pedestrian binarized object, it is considered that the binarized object shape does not change significantly with time.
Therefore, the maximum value Max_Rate, which is the area ratio of the circumscribed quadrangle to the area of the binarized object within the specified time, is Max_Rate.
And the minimum value Min_Rate is less than a threshold TH7 (step S48).

【0049】一方、ステップS44において、2値化対
象物の幅ΔWbが閾値TH1未満か、またはTH2より
大きかった場合(ステップS44のNO)、あるいはス
テップS45において、2値化対象物の高さΔHbが閾
値TH3以上か、またはグレースケール対象物の高さΔ
Hgが閾値TH4以上であった場合(ステップS45の
NO)、あるいはステップS46において、路面からの
対象物の上端高さ位置Ytが閾値TH5以上であった場
合(ステップS46のNO)、あるいはステップS47
において、マスク領域AREA3の輝度分散が閾値TH
6以下であった場合(ステップS47のNO)、更には
ステップS48において、規定時間内の外接四角形の面
積と2値化対象物の面積比率であるRateの最大値M
ax_Rateと最小値Min_Rateの差分(Ma
x_Rate−Min_Rate)が閾値TH7以上で
あった場合(ステップS48のNO)のいずれかであっ
た場合は、領域AREA0に捉えられた対象物は歩行者
ではないと判定して(ステップS49)歩行者判定処理
を終了し、図5に示すステップS34のNOとして図5
のステップS37へ進み、対象物は警報対象ではないと
判定する。
On the other hand, if the width ΔWb of the binarized object is less than the threshold value TH1 or greater than TH2 in step S44 (NO in step S44), or the height ΔHb of the binarized object in step S45. Is greater than or equal to the threshold TH3, or the height Δ of the grayscale object
If Hg is greater than or equal to the threshold value TH4 (NO in step S45), or if the upper end height position Yt of the object from the road surface is greater than or equal to the threshold value TH5 in step S46 (NO in step S46), or step S47.
, The luminance distribution of the mask area AREA3 is the threshold value TH.
If it is 6 or less (NO in step S47), further in step S48, the maximum value M of Rate, which is the area ratio of the circumscribed quadrangle and the area of the binarized object within the specified time, is M.
Difference between ax_Rate and minimum value Min_Rate (Ma
If x_Rate-Min_Rate is equal to or greater than the threshold value TH7 (NO in step S48), it is determined that the object captured in the area AREA0 is not a pedestrian (step S49). The determination process is terminated, and if NO in step S34 shown in FIG.
In step S37, it is determined that the target object is not the alarm target.

【0050】また、ステップS48において、規定時間
内の外接四角形の面積と2値化対象物の面積比率である
Rateの最大値Max_Rateと最小値Min_R
ateの差分が閾値TH7未満であった場合(ステップ
S48のYES)、次に、画像処理ユニット1は、更に
詳細に抽出された対象物の形状毎の歩行者判定を行う。
具体的には、まず、路面からの対象物の上端高さ位置Y
tが閾値TH8(歩行者の上半身と下半身を区別できる
高さとして適当な値)より大きいか否かを判定する(ス
テップS50)。ステップS50において、路面からの
対象物の上端高さ位置Ytが閾値TH8以下であった場
合(ステップS50のNO)、図9のステップS51へ
進み、歩行者の下半身であるか、座った歩行者として、
2値化対象物の幅ΔWbが閾値TH9(歩行者の胴体幅
として適当な値)以下か否かを判定する(ステップS5
1)。
In step S48, the maximum value Max_Rate and the minimum value Min_R of Rate, which is the area ratio of the circumscribed quadrangle and the area of the binarized object within the specified time, are determined.
When the difference in ate is less than the threshold value TH7 (YES in step S48), the image processing unit 1 then performs a pedestrian determination for each shape of the extracted target object in more detail.
Specifically, first, the upper end height position Y of the object from the road surface
It is determined whether or not t is larger than a threshold value TH8 (an appropriate value as a height capable of distinguishing the upper half body and the lower half body of a pedestrian) (step S50). In step S50, when the upper end height position Yt of the object from the road surface is less than or equal to the threshold value TH8 (NO in step S50), the process proceeds to step S51 in FIG. 9 and is the lower half of the pedestrian or the pedestrian who sits down. As
It is determined whether or not the width ΔWb of the binarized object is less than or equal to a threshold value TH9 (a value suitable as the width of the body of a pedestrian) (step S5).
1).

【0051】図9は、2値化処理によって下半身が抽出
されたか、座っている歩行者を識別するための処理手順
が示されており、ステップS51において、2値化対象
物の幅ΔWbが閾値TH9以下であった場合(ステップ
S51のYES)、対象物が座った歩行者であるか否か
を判定するために、グレースケール対象物の高さΔHg
が閾値TH10(歩行者の高さとして適当な値)未満か
否かを判定する(ステップS52)。
FIG. 9 shows a processing procedure for identifying a pedestrian who has a lower body extracted by the binarization process or is sitting. In step S51, the width ΔWb of the binarization target is a threshold value. If it is equal to or lower than TH9 (YES in step S51), the height ΔHg of the grayscale object is determined in order to determine whether the object is a pedestrian sitting down.
Is less than the threshold value TH10 (appropriate value as the height of a pedestrian) (step S52).

【0052】ステップS52において、グレースケール
対象物の高さΔHgが閾値TH10以上であった場合
(ステップS52のNO)、この対象物が歩行者の胴体
または、下半身に相当すると仮定し、上部に頭部が存在
するか否かの判定のため、図15に示す上部のマスク領
域AREA1の輝度平均値Ave_A1が閾値TH11
より大きいか否かを判定する(ステップS53)。ステ
ップS53において、マスク領域AREA1の輝度平均
値Ave_A1が閾値TH11より大きかった場合(ス
テップS53のYES)、更に胴体部位は衣服の影響に
より熱を発散しにくい場合が有るため、グレースケール
画像上で輝度パタンがある対象物として、マスク領域A
REA2の輝度分散Var_A2が閾値TH18より大
きいか否かを判定する(ステップS53−1)。そし
て、ステップS53−1において、マスク領域AREA
2の輝度分散Var_A2が閾値TH18より大きかっ
た場合(ステップS53−1のYES)、領域AREA
0に捉えられた対象物は歩行者であると判定して(ステ
ップS54)歩行者判定処理を終了し、図5に示すステ
ップS34のYESとして図5のステップS35へ進
み、人工構造物判定を行う。
In step S52, if the height ΔHg of the grayscale object is greater than or equal to the threshold value TH10 (NO in step S52), it is assumed that this object corresponds to the torso or the lower half of the body of the pedestrian, and the head is placed above the body. In order to determine whether there is a copy, the average brightness value Ave_A1 of the upper mask area AREA1 shown in FIG.
It is determined whether or not it is larger (step S53). In step S53, when the average brightness value Ave_A1 of the mask area AREA1 is larger than the threshold value TH11 (YES in step S53), the body part may be less likely to radiate heat due to the influence of clothes, so that the brightness on the grayscale image is reduced. As an object with a pattern, the mask area A
It is determined whether the luminance variance Var_A2 of REA2 is larger than the threshold TH18 (step S53-1). Then, in step S53-1, the mask area AREA
If the luminance variance Var_A2 of 2 is larger than the threshold TH18 (YES in step S53-1), the area AREA
It is determined that the target object captured by 0 is a pedestrian (step S54), the pedestrian determination process is terminated, the determination in step S34 shown in FIG. 5 is YES, the process proceeds to step S35 in FIG. 5, and the artificial structure determination is performed. To do.

【0053】一方、ステップS51において、2値化対
象物の幅ΔWbが閾値TH9より大きかった場合(ステ
ップS51のNO)、またはステップS53において、
マスク領域AREA1の輝度平均値Ave_A1が閾値
TH11以下であった場合(ステップS53のNO)、
更にはステップS53−1において、マスク領域ARE
A2の輝度分散Var_A2が閾値TH18以下であっ
た場合(ステップS53−1のNO)のいずれかであっ
た場合、領域AREA0に捉えられた対象物は歩行者で
はないと判定して(ステップS55)歩行者判定処理を
終了し、図5に示すステップS34のNOとして図5の
ステップS37へ進み、対象物は警報対象ではないと判
定する。
On the other hand, in step S51, when the width ΔWb of the binarized object is larger than the threshold value TH9 (NO in step S51), or in step S53,
When the average brightness value Ave_A1 of the mask area AREA1 is less than or equal to the threshold value TH11 (NO in step S53),
Further, in step S53-1, the mask area ARE
If the luminance variance Var_A2 of A2 is equal to or less than the threshold TH18 (NO in step S53-1), it is determined that the target object captured in the area AREA0 is not a pedestrian (step S55). The pedestrian determination process is ended, the process proceeds to step S37 in FIG. 5 with NO in step S34 shown in FIG. 5, and it is determined that the object is not a warning target.

【0054】また、ステップS52において、グレース
ケール対象物の高さΔHgが閾値TH10未満であった
場合(ステップS52のYES)、この対象物は座った
歩行者であるとみなし、2値化対象物の路面からの対象
物の上端高さ位置Ytが閾値TH12(座った歩行者と
立っている歩行者を区別できる高さとして適当な値)よ
り大きいか否かを判定する(ステップS56)。ステッ
プS56において、2値化対象物の路面からの対象物の
上端高さ位置Ytが閾値TH12よりも大きかった場合
(ステップS56のYES)、2値化対象物の外接四角
形の縦横比ASPECTを表すAspが、閾値TH13
以上TH14以下(歩行者として適当な値)か否かを判
定する(ステップS57)。
If the height ΔHg of the grayscale object is less than the threshold value TH10 in step S52 (YES in step S52), this object is regarded as a sitting pedestrian and the binarized object is considered. It is determined whether or not the upper-end height position Yt of the object from the road surface is larger than a threshold value TH12 (a suitable value as a height capable of distinguishing a sitting pedestrian from a standing pedestrian) (step S56). In step S56, when the upper end height position Yt of the object from the road surface of the binarized object is larger than the threshold value TH12 (YES in step S56), the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object is represented. Asp is the threshold TH13
It is determined whether or not the value is TH14 or less (a value appropriate for a pedestrian) (step S57).

【0055】ステップS57において、2値化対象物の
外接四角形の縦横比ASPECTを表すAspが閾値T
H13以上TH14以下であった場合(ステップS57
のYES)、(9)式で表される外接四角形重心102
と2値化対象物の重心G100との実空間での距離Di
s_cが閾値TH15(歩行者として適当な値)未満か
否かを判定する(ステップS58)。 Dis_c=SQRT((Xb−Xc)+(Yb−Yc)) ・・・(9) ステップS58において、距離Dis_cが閾値TH1
5未満であった場合(ステップS58のYES)、例え
ばΔWbが1.0m以下で、ΔHgが1.0m未満の対
象物には歩行者以外の対象物、具体的には車輌の前部な
どが含まれるため、2値化対象物の上部マスク領域AR
EA1において、予め登録した頭部パタンと相関度が高
い部位が存在するか否かを判定する(ステップS5
9)。
In step S57, Asp representing the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object is the threshold value T.
When it is H13 or more and TH14 or less (step S57
), The center of gravity 102 of the circumscribed quadrangle represented by the equation (9)
And the distance Di in the real space between the center of gravity G100 of the binarized object and
It is determined whether s_c is less than a threshold TH15 (a value suitable for a pedestrian) (step S58). Dis_c = SQRT in ((Xb-Xc) 2 + (Yb-Yc) 2) ··· (9) step S58, the distance Dis_c threshold TH1
If it is less than 5 (YES in step S58), for example, an object having a ΔWb of 1.0 m or less and a ΔHg of less than 1.0 m is an object other than a pedestrian, specifically, a front portion of the vehicle. Since it is included, the upper mask area AR of the binarized object
In EA1, it is determined whether or not there is a site having a high degree of correlation with the head pattern registered in advance (step S5).
9).

【0056】ステップS59において、2値化対象物の
上部マスク領域AREA1に予め登録した頭部パタンと
相関度が高い部位が存在する場合(ステップS59のY
ES)、領域AREA0に捉えられた対象物は歩行者で
あると判定して(ステップS54)歩行者判定処理を終
了し、図5に示すステップS34のYESとして図5の
ステップS35へ進み、人工構造物判定を行う。
In step S59, if there is a portion having a high degree of correlation with the head pattern registered in advance in the upper mask area AREA1 of the binarized object (Y in step S59).
ES), the target object captured in the area AREA0 is determined to be a pedestrian (step S54), the pedestrian determination process is terminated, and YES is determined in step S34 shown in FIG. 5, the process proceeds to step S35 in FIG. Determine the structure.

【0057】一方、ステップS56において、2値化対
象物の路面からの対象物の上端高さ位置Ytが閾値TH
12以下であった場合(ステップS56のNO)、ある
いはステップS57において、2値化対象物の外接四角
形の縦横比ASPECTを表すAspが閾値TH13未
満、あるいはTH14より大きかった場合(ステップS
57のNO)、あるいはステップS58において、距離
Dis_cが閾値TH15以上であった場合(ステップ
S58のNO)、更にはステップS59において、2値
化対象物の上部マスク領域AREA1に予め登録した頭
部パタンと相関度が高い部位が存在しない場合(ステッ
プS59のNO)のいずれかであった場合は、領域AR
EA0に捉えられた対象物は歩行者ではないと判定して
(ステップS55)歩行者判定処理を終了し、図5に示
すステップS34のNOとして図5のステップS37へ
進み、対象物は警報対象ではないと判定する。
On the other hand, at step S56, the upper end height position Yt of the binarized object from the road surface is the threshold value TH.
If it is 12 or less (NO in step S56), or in step S57, Asp representing the aspect ratio ASPECT of the circumscribed quadrangle of the binarization target is less than the threshold TH13 or greater than TH14 (step S56).
57) or the distance Dis_c is greater than or equal to the threshold value TH15 in step S58 (NO in step S58), and further in step S59, the head pattern registered in advance in the upper mask area AREA1 of the binarized object. If there is no part having a high degree of correlation with (NO in step S59), the area AR
It is determined that the target object captured by EA0 is not a pedestrian (step S55), the pedestrian determination process is terminated, the process proceeds to step S37 in FIG. 5 as NO in step S34 shown in FIG. 5, and the target object is a warning target. Determine not.

【0058】また、図8のステップS50において、路
面からの対象物の上端高さ位置Ytが閾値TH8(歩行
者の上半身と下半身を区別できる高さとして適当な値)
より大きかった場合(ステップS50のYES)、図1
0のステップS60へ進み、対象物が空中に浮いている
物体(例えば、カーブミラーのような対象物)か否かを
判定するために、グレースケール対象物の高さΔHgが
閾値TH16(上述の閾値TH8と同じ値)より大きい
か否かを判定する(ステップS60)。
Further, in step S50 of FIG. 8, the upper end height position Yt of the object from the road surface is a threshold value TH8 (appropriate value as a height capable of distinguishing the upper half and the lower half of the pedestrian).
If it is larger (YES in step S50), the process shown in FIG.
In step S60 of 0, the height ΔHg of the grayscale object is set to the threshold value TH16 (the above-mentioned threshold value TH16) in order to determine whether the object is an object floating in the air (for example, an object such as a curved mirror). It is determined whether or not it is larger than the threshold TH8) (step S60).

【0059】図10は、2値化処理によって頭部や上半
身が抽出された歩行者を識別するための処理手順が示さ
れており、ステップS60において、グレースケール対
象物の高さΔHgが閾値TH16より大きかった場合
(ステップS60のYES)、対象物は空中に浮いてい
る物体ではないので、次に、対象物領域(AREA0)
の上端部位に頭部が存在するか、あるいは胴体部位が存
在するかを判定する。具体的には、まず頭部は露出して
いるため、マスク領域AREA1の輝度平均値Ave_
A1が閾値TH17より大きいか否かを判定する(ステ
ップS61)。
FIG. 10 shows a processing procedure for identifying a pedestrian whose head or upper body is extracted by the binarization processing. In step S60, the height ΔHg of the grayscale object is a threshold value TH16. If it is larger (YES in step S60), the target object is not an object floating in the air, so the target object area (AREA0) is next.
It is determined whether the head part or the body part exists at the upper end part of the. Specifically, first, since the head is exposed, the average luminance value Ave_ of the mask area AREA1 is obtained.
It is determined whether A1 is larger than the threshold TH17 (step S61).

【0060】ステップS61において、マスク領域AR
EA1の輝度平均値Ave_A1が閾値TH17より大
きかった場合(ステップS61のYES)、胴体部位は
衣服の影響により熱を発散しにくい場合が有るため、グ
レースケール画像上で輝度パタンがある対象物として、
マスク領域AREA2の輝度分散Var_A2が閾値T
H18より大きいか否かを判定する(ステップS6
2)。また、ステップS62において、マスク領域AR
EA2の輝度分散Var_A2が閾値TH18より大き
かった場合(ステップS62のYES)、まず頭部、あ
るいは上半身が2値化処理により抽出された歩行者を判
定するために、2値化対象物の幅ΔWbが閾値TH19
(歩行者の頭部、あるいは上半身を区別できる幅として
適当な値)以下か否かを判定する(ステップS63)。
In step S61, the mask area AR
When the average brightness value Ave_A1 of EA1 is larger than the threshold value TH17 (YES in step S61), the body part may not easily dissipate heat due to the influence of clothes, so that as a target object having a brightness pattern on the grayscale image,
The luminance distribution Var_A2 of the mask area AREA2 is the threshold value T.
It is determined whether or not it is larger than H18 (step S6).
2). In step S62, the mask area AR
When the luminance variance Var_A2 of EA2 is larger than the threshold value TH18 (YES in step S62), first, the width ΔWb of the binarization target is determined in order to determine the pedestrian whose head or upper body is extracted by the binarization process. Is the threshold TH19
It is determined whether or not (a suitable value as a width capable of distinguishing the pedestrian's head or the upper half of the body) or less (step S63).

【0061】次に、ステップS63において、2値化対
象物の幅ΔWbが閾値TH19より大きかった場合(ス
テップS63のNO)、少なくとも歩行者の上半身、ま
たは全身が2値化処理により抽出された歩行者を判定す
るために、2値化対象物の幅ΔWbが閾値TH9(歩行
者の胴体幅として適当な値)以下か否かを判定する(ス
テップS64)。更に、ステップS64において、2値
化対象物の幅ΔWbが閾値TH9より大きかった場合
(ステップS64のNO)、複数の歩行者が並列歩行を
行っているか否かを判定するために、2値化対象物の幅
ΔWbが閾値TH2(歩行者の胴体幅として適当な値)
以下か否かを判定する(ステップS65)。
Next, when the width ΔWb of the binarized object is larger than the threshold value TH19 in step S63 (NO in step S63), at least the upper half of the pedestrian or the whole body is walked by the binarization process. In order to determine the person, it is determined whether or not the width ΔWb of the binarized object is less than or equal to a threshold value TH9 (a suitable value as the body width of a pedestrian) (step S64). Further, in step S64, when the width ΔWb of the binarized object is larger than the threshold value TH9 (NO in step S64), binarization is performed to determine whether or not a plurality of pedestrians are performing parallel walking. The width ΔWb of the object is the threshold value TH2 (a suitable value as the width of the body of a pedestrian)
It is determined whether or not the following (step S65).

【0062】また、以上の判定では、ステップS60に
おいて、グレースケール対象物の高さΔHgが閾値TH
16以下であった場合(ステップS60のNO)、ある
いはステップS61において、マスク領域AREA1の
輝度平均値Ave_A1が閾値TH17以下であった場
合(ステップS61のNO)、あるいはステップS62
において、マスク領域AREA2の輝度分散Var_A
2が閾値TH18以下であった場合(ステップS62の
NO)、更にはステップS65において、2値化対象物
の幅ΔWbが閾値TH2より大きかった場合(ステップ
S65のNO)のいずれかであった場合は、領域ARE
A0に捉えられた対象物は歩行者ではないと判定して
(ステップS66)歩行者判定処理を終了し、図5に示
すステップS34のNOとして図5のステップS37へ
進み、対象物は警報対象ではないと判定する。
Further, in the above determination, in step S60, the height ΔHg of the grayscale object is the threshold value TH.
If it is 16 or less (NO in step S60), or in step S61, the average brightness value Ave_A1 of the mask area AREA1 is less than or equal to the threshold TH17 (NO in step S61), or in step S62.
, The luminance distribution Var_A of the mask area AREA2
When 2 is less than or equal to the threshold value TH18 (NO in step S62), and further in step S65, when the width ΔWb of the binarized object is larger than the threshold value TH2 (NO in step S65). Is the area ARE
It is determined that the target object captured by A0 is not a pedestrian (step S66), the pedestrian determination process is terminated, the process proceeds to step S37 of FIG. 5 with NO in step S34 shown in FIG. 5, and the target object is a warning target. Determine not.

【0063】一方、ステップS63において、2値化対
象物の幅ΔWbが閾値TH19以下であった場合(ステ
ップS63のYES)、対象物は、頭部あるいは上半身
が2値化処理により抽出された歩行者であるとして、図
11のステップS67へ進み、2値化対象物の外接四角
形の縦横比ASPECTを表すAspが、閾値TH20
以上TH21以下(歩行者の頭部や上半身として適当な
値)か否かを判定する(ステップS67)。
On the other hand, in step S63, when the width ΔWb of the binarized object is less than or equal to the threshold value TH19 (YES in step S63), the object is a gait whose head or upper body is extracted by the binarization process. 11, the process proceeds to step S67 in FIG. 11, and Asp representing the aspect ratio ASPECT of the circumscribed quadrangle of the binarization target is the threshold TH20.
It is determined whether or not the value is TH21 or less (a value appropriate for a pedestrian's head or upper body) (step S67).

【0064】図11は、2値化処理によって頭部や上半
身が抽出された歩行者を識別するための処理手順が示さ
れており、ステップS67において、2値化対象物の外
接四角形の縦横比ASPECTを表すAspが閾値TH
20以上TH21以下であった場合(ステップS67の
YES)、前述の外接四角形重心102と2値化対象物
の重心G100との実空間での距離Dis_cが閾値T
H15未満か否かを判定する(ステップS68)。ステ
ップS68において、距離Dis_cが閾値TH15未
満であった場合(ステップS68のYES)、領域AR
EA0に捉えられた対象物は歩行者であると判定して
(ステップS69)歩行者判定処理を終了し、図5に示
すステップS34のYESとして図5のステップS35
へ進み、人工構造物判定を行う。
FIG. 11 shows a processing procedure for identifying a pedestrian whose head or upper body is extracted by the binarization processing. In step S67, the aspect ratio of the circumscribed quadrangle of the binarized object is shown. Asp representing ASPECT is the threshold TH
If 20 or more and TH21 or less (YES in step S67), the distance Dis_c in the real space between the circumscribed quadrangle centroid 102 and the centroid G100 of the binarized object is the threshold T.
It is determined whether it is less than H15 (step S68). In step S68, when the distance Dis_c is less than the threshold value TH15 (YES in step S68), the area AR
It is determined that the target object captured by EA0 is a pedestrian (step S69), the pedestrian determination process is ended, and YES in step S34 shown in FIG. 5 is determined as step S35 in FIG.
Proceed to and judge the artificial structure.

【0065】一方、ステップS67において、2値化対
象物の外接四角形の縦横比ASPECTを表すAspが
閾値TH20未満か、またはTH21より大きかった場
合(ステップS67のNO)、あるいはステップS68
において、距離Dis_cが閾値TH15以上であった
場合(ステップS68のNO)、領域AREA0に捉え
られた対象物は歩行者ではないと判定して(ステップS
70)歩行者判定処理を終了し、図5に示すステップS
34のNOとして図5のステップS37へ進み、対象物
は警報対象ではないと判定する。
On the other hand, in step S67, if Asp representing the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object is less than the threshold value TH20 or greater than TH21 (NO in step S67), or step S68.
In the case where the distance Dis_c is equal to or greater than the threshold value TH15 (NO in step S68), it is determined that the target object captured in the area AREA0 is not a pedestrian (step S68).
70) Step S shown in FIG.
If NO in 34, the process proceeds to step S37 in FIG. 5, and it is determined that the object is not a warning target.

【0066】また、図10のステップS64において、
2値化対象物の幅ΔWbが閾値TH9以下であった場合
(ステップS64のYES)、対象物は少なくとも歩行
者の上半身、または全身が2値化処理により抽出された
歩行者であるとして、図12のステップS71へ進み、
2値化対象物の外接四角形の縦横比ASPECTを表す
Aspが、閾値TH13以上TH21以下(歩行者の上
半身や全身として適当な値)か否かを判定する(ステッ
プS71)。
Further, in step S64 of FIG.
If the width ΔWb of the binarized object is less than or equal to the threshold value TH9 (YES in step S64), it is assumed that the object is at least the upper body of the pedestrian or the whole body is a pedestrian extracted by the binarization process. 12 proceeds to step S71,
It is determined whether or not Asp, which represents the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object, is equal to or more than the threshold value TH13 and less than or equal to TH21 (a value appropriate for the upper body and the whole body of a pedestrian) (step S71).

【0067】図12は、2値化処理によって上半身や全
身が抽出された歩行者を識別するための処理手順が示さ
れており、ステップS71において、2値化対象物の外
接四角形の縦横比ASPECTを表すAspが閾値TH
13以上TH21以下であった場合(ステップS71の
YES)、前述の外接四角形重心102と2値化対象物
の重心G100との実空間での距離Dis_cが閾値T
H15未満か否かを判定する(ステップS72)。
FIG. 12 shows a processing procedure for identifying a pedestrian whose upper body or whole body is extracted by the binarization processing. In step S71, the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object is shown. Is the threshold TH
When it is 13 or more and TH21 or less (YES in step S71), the distance Dis_c in the real space between the circumscribed quadrangle centroid 102 and the centroid G100 of the binarized object is the threshold T.
It is determined whether it is less than H15 (step S72).

【0068】ステップS72において、距離Dis_c
が閾値TH15未満であった場合(ステップS72のY
ES)、対象物には、歩行者以外の対象物、例えば、車
輌の前部などが含まれるため、2値化対象物の上部マス
ク領域AREA1において、予め登録した頭部パタンと
相関度が高い部位が存在するか否かを判定する(ステッ
プS73)。ステップS73において、2値化対象物の
上部マスク領域AREA1に予め登録した頭部パタンと
相関度が高い部位が存在する場合(ステップS73のY
ES)、領域AREA0に捉えられた対象物は歩行者で
あると判定して(ステップS74)歩行者判定処理を終
了し、図5に示すステップS34のYESとして図5の
ステップS35へ進み、人工構造物判定を行う。
In step S72, the distance Dis_c
Is less than the threshold TH15 (Y in step S72)
ES), the target includes a target other than a pedestrian, for example, the front part of the vehicle, and thus has a high correlation with the head pattern registered in advance in the upper mask area AREA1 of the binarized target. It is determined whether or not the part exists (step S73). In step S73, when there is a portion having a high degree of correlation with the head pattern registered in advance in the upper mask area AREA1 of the binarized object (Y in step S73).
ES), the object captured in the area AREA0 is determined to be a pedestrian (step S74), the pedestrian determination process is terminated, and YES is determined in step S34 shown in FIG. 5, the process proceeds to step S35 in FIG. Determine the structure.

【0069】一方、ステップS71において、2値化対
象物の外接四角形の縦横比ASPECTを表すAspが
閾値TH13未満か、または以上TH21より大きかっ
た場合(ステップS71のNO)、あるいはステップS
72において、距離Dis_cが閾値TH15以上であ
った場合(ステップS72のNO)、更にはステップS
73において、2値化対象物の上部マスク領域AREA
1に予め登録した頭部パタンと相関度が高い部位が存在
しない場合(ステップS73のNO)のいずれかであっ
た場合は、領域AREA0に捉えられた対象物は歩行者
ではないと判定して(ステップS75)歩行者判定処理
を終了し、図5に示すステップS34のNOとして図5
のステップS37へ進み、対象物は警報対象ではないと
判定する。
On the other hand, in step S71, if Asp representing the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object is less than the threshold value TH13 or greater than TH21 (NO in step S71), or step S71.
In 72, if the distance Dis_c is greater than or equal to the threshold value TH15 (NO in step S72), further step S
73, the upper mask area AREA of the binarized object
If there is no part having a high degree of correlation with the head pattern registered in advance in 1 (NO in step S73), it is determined that the object captured in the area AREA0 is not a pedestrian. (Step S75) The pedestrian determination process is ended, and if NO in step S34 shown in FIG.
In step S37, it is determined that the target object is not the alarm target.

【0070】また、図10のステップS65において、
2値化対象物の幅ΔWbが閾値TH2以下であった場合
(ステップS65のYES)、対象物は複数の歩行者が
並列歩行を行っているので、対象物の外接四角形内には
背景領域が多く含まれていると判断し、図13のステッ
プS76へ進み、規定時間内の外接四角形の面積と2値
化対象物の面積比率であるRateが閾値TH22未満
か否かを判定する(ステップS76)。
Further, in step S65 of FIG.
If the width ΔWb of the binarized object is less than or equal to the threshold value TH2 (YES in step S65), the object is in the circumscribed rectangle of the object because the pedestrian is walking in parallel. It is determined that a large amount is included, and the process proceeds to step S76 in FIG. 13, and it is determined whether or not Rate, which is the area ratio of the circumscribed quadrangle within the specified time and the area of the binarized object, is less than the threshold TH22 (step S76 ).

【0071】図13は、対象物が複数の歩行者が並列歩
行を行っている場合の処理手順が示されており、ステッ
プS76において、規定時間内の外接四角形の面積と2
値化対象物の面積比率であるRateが閾値TH22未
満であった場合(ステップS76のYES)、2値化対
象物の外接四角形の縦横比ASPECTを表すAsp
が、閾値TH23以上TH14以下(歩行者の並列歩行
を判断するのに適当な値)か否かを判定する(ステップ
S77)。
FIG. 13 shows a processing procedure in the case where a plurality of pedestrians are walking in parallel as an object.
When Rate, which is the area ratio of the binarization target, is less than the threshold value TH22 (YES in step S76), Asp indicating the aspect ratio ASPECT of the circumscribed quadrangle of the binarization target.
Is greater than or equal to the threshold value TH23 and less than or equal to TH14 (a value appropriate for determining the pedestrian's parallel walking) (step S77).

【0072】ステップS77において、2値化対象物の
外接四角形の縦横比ASPECTを表すAspが閾値T
H23以上TH14以下であった場合(ステップS77
のYES)、前述の外接四角形重心102と2値化対象
物の重心G100との実空間での距離Dis_cが閾値
TH15未満か否かを判定する(ステップS78)。ス
テップS78において、距離Dis_cが閾値TH15
未満であった場合(ステップS78のYES)、領域A
REA0に捉えられた対象物は歩行者であると判定して
(ステップS79)歩行者判定処理を終了し、図5に示
すステップS34のYESとして図5のステップS35
へ進み、人工構造物判定を行う。
In step S77, Asp representing the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object is the threshold T.
When it is H23 or more and TH14 or less (step S77
YES), it is determined whether the distance Dis_c in the real space between the circumscribed quadrangle centroid 102 and the centroid G100 of the binarized object is less than the threshold TH15 (step S78). In step S78, the distance Dis_c is the threshold TH15.
If it is less than (YES in step S78), the area A
It is determined that the object captured by REA0 is a pedestrian (step S79), the pedestrian determination process is ended, and YES in step S34 shown in FIG. 5 is determined as step S35 in FIG.
Proceed to and judge the artificial structure.

【0073】一方、ステップS76において、規定時間
内の外接四角形の面積と2値化対象物の面積比率である
Rateが閾値TH22以上であった場合(ステップS
76のNO)、あるいはステップS77において、2値
化対象物の外接四角形の縦横比ASPECTを表すAs
pが閾値TH23未満か、またはTH14より大きかっ
た場合(ステップS77のNO)、更にはステップS7
8において、距離Dis_cが閾値TH15以上であっ
た場合(ステップS78のNO)のいずれかであった場
合は、領域AREA0に捉えられた対象物は歩行者では
ないと判定して(ステップS80)歩行者判定処理を終
了し、図5に示すステップS34のNOとして図5のス
テップS37へ進み、対象物は警報対象ではないと判定
する。
On the other hand, in step S76, when the rate, which is the area ratio of the circumscribed quadrangle and the area of the binarized object within the specified time, is greater than or equal to the threshold value TH22 (step S76).
No of 76), or As representing the aspect ratio ASPECT of the circumscribed quadrangle of the binarized object in step S77.
If p is less than the threshold TH23 or greater than TH14 (NO in step S77), further step S7.
If the distance Dis_c is equal to or greater than the threshold value TH15 in step 8 (NO in step S78), it is determined that the object captured in the area AREA0 is not a pedestrian (step S80). The person determination process is terminated, the process proceeds to step S37 of FIG. 5 with NO in step S34 shown in FIG. 5, and it is determined that the target object is not a warning target.

【0074】なお、本実施の形態では、画像処理ユニッ
ト1が、2値化対象物抽出手段と、グレースケール対象
物抽出手段と、歩行者判別手段とを含んでいる。より具
体的には、図3のS1〜S13が2値化対象物抽出手段
に相当し、図8のS41〜S42がグレースケール対象
物抽出手段に相当する。また、図8のS43〜S50、
図9のS51〜S59、図10のS60〜S66、図1
1のS67〜S70、図12のS71〜S75、図13
のS76〜S80が歩行者判別手段に相当する。
In the present embodiment, the image processing unit 1 includes the binarized object extraction means, the grayscale object extraction means, and the pedestrian discrimination means. More specifically, S1 to S13 in FIG. 3 correspond to the binarized object extracting means, and S41 to S42 in FIG. 8 correspond to the grayscale object extracting means. In addition, S43 to S50 of FIG.
S51 to S59 of FIG. 9, S60 to S66 of FIG. 10, and FIG.
1 S67 to S70, FIG. 12 S71 to S75, FIG.
Steps S76 to S80 correspond to pedestrian discrimination means.

【0075】更に、本実施の形態では、画像処理ユニッ
ト1が、対象物抽出手段と、蓄熱体抽出手段と、歩行者
認識手段とを含んでいる。より具体的には、図3のS1
〜S13が対象物抽出手段に相当し、図8のS45、S
46、S47、図9のS52、S53、S53−1、図
10のS60、S61、S62が蓄熱体抽出手段に相当
する。また、図8のS48〜S50、図9のS54〜S
59、図10のS63〜S66、図11のS67〜S7
0、図12のS71〜S75、図13のS76〜S80
が歩行者認識手段に相当する。
Further, in the present embodiment, the image processing unit 1 includes an object extracting means, a heat storage material extracting means, and a pedestrian recognizing means. More specifically, S1 in FIG.
~ S13 corresponds to the object extraction means, S45, S of FIG.
46, S47, S52, S53, S53-1 in FIG. 9 and S60, S61, S62 in FIG. 10 correspond to the heat storage medium extraction means. Further, S48 to S50 in FIG. 8 and S54 to S in FIG.
59, S63 to S66 in FIG. 10, and S67 to S7 in FIG.
0, S71 to S75 in FIG. 12, S76 to S80 in FIG.
Corresponds to the pedestrian recognition means.

【0076】以上説明したように、本実施の形態の車両
周辺監視装置は、赤外線カメラにより撮影された画像の
グレースケール画像から歩行者等の対象物を2値化処理
によって抽出した後、グレースケール画像の輝度変化に
より、グレースケール画像から2値化対象物を包含する
範囲のグレースケール対象物を抽出し、更にグレースケ
ール対象物の領域に複数の探索領域を設定して、探索領
域の形状や探索領域の輝度分散に基づいて該探索領域中
の歩行者を認識する。これにより、例えば対象物の画像
の幅が歩行者として不自然な場合や、対象物の画像の高
さが歩行者として不自然な場合、これらの物体を対象物
の画像から除去すると共に、これらを満たす歩行者の特
徴として、輝度分散が高く頭部に相当する部分がある
か、あるいは輝度分散が高く胴部に相当する部分がある
か、更には壁等の輝度分散の低いものではないか等の判
定を行い、対象物の画像から輝度分散が歩行者を撮影し
た画像と異なる物体の画像を除去し、歩行者の検出精度
を向上させることができるという効果が得られる。
As described above, the vehicle periphery monitoring apparatus according to the present embodiment extracts a target object such as a pedestrian by the binarization process from the grayscale image of the image captured by the infrared camera, and then the grayscale By changing the brightness of the image, a grayscale object in the range including the binarized object is extracted from the grayscale image, and a plurality of search areas are set in the area of the grayscale object. A pedestrian in the search area is recognized based on the brightness distribution of the search area. Thereby, for example, when the width of the image of the object is unnatural as a pedestrian or when the height of the image of the object is unnatural as a pedestrian, these objects are removed from the image of the object and The characteristics of a pedestrian satisfying the above condition are whether there is a portion corresponding to the head with high luminance dispersion, or a portion corresponding to the torso with high luminance dispersion, or even a low luminance dispersion such as a wall. It is possible to improve the pedestrian detection accuracy by removing the image of the object whose luminance dispersion is different from the image of the pedestrian photographed from the image of the target object.

【0077】[0077]

【発明の効果】以上の如く、請求項1に記載の車両周辺
監視装置によれば、2値化対象物抽出手段により2値化
対象物の位置をグレースケール画像上に認識した後、グ
レースケール対象物抽出手段により2値化対象物を含む
範囲のグレースケール対象物を設定し、歩行者判別手段
によりグレースケール対象物上に設定した探索領域毎の
輝度分散を計算することで、探索領域の輝度分散の特徴
から2値化対象物が歩行者か否かを判断する。従って、
対象物の画像から輝度分散が歩行者を撮影した画像と異
なる物体の画像を除去し、歩行者の検出精度を向上させ
ることができるという効果が得られる。
As described above, according to the vehicle periphery monitoring device of the first aspect, after the position of the binarized object is recognized on the grayscale image by the binarized object extracting means, the grayscale is detected. By setting the grayscale target object in the range including the binarized target object by the target object extraction means, and calculating the luminance variance for each search area set on the grayscale target object by the pedestrian discrimination means, Whether or not the binarized object is a pedestrian is determined based on the characteristics of the luminance dispersion. Therefore,
It is possible to improve the detection accuracy of a pedestrian by removing the image of an object whose luminance dispersion is different from the image of a pedestrian captured from the image of the object.

【0078】請求項2に記載の車両周辺監視装置によれ
ば、輝度分散を求めるグレースケール画像上の探索領域
の横幅を、歩行者を認識するのに適当な2値化対象物の
横幅に設定して2値化対象物が歩行者か否かを判断する
ことができる。従って、例えば壁のように、歩行者を撮
影した画像と同様の輝度分散の特徴を持つ物体を対象物
の画像から除去し、歩行者の検出精度を向上させること
ができるという効果が得られる。
According to the vehicle periphery monitoring device of the second aspect, the horizontal width of the search area on the grayscale image for which the luminance dispersion is obtained is set to the horizontal width of the binarized object suitable for recognizing a pedestrian. Then, it can be determined whether the binarized object is a pedestrian. Therefore, it is possible to improve the detection accuracy of a pedestrian by removing from the image of the object an object having the same brightness dispersion characteristic as the image of the pedestrian, such as a wall.

【0079】請求項3に記載の車両周辺監視装置によれ
ば、輝度分散を求めるグレースケール画像上の探索領域
を歩行者の頭部を認識するのに適当な大きさに設定して
2値化対象物が歩行者か否かを判断することができる。
従って、歩行者を撮影した画像の輝度分散に特徴的な人
間の頭部の大きさと異なる大きさの物体を対象物の画像
から除去し、歩行者の検出精度を向上させることができ
るという効果が得られる。
According to the vehicle periphery monitoring device of the third aspect, the search area on the grayscale image for obtaining the luminance dispersion is set to a size suitable for recognizing the head of a pedestrian and binarized. It is possible to determine whether the object is a pedestrian.
Therefore, it is possible to improve the pedestrian detection accuracy by removing from the image of the object an object having a size different from the size of the human head, which is characteristic of the brightness distribution of the image of the pedestrian. can get.

【0080】請求項4に記載の車両周辺監視装置によれ
ば、輝度分散を求めるグレースケール画像上に、歩行者
の頭部を認識するのに適当な大きさの探索領域と、歩行
者の胴部を認識するのに適当な大きさの探索領域とを設
定して2値化対象物が歩行者か否かを判断することがで
きる。従って、例えばカーブミラーのように、歩行者を
撮影した画像と同様の輝度分散の特徴を持つ物体を対象
物の画像から除去し、歩行者の検出精度を向上させるこ
とができるという効果が得られる。
According to the vehicle periphery monitoring device of the fourth aspect, the search area of a size suitable for recognizing the head of the pedestrian and the trunk of the pedestrian are displayed on the grayscale image for which the luminance dispersion is obtained. It is possible to determine whether or not the binarized object is a pedestrian by setting a search area having an appropriate size for recognizing a part. Therefore, it is possible to improve the pedestrian detection accuracy by removing from the image of the object an object having the same luminance dispersion characteristic as the image of the pedestrian, such as a curved mirror. .

【0081】請求項5に記載の車両周辺監視装置によれ
ば、蓄熱体抽出手段により、対象物の中から、歩行者と
はその性質が異なるものの、外部環境の影響を受けて歩
行者と誤認識する可能性がある蓄熱体を除く事で、可能
な限り歩行者とその性質が似ている対象物の中から、そ
れが歩行者か否かを判断することができる。従って、例
えば太陽からの日差しを受けた壁のように、歩行者と同
等の熱(赤外線)を発するような物体を、その輝度分散
の特徴に基づいて対象物の中から除去し、歩行者の検出
精度を向上させることができるという効果が得られる。
According to the vehicle periphery monitoring device of the fifth aspect, the heat storage body extraction means causes the object to be erroneously recognized as a pedestrian due to the influence of the external environment although the nature of the object is different from that of the pedestrian. By removing the heat storage that may be recognized, it is possible to determine whether or not it is a pedestrian from the objects that are similar in nature to the pedestrian as much as possible. Therefore, for example, an object that emits heat (infrared rays) equivalent to that of a pedestrian, such as a wall that receives sunlight from the sun, is removed from the target object based on the characteristics of its brightness dispersion, and The effect that the detection accuracy can be improved is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施の形態の車両周辺監視装置の
構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention.

【図2】 車両における赤外線カメラやセンサ、ディス
プレイ等の取り付け位置を示す図である。
FIG. 2 is a diagram showing mounting positions of an infrared camera, a sensor, a display and the like in a vehicle.

【図3】 同実施の形態の車両周辺監視装置の対象物検
出・警報動作を示すフローチャートである。
FIG. 3 is a flowchart showing an object detection / warning operation of the vehicle periphery monitoring device of the same embodiment.

【図4】 赤外線カメラにより得られるグレースケール
画像とその2値化画像を示す図である。
FIG. 4 is a diagram showing a grayscale image obtained by an infrared camera and a binarized image thereof.

【図5】 同実施の形態の警報判定処理動作を示すフロ
ーチャートである。
FIG. 5 is a flowchart showing an alarm determination processing operation of the same embodiment.

【図6】 衝突が発生しやすい場合を示す図である。FIG. 6 is a diagram showing a case where a collision is likely to occur.

【図7】 車両前方の領域区分を示す図である。FIG. 7 is a diagram showing an area division in front of the vehicle.

【図8】 同実施の形態の歩行者判定処理動作を示すフ
ローチャートである。
FIG. 8 is a flowchart showing a pedestrian determination processing operation of the same embodiment.

【図9】 同実施の形態の歩行者判定処理動作を示すフ
ローチャートである。
FIG. 9 is a flowchart showing a pedestrian determination processing operation of the same embodiment.

【図10】 同実施の形態の歩行者判定処理動作を示す
フローチャートである。
FIG. 10 is a flowchart showing a pedestrian determination processing operation of the same embodiment.

【図11】 同実施の形態の歩行者判定処理動作を示す
フローチャートである。
FIG. 11 is a flowchart showing a pedestrian determination processing operation of the same embodiment.

【図12】 同実施の形態の歩行者判定処理動作を示す
フローチャートである。
FIG. 12 is a flowchart showing a pedestrian determination processing operation of the same embodiment.

【図13】 同実施の形態の歩行者判定処理動作を示す
フローチャートである。
FIG. 13 is a flowchart showing a pedestrian determination processing operation of the same embodiment.

【図14】 同実施の形態の2値化対象物形状特徴量に
ついて示す図である。
FIG. 14 is a diagram showing a binarized object shape feature amount according to the same embodiment.

【図15】 同実施の形態のマスク領域設定について示
す図である。
FIG. 15 is a diagram showing mask area setting according to the embodiment.

【図16】 対象物が歩行者の一部あるいは全体である
場合や、壁の場合のマスク領域AREA3の輝度分散を
示した図である。
FIG. 16 is a diagram showing the luminance dispersion of the mask area AREA3 when the object is a part or the whole of a pedestrian or a wall.

【符号の説明】[Explanation of symbols]

1 画像処理ユニット 2R、2L 赤外線カメラ 3 ヨーレートセンサ 4 車速センサ 5 ブレーキセンサ 6 スピーカ 7 画像表示装置 10 自車両 S1〜S13 2値化対象物抽出手段 S41〜S42 グレースケール対象物抽出手段 S43〜S80 歩行者判別手段 S1〜S13 対象物抽出手段 S45、S46、S47、S52、S53、S53−
1、S60、S61、S62 蓄熱体抽出手段 S48〜S50、S54〜S59、S63〜S80
歩行者認識手段
1 Image processing unit 2R, 2L Infrared camera 3 Yaw rate sensor 4 Vehicle speed sensor 5 Brake sensor 6 Speaker 7 Image display device 10 Own vehicle S1 to S13 Binary object extracting means S41 to S42 Gray scale object extracting means S43 to S80 Walking Person discriminating means S1 to S13 Object extracting means S45, S46, S47, S52, S53, S53-
1, S60, S61, S62 Heat storage body extraction means S48-S50, S54-S59, S63-S80
Pedestrian recognition means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 B60R 21/00 626C 626E G06T 1/00 315 G06T 1/00 315 330 330B 340 340B 7/20 200 7/20 200A (72)発明者 渡辺 正人 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 服部 弘 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 5B057 AA16 AA19 BA08 BA13 CA08 CA13 CA16 CE12 CG04 DA08 DA11 DC14 DC22 5C054 CA05 FC12 HA30 5L096 AA06 BA02 BA04 CA04 CA05 EA43 FA02 FA19 FA33 GA34 GA36 HA03 JA18 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) B60R 21/00 B60R 21/00 626C 626E G06T 1/00 315 G06T 1/00 315 330 330B 340 340B 7/20 200 7/20 200A (72) Masato Watanabe Inventor Masato Watanabe 1-4-1 Chuo, Wako-shi, Saitama Stock Research Institute Honda Technical Research Institute (72) Inventor Hiroshi Hattori 1-4-1 Chuo, Wako-shi, Saitama Stock Association F term in Honda R & D Co., Ltd. (reference) 5B057 AA16 AA19 BA08 BA13 CA08 CA13 CA16 CE12 CG04 DA08 DA11 DC14 DC22 5C054 CA05 FC12 HA30 5L096 AA06 BA02 BA04 CA04 CA05 EA43 FA02 FA19 FA33 GA34 GA36 HA03 JA18

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 2つの赤外線カメラにより捉えられた画
像を利用して、歩行者を認識する車両周辺監視装置であ
って、 前記画像のグレースケール画像を2値化処理することに
より、前記グレースケール画像から2値化対象物を抽出
する2値化対象物抽出手段と、 前記グレースケール画像の輝度変化により、前記グレー
スケール画像から前記2値化対象物を包含する範囲のグ
レースケール対象物を抽出するグレースケール対象物抽
出手段と、 前記グレースケール対象物の領域に探索領域を設定し、
該探索領域の輝度分散に基づいて前記グレースケール画
像中の歩行者を認識する歩行者判別手段とを備えたこと
を特徴とする車両周辺監視装置。
1. A vehicle periphery monitoring device for recognizing a pedestrian using images captured by two infrared cameras, wherein the grayscale image of the image is binarized to obtain the grayscale image. Binary object extracting means for extracting a binarized object from the image, and a grayscale object in a range including the binarized object from the grayscale image by changing the brightness of the grayscale image. And a grayscale object extracting means to set a search area in the area of the grayscale object,
A vehicle surroundings monitoring device comprising: a pedestrian discriminating means for recognizing a pedestrian in the gray scale image based on a luminance distribution of the search area.
【請求項2】 前記歩行者判別手段が、前記探索領域の
横方向の大きさを2値化対象物画像の横幅とし、前記探
索領域の縦方向の大きさをグレースケール対象物画像の
高さとして設定することを特徴とする請求項1に記載の
車両周辺監視装置。
2. The pedestrian discrimination means sets the horizontal size of the search area as the width of the binarized object image, and the vertical size of the search area as the height of the grayscale object image. The vehicle surroundings monitoring device according to claim 1, wherein:
【請求項3】 前記歩行者判別手段が、前記探索領域と
して、前記グレースケール対象物の上端を基準に、歩行
者の頭部に相当する大きさの頭部領域を設定することを
特徴とする請求項1に記載の車両周辺監視装置。
3. The pedestrian discrimination means sets, as the search region, a head region having a size corresponding to the head of the pedestrian with reference to the upper end of the grayscale object. The vehicle periphery monitoring device according to claim 1.
【請求項4】 前記歩行者判別手段が、前記探索領域と
して、前記グレースケール対象物の上端を基準に、歩行
者の頭部に相当する大きさの頭部領域と、該頭部領域の
下方に、歩行者の胴部に相当する前記頭部領域より大き
い胴部領域を設定することを特徴とする請求項1に記載
の車両周辺監視装置。
4. The pedestrian discrimination means, as the search region, a head region having a size corresponding to a pedestrian's head with respect to the upper end of the grayscale object, and a region below the head region. The vehicle periphery monitoring device according to claim 1, wherein a torso region that is larger than the head region corresponding to the torso of the pedestrian is set.
【請求項5】 赤外線カメラにより撮影された赤外線画
像から、車両の周辺に存在する物体を検出する車両周辺
監視装置であって、 前記赤外線画像から赤外線を発する対象物を抽出する対
象物抽出手段と、 前記対象物抽出手段により抽出された対象物から、自ら
は発熱せずに外部より与えられた熱のみを蓄熱する蓄熱
体を抽出する蓄熱体抽出手段と、 前記蓄熱体抽出手段により抽出された前記蓄熱体を除く
前記対象物の中から歩行者を認識する歩行者認識手段と
を備えたことを特徴とする車両周辺監視装置。
5. A vehicle periphery monitoring device for detecting an object existing in the periphery of a vehicle from an infrared image taken by an infrared camera, and an object extracting means for extracting an object emitting infrared rays from the infrared image. From the object extracted by the object extracting means, a heat storage body extracting means for extracting a heat storage body that stores only the heat given from the outside without generating heat by itself, and the heat storage body extracting means A vehicle surroundings monitoring device comprising: a pedestrian recognition unit that recognizes a pedestrian from the objects excluding the heat storage body.
JP2002297219A 2002-01-18 2002-10-10 Vehicle periphery monitoring device Expired - Fee Related JP4060159B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002297219A JP4060159B2 (en) 2002-01-18 2002-10-10 Vehicle periphery monitoring device
DE10301468A DE10301468B4 (en) 2002-01-18 2003-01-16 Device for monitoring the environment of a vehicle
US10/346,517 US7130448B2 (en) 2002-01-18 2003-01-17 Device for monitoring around a vehicle

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002-10576 2002-01-18
JP2002010576 2002-01-18
JP2002297219A JP4060159B2 (en) 2002-01-18 2002-10-10 Vehicle periphery monitoring device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007275704A Division JP4647648B2 (en) 2002-01-18 2007-10-23 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2003284057A true JP2003284057A (en) 2003-10-03
JP4060159B2 JP4060159B2 (en) 2008-03-12

Family

ID=29253015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002297219A Expired - Fee Related JP4060159B2 (en) 2002-01-18 2002-10-10 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4060159B2 (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135034A (en) * 2002-10-10 2004-04-30 Honda Motor Co Ltd Vehicle periphery monitoring unit
JP2005201658A (en) * 2004-01-13 2005-07-28 Denso Corp Apparatus for detecting pedestrian
JP2006101384A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Human figure detecting apparatus and method
JP2007296941A (en) * 2006-04-28 2007-11-15 Toyota Central Res & Dev Lab Inc Pedestrian protection device
JP2008065756A (en) * 2006-09-11 2008-03-21 Kawasaki Heavy Ind Ltd Driving assist system
JP2008065757A (en) * 2006-09-11 2008-03-21 Kawasaki Heavy Ind Ltd Driving assist system
JP2008084138A (en) * 2006-09-28 2008-04-10 Honda Motor Co Ltd Vehicle surrounding monitoring device and surrounding monitoring program
WO2008065717A1 (en) * 2006-11-29 2008-06-05 Fujitsu Limited Pedestrian detecting system, and pedestrian detecting method
JP2008236029A (en) * 2007-03-16 2008-10-02 Honda Motor Co Ltd Vehicle-surroundings monitoring system, method and program
JP2009077022A (en) * 2007-09-19 2009-04-09 Sanyo Electric Co Ltd Driving support system and vehicle
JP2009184450A (en) * 2008-02-05 2009-08-20 Toyota Central R&D Labs Inc Light irradiation device
JP2009193130A (en) * 2008-02-12 2009-08-27 Honda Motor Co Ltd Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
US7671725B2 (en) 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
US7689039B2 (en) 2005-08-30 2010-03-30 Fuji Jukogyo Kabushiki Kaisha Image processing equipment
JP2010128800A (en) * 2008-11-27 2010-06-10 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2011043289A1 (en) * 2009-10-09 2011-04-14 クラリオン株式会社 Pedestrian detection system
US7957556B2 (en) 2006-04-25 2011-06-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
JP2011170499A (en) * 2010-02-17 2011-09-01 Honda Motor Co Ltd Periphery monitoring device of vehicle
WO2011108198A1 (en) 2010-03-03 2011-09-09 本田技研工業株式会社 Surrounding area monitoring device for vehicle
JP4829966B2 (en) * 2006-11-29 2011-12-07 富士通株式会社 Object detection system and object detection method
JP2012063918A (en) * 2010-09-15 2012-03-29 Toyota Motor Corp Vehicle periphery image display device and method
WO2012066751A1 (en) * 2010-11-16 2012-05-24 本田技研工業株式会社 Peripheral monitoring device for vehicle
JP2012142966A (en) * 2012-02-15 2012-07-26 Honda Motor Co Ltd Vehicle periphery monitoring system
WO2013042767A1 (en) 2011-09-21 2013-03-28 本田技研工業株式会社 Apparatus for monitoring surroundings of vehicle
WO2013047088A1 (en) 2011-09-28 2013-04-04 本田技研工業株式会社 Biometric device
WO2013058128A1 (en) 2011-10-18 2013-04-25 本田技研工業株式会社 Vehicle vicinity monitoring device
WO2013077096A1 (en) 2011-11-25 2013-05-30 本田技研工業株式会社 Vehicle periphery monitoring device
EP2639742A2 (en) 2012-03-12 2013-09-18 Honda Motor Co., Ltd. Vehicle periphery monitoring apparatus
WO2013136827A1 (en) 2012-03-12 2013-09-19 本田技研工業株式会社 Vehicle periphery monitor device
JP2013186507A (en) * 2012-03-05 2013-09-19 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013186819A (en) * 2012-03-09 2013-09-19 Omron Corp Image processing device, image processing method, and image processing program
JP2014074951A (en) * 2012-10-02 2014-04-24 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2015046162A (en) * 2004-07-26 2015-03-12 オートモーティブ システムズ ラボラトリー インコーポレーテッド Vulnerable road user protection method
KR101761921B1 (en) * 2011-02-28 2017-07-27 삼성전기주식회사 System and method for assisting a driver
WO2022111682A1 (en) * 2020-11-30 2022-06-02 深圳市普渡科技有限公司 Moving pedestrian detection method, electronic device and robot

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135034A (en) * 2002-10-10 2004-04-30 Honda Motor Co Ltd Vehicle periphery monitoring unit
JP2005201658A (en) * 2004-01-13 2005-07-28 Denso Corp Apparatus for detecting pedestrian
JP2015046162A (en) * 2004-07-26 2015-03-12 オートモーティブ システムズ ラボラトリー インコーポレーテッド Vulnerable road user protection method
US9330321B2 (en) 2004-07-26 2016-05-03 Tk Holdings, Inc. Method of processing an image of a visual scene
JP2006101384A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Human figure detecting apparatus and method
JP4734884B2 (en) * 2004-09-30 2011-07-27 日産自動車株式会社 Person detection apparatus and method
US7689039B2 (en) 2005-08-30 2010-03-30 Fuji Jukogyo Kabushiki Kaisha Image processing equipment
US7671725B2 (en) 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
US7957556B2 (en) 2006-04-25 2011-06-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
DE102007019491B4 (en) * 2006-04-25 2013-01-24 Honda Motor Co., Ltd. Vehicle environment monitoring device, vehicle, vehicle environment monitoring method, and vehicle environment monitoring program
JP2007296941A (en) * 2006-04-28 2007-11-15 Toyota Central Res & Dev Lab Inc Pedestrian protection device
JP2008065756A (en) * 2006-09-11 2008-03-21 Kawasaki Heavy Ind Ltd Driving assist system
JP2008065757A (en) * 2006-09-11 2008-03-21 Kawasaki Heavy Ind Ltd Driving assist system
JP2008084138A (en) * 2006-09-28 2008-04-10 Honda Motor Co Ltd Vehicle surrounding monitoring device and surrounding monitoring program
JP4629638B2 (en) * 2006-09-28 2011-02-09 本田技研工業株式会社 Vehicle periphery monitoring device
WO2008065717A1 (en) * 2006-11-29 2008-06-05 Fujitsu Limited Pedestrian detecting system, and pedestrian detecting method
US8045759B2 (en) 2006-11-29 2011-10-25 Fujitsu Limited Object detection system and method
WO2008065729A1 (en) * 2006-11-29 2008-06-05 Fujitsu Limited Object detecting system, and object detecting method
JP4829966B2 (en) * 2006-11-29 2011-12-07 富士通株式会社 Object detection system and object detection method
JP4627305B2 (en) * 2007-03-16 2011-02-09 本田技研工業株式会社 Vehicle periphery monitoring device, vehicle periphery monitoring method, and vehicle periphery monitoring program
JP2008236029A (en) * 2007-03-16 2008-10-02 Honda Motor Co Ltd Vehicle-surroundings monitoring system, method and program
JP2009077022A (en) * 2007-09-19 2009-04-09 Sanyo Electric Co Ltd Driving support system and vehicle
JP2009184450A (en) * 2008-02-05 2009-08-20 Toyota Central R&D Labs Inc Light irradiation device
JP2009193130A (en) * 2008-02-12 2009-08-27 Honda Motor Co Ltd Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
JP2010128800A (en) * 2008-11-27 2010-06-10 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2011081736A (en) * 2009-10-09 2011-04-21 Clarion Co Ltd Pedestrian detection system
WO2011043289A1 (en) * 2009-10-09 2011-04-14 クラリオン株式会社 Pedestrian detection system
JP2011170499A (en) * 2010-02-17 2011-09-01 Honda Motor Co Ltd Periphery monitoring device of vehicle
WO2011108198A1 (en) 2010-03-03 2011-09-09 本田技研工業株式会社 Surrounding area monitoring device for vehicle
US9073484B2 (en) 2010-03-03 2015-07-07 Honda Motor Co., Ltd. Surrounding area monitoring apparatus for vehicle
JP2012063918A (en) * 2010-09-15 2012-03-29 Toyota Motor Corp Vehicle periphery image display device and method
US9123179B2 (en) 2010-09-15 2015-09-01 Toyota Jidosha Kabushiki Kaisha Surrounding image display system and surrounding image display method for vehicle
JPWO2012066751A1 (en) * 2010-11-16 2014-05-12 本田技研工業株式会社 Vehicle periphery monitoring device
JP5530530B2 (en) * 2010-11-16 2014-06-25 本田技研工業株式会社 Vehicle periphery monitoring device
US9160986B2 (en) 2010-11-16 2015-10-13 Honda Motor Co., Ltd. Device for monitoring surroundings of a vehicle
WO2012066751A1 (en) * 2010-11-16 2012-05-24 本田技研工業株式会社 Peripheral monitoring device for vehicle
KR101761921B1 (en) * 2011-02-28 2017-07-27 삼성전기주식회사 System and method for assisting a driver
WO2013042767A1 (en) 2011-09-21 2013-03-28 本田技研工業株式会社 Apparatus for monitoring surroundings of vehicle
US9292735B2 (en) 2011-09-28 2016-03-22 Honda Motor Co., Ltd. Living body recognizing device
WO2013047088A1 (en) 2011-09-28 2013-04-04 本田技研工業株式会社 Biometric device
WO2013058128A1 (en) 2011-10-18 2013-04-25 本田技研工業株式会社 Vehicle vicinity monitoring device
US9158979B2 (en) 2011-10-18 2015-10-13 Honda Motor Co., Ltd. Vehicle vicinity monitoring device
US9235990B2 (en) 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
WO2013077096A1 (en) 2011-11-25 2013-05-30 本田技研工業株式会社 Vehicle periphery monitoring device
JP2012142966A (en) * 2012-02-15 2012-07-26 Honda Motor Co Ltd Vehicle periphery monitoring system
JP2013186507A (en) * 2012-03-05 2013-09-19 Honda Motor Co Ltd Vehicle periphery monitoring device
US9165197B2 (en) 2012-03-05 2015-10-20 Honda Motor Co., Ltd Vehicle surroundings monitoring apparatus
JP2013186819A (en) * 2012-03-09 2013-09-19 Omron Corp Image processing device, image processing method, and image processing program
WO2013136827A1 (en) 2012-03-12 2013-09-19 本田技研工業株式会社 Vehicle periphery monitor device
EP2639742A2 (en) 2012-03-12 2013-09-18 Honda Motor Co., Ltd. Vehicle periphery monitoring apparatus
US10565438B2 (en) 2012-03-12 2020-02-18 Honda Motor Co., Ltd. Vehicle periphery monitor device
JP2014074951A (en) * 2012-10-02 2014-04-24 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2022111682A1 (en) * 2020-11-30 2022-06-02 深圳市普渡科技有限公司 Moving pedestrian detection method, electronic device and robot

Also Published As

Publication number Publication date
JP4060159B2 (en) 2008-03-12

Similar Documents

Publication Publication Date Title
JP4060159B2 (en) Vehicle periphery monitoring device
JP3987048B2 (en) Vehicle periphery monitoring device
JP3987013B2 (en) Vehicle periphery monitoring device
JP4104867B2 (en) Night vision system
JP3934119B2 (en) Vehicle periphery monitoring device
JP3987057B2 (en) Vehicle periphery monitoring device
JP3764086B2 (en) Vehicle information providing device
JP4410292B1 (en) Vehicle periphery monitoring device
JP4203512B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4094604B2 (en) Vehicle periphery monitoring device
JP3839329B2 (en) Night vision system
JP4425852B2 (en) Vehicle periphery monitoring device
JP2006151300A (en) Vehicle periphery monitor device
JP4647648B2 (en) Vehicle periphery monitoring device
JP3970876B2 (en) Vehicle periphery monitoring device
JP3898157B2 (en) Infrared image recognition device
JP3939626B2 (en) Vehicle periphery monitoring device
JP4567072B2 (en) Vehicle periphery monitoring device
JP4298699B2 (en) Vehicle periphery monitoring device
JP2004348645A (en) Infrared image recognition apparatus and alarm equipment using the same
JP4372746B2 (en) Vehicle periphery monitoring device
JP4283266B2 (en) Vehicle periphery monitoring device
JP4358183B2 (en) Vehicle periphery monitoring device
JP4472623B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071023

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101228

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111228

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111228

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131228

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees