JP5399887B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5399887B2
JP5399887B2 JP2009297064A JP2009297064A JP5399887B2 JP 5399887 B2 JP5399887 B2 JP 5399887B2 JP 2009297064 A JP2009297064 A JP 2009297064A JP 2009297064 A JP2009297064 A JP 2009297064A JP 5399887 B2 JP5399887 B2 JP 5399887B2
Authority
JP
Japan
Prior art keywords
image
pedestrian
processing target
image portion
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009297064A
Other languages
Japanese (ja)
Other versions
JP2011138265A (en
Inventor
敦央 江口
裕次 横地
信彦 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009297064A priority Critical patent/JP5399887B2/en
Publication of JP2011138265A publication Critical patent/JP2011138265A/en
Application granted granted Critical
Publication of JP5399887B2 publication Critical patent/JP5399887B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に取り付けられたカメラによる撮像画像から、車両周辺の監視対象物を認識する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that recognizes a monitoring object around a vehicle from an image captured by a camera attached to the vehicle.

従来より、カメラにより撮像された自車両周辺の画像から、自車両に接触する可能性がある歩行者等の監視対象物を検知して、運転者に報知するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。   Conventionally, a vehicle periphery monitoring device has been proposed in which a monitoring object such as a pedestrian that may come into contact with the host vehicle is detected from an image around the host vehicle captured by a camera and is notified to the driver. (For example, refer to Patent Document 1).

特許文献1に記載された車両周辺監視装置においては、赤外線カメラにより撮像されたグレースケール画像を2値化処理した2値画像から、歩行者の頭部の形状と類似した画像部分を抽出し、この画像部分について歩行者判定の処理を行うようにしている。   In the vehicle periphery monitoring device described in Patent Document 1, an image part similar to the shape of the pedestrian's head is extracted from a binary image obtained by binarizing a grayscale image captured by an infrared camera, A pedestrian determination process is performed on this image portion.

特許第4283266号公報Japanese Patent No. 4283266

赤外線カメラにより歩行者を撮像した場合、歩行者の頭部は周囲に比べて温度が高いためグレースケール画像においては高輝度の領域となる。そのため、通常であれば、このグレースケール画像を2値化処理した2値画像から、比較的容易に頭部の特徴を有する画像部分を抽出することができる。   When a pedestrian is imaged with an infrared camera, the pedestrian's head has a higher temperature than the surrounding area, and thus becomes a high-luminance region in a grayscale image. Therefore, normally, an image portion having a head feature can be extracted relatively easily from a binary image obtained by binarizing the grayscale image.

しかし、歩行者が眼鏡を掛けているときには、眼鏡の温度は歩行者の頭部よりも低い、反射率・放射率が歩行者と異なる、歩行者頭部からの赤外線を遮断してしまう等の影響により、2値画像において眼鏡の部分が黒(低輝度域)となり、白(高輝度域)となる頭部の画像部分が眼鏡の部分により上下2つに分断される場合がある。また、頭部の画像部分の一部が眼鏡の部分により大きく欠損する場合がある。そして、これらの場合には、歩行者の頭部の画像部分が頭部の特徴を有しないものとなって、歩行者の判定ができなくなる。   However, when the pedestrian is wearing glasses, the temperature of the glasses is lower than the pedestrian's head, the reflectivity / emissivity is different from the pedestrian, the infrared rays from the pedestrian's head are blocked, etc. Due to the influence, there are cases where the image portion of the head which becomes black (low luminance region) and becomes white (high luminance region) in the binary image is divided into upper and lower parts by the spectacle portion. In addition, a part of the image portion of the head may be largely lost due to the spectacle portion. In these cases, the image portion of the pedestrian's head does not have a head feature, and the pedestrian cannot be determined.

また、歩行者が帽子(サンバイザー等)を被っているときにも、同様にして、歩行者の頭部の画像部分の分断や欠損が生じ得る。   Similarly, when the pedestrian is wearing a hat (sun visor or the like), the image portion of the pedestrian's head may be divided or lost.

そこで、本発明は、眼鏡を掛けた歩行者や帽子を被った歩行者について、歩行者であることの判定ができなくなることを抑制した車両周辺監視装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a vehicle periphery monitoring device that suppresses the determination that a pedestrian wearing glasses or a pedestrian wearing a hat cannot be determined to be a pedestrian.

本発明は上記目的を達成するためになされたものであり、車載の赤外線カメラによる撮像画像に基づいて、自車両周辺の監視対象物を認識する車両周辺監視装置であって、前記撮像画像のグレースケール画像を2値化処理して生成された2値画像から、処理対象画像部分を抽出する2値画像候補抽出手段と、前記処理対象画像部分が歩行者の頭部の特徴を有するか否かを判断して、前記処理対象画像部分に対応する実空上の物体が歩行者であるか否かを識別する歩行者識別手段とを備えた車両周辺監視装置に関する。   The present invention has been made in order to achieve the above object, and is a vehicle periphery monitoring device that recognizes a monitoring object around a host vehicle based on an image captured by an in-vehicle infrared camera. Binary image candidate extraction means for extracting a processing target image portion from a binary image generated by binarizing the scale image, and whether or not the processing target image portion has the characteristics of a pedestrian's head It is related with the vehicle periphery monitoring apparatus provided with the pedestrian identification means which judges whether the object on the real sky corresponding to the said process target image part is a pedestrian.

そして、本発明の第1の態様は、前記歩行者識別手段は、前記処理対象画像部分として、所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が抽出されたか否かを判定する判定手段を備え、該判定手段により所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が抽出されと判定されたときには、該間隔部分を埋めて該二つの画像部分を一体化し、該一体化した画像部分が歩行者の頭部の特徴を有するか否かを判断して、該二つの画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする。 And the 1st aspect of this invention WHEREIN: The said pedestrian identification means determines whether the two image parts which faced the perpendicular direction with the space | interval in a predetermined range were extracted as the said process target image part. And when determining that two image portions facing each other in the vertical direction with an interval within a predetermined range have been extracted by the determination unit, the two image portions are integrated by filling the interval portion, Determining whether the converted image portion has the characteristics of the pedestrian's head and identifying whether the object in the real space corresponding to the two image portions is a pedestrian or not. To do.

かかる本発明によれば、歩行者が眼鏡を掛けているため或いは歩行者が帽子を被っているために、その頭部の2値画像が眼鏡或いは帽子のつば部等の画像部分で上下に分断され、前記2値画像候補抽出手段により、前記所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が、前記処理対象画像部分として抽出されたときに、前記歩行者識別手段は、該間隔部分を埋めて該二つの画像部分を一体化する。そして、前記歩行者識別手段は、この一体化された画像部分について、歩行者の特徴部分の有無を判断する。   According to the present invention, since the pedestrian is wearing glasses or the pedestrian is wearing a hat, the binary image of the head is divided vertically by an image portion such as the brim of the glasses or the hat. When the binary image candidate extracting means extracts two image parts that are vertically opposed with an interval within the predetermined range as the processing target image part, the pedestrian identifying means The two image parts are integrated by filling the part. And the said pedestrian identification means judges the presence or absence of a pedestrian's characteristic part about this integrated image part.

そのため、歩行者の頭部の画像部分が眼鏡或いは帽子のつば部等の画像部分により上下に分断され、分断された各画像部分が頭部の特徴(高さ、幅、縦横比等)を有しなくなっている場合であっても、前記一体化された画像部分について歩行者の頭部の特徴の有無を判断することで、歩行者が識別できなくなることを抑制することができる。   Therefore, the image part of the pedestrian's head is divided up and down by image parts such as eyeglasses or hat collars, and each divided image part has head characteristics (height, width, aspect ratio, etc.). Even if it is no longer performed, it can be suppressed that the pedestrian cannot be identified by determining the presence or absence of the characteristics of the head of the pedestrian in the integrated image portion.

次に、本発明の第2の態様は、前記歩行者識別手段は、前記処理対象画像部分として、略中央部に2値画像の高輝度域に3方囲まれた水平方向に長い欠損部を有する画像部分が抽出されたか否かを判定する判定手段を備え、該判定手段により略中央部に水平方向に長い欠損部を有する画像部分が抽出されと判定されたときには、該欠損部を埋めた画像部分が歩行者の頭部の特徴を有するか否かを判断して、該欠損部を有する画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする。 Next, according to a second aspect of the present invention, the pedestrian identification means has a horizontally long missing portion surrounded by three high-intensity areas of a binary image at the substantially central portion as the processing target image portion. image portion having comprising a determining means for determining Taka not been extracted, sometimes it is determined that the image portion having a long defective part in the horizontal direction is extracted at a substantially central portion by said judging means, fills the該欠loss portion Determining whether or not the image portion has the characteristics of the head of the pedestrian, and identifying whether or not the object in the real space corresponding to the image portion having the missing portion is a pedestrian And

かかる本発明によれば、歩行者が眼鏡を掛けているため或いは歩行者が帽子を被っているために、その頭部の2値画像の略中央部に、眼鏡の画像部分或いは帽子のつばの画像部分による水平方向に長い欠損部がある処理対象画像部分が抽出されたときに、前記歩行者識別手段は該欠損部を埋める。そして、前記歩行者識別手段は、このようにして欠損部が埋められた画像部分について、歩行者の特徴の有無を判断する。   According to the present invention, since the pedestrian is wearing spectacles or the pedestrian is wearing a hat, the image portion of the spectacles or the brim of the cap is placed at the approximate center of the binary image of the head. When a processing target image portion having a horizontally long missing portion is extracted by the image portion, the pedestrian identification unit fills in the missing portion. And the said pedestrian identification means judges the presence or absence of the characteristic of a pedestrian about the image part by which the defect | deletion part was filled in this way.

そのため、歩行者の頭部の画像部分に眼鏡或いは帽子のつば部等による欠損部があるために、該画像部分が頭部の特徴(面積、充足率等)を有しなくなっている場合であっても、該欠損部を埋めた画像部分について歩行者の頭部の特徴の有無を判断することで、歩行者が識別できなくなることを抑制することができる。   For this reason, there is a case where the image portion of the pedestrian's head has a missing portion due to the brim portion of glasses or a hat and the image portion does not have the characteristics of the head (area, sufficiency, etc.). However, it is possible to prevent the pedestrian from being able to be identified by determining the presence or absence of the characteristics of the pedestrian's head for the image portion in which the missing portion is filled.

本発明の車両周辺監視装置の構成図。The block diagram of the vehicle periphery monitoring apparatus of this invention. 図1に示した車両周辺監視装置の車両への取り付け態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of the vehicle periphery monitoring apparatus shown in FIG. 図1に示した画像処理ユニットによる処理手順を示したフローチャート。3 is a flowchart showing a processing procedure by the image processing unit shown in FIG. 1. 歩行者識別処理のフローチャート。The flowchart of a pedestrian identification process. 二つの処理対象画像部分を一体化する処理の説明図。Explanatory drawing of the process which unifies two process target image parts. 処理対象画像部分の欠損部を埋める処理の説明図。Explanatory drawing of the process which fills the defect | deletion part of a process target image part.

本発明の実施形態について、図1〜図6を参照して説明する。図1を参照して、本発明の車両周辺監視装置は、遠赤外線を検出可能な赤外線カメラ2R,2Lと、車両のヨーレートを検出するヨーレートセンサ3と、車両の走行速度を検出する車速センサ4と、運転者によるブレーキの操作量を検出するブレーキセンサ5と、赤外線カメラ2により得られる画像から車両前方の監視対象物(歩行者等)を検出し、この監視対象物と車両が接触する可能性が高い場合に警報を出力する画像処理ユニット1と、音声により警報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより得られた画像を表示すると共に、接触の可能性が高い監視対象物を運転者に視認させる表示を行うための表示装置7とを備えている。   An embodiment of the present invention will be described with reference to FIGS. Referring to FIG. 1, a vehicle periphery monitoring apparatus according to the present invention includes infrared cameras 2R and 2L that can detect far infrared rays, a yaw rate sensor 3 that detects the yaw rate of the vehicle, and a vehicle speed sensor 4 that detects the traveling speed of the vehicle. And a brake sensor 5 that detects the amount of brake operation by the driver, and an object to be monitored in front of the vehicle (such as a pedestrian) from an image obtained by the infrared camera 2, and the object to be monitored can come into contact with the vehicle Image processing unit 1 that outputs an alarm when there is a high probability, a speaker 6 for outputting an alarm by sound, and an image obtained by the infrared cameras 2R and 2L, and a monitoring target with a high possibility of contact And a display device 7 for performing display for causing the driver to visually recognize the object.

図2を参照して、赤外線カメラ2R,2Lは、車両10の前部に、車両10の車幅方向の中央部に対してほぼ対称な位置に配置されている。また、2台の赤外線カメラ2R,2Lは、光軸を互いに平行とし、且つ、路面からの高さを等しくして固定されている。なお、赤外線カメラ2R,2Lは、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。また、表示装置7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。   Referring to FIG. 2, infrared cameras 2 </ b> R and 2 </ b> L are disposed at the front portion of vehicle 10 at a position that is substantially symmetrical with respect to the center portion of vehicle 10 in the vehicle width direction. The two infrared cameras 2R and 2L are fixed with their optical axes parallel to each other and with the same height from the road surface. The infrared cameras 2R and 2L have a characteristic that the output level increases (the luminance increases) as the temperature of the imaged object increases. Further, the display device 7 is provided so that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 10.

また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2R,2Lから出力されるアナログ映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、該画像メモリに取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。   Referring to FIG. 1, an image processing unit 1 is an electronic unit composed of a microcomputer (not shown) and converts analog video signals output from the infrared cameras 2R and 2L into digital data. The microcomputer has a function of fetching it into an image memory (not shown) and performing various arithmetic processes by the microcomputer with respect to the image ahead of the vehicle taken into the image memory.

そして、該マイクロコンピュータに車両周辺監視用のプログラムを実行させることによって、画像処理ユニット1は、処理対象画像抽出手段20及び歩行者識別手段21として機能する。   The image processing unit 1 functions as the processing target image extraction unit 20 and the pedestrian identification unit 21 by causing the microcomputer to execute a vehicle periphery monitoring program.

次に、図3に示したフローチャートに従って、画像処理ユニット1による監視対象物の検出及び注意喚起処理について説明する。   Next, according to the flowchart shown in FIG. 3, the monitoring target object detection and alerting processing by the image processing unit 1 will be described.

画像処理ユニット1は、先ずSTEP1で赤外線カメラ2R,2Lから出力される赤外線画像のアナログ信号を入力し、続くSTEP2で該アナログ信号をA/D変換によりデジタル化したグレースケール画像を画像メモリに格納する。なお、STEP1〜STEP2では、赤外線カメラ2Rによるグレースケール画像(以下、右画像という)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という)とが取得される。そして、右画像と左画像では、同一の対象物の画像部分の水平位置にずれ(視差)が生じるため、この視差に基づいて実空間における車両10から該対象物までの距離を算出することができる。   The image processing unit 1 first inputs an analog signal of an infrared image output from the infrared cameras 2R and 2L in STEP1, and then stores a grayscale image obtained by digitizing the analog signal by A / D conversion in an image memory in STEP2. To do. In STEP1 to STEP2, a grayscale image (hereinafter referred to as a right image) obtained by the infrared camera 2R and a grayscale image (hereinafter referred to as a left image) obtained by the infrared camera 2L are acquired. Since the right image and the left image have a shift (parallax) in the horizontal position of the image portion of the same object, the distance from the vehicle 10 to the object in real space can be calculated based on this parallax. it can.

続くSTEP3で、画像処理ユニット1は、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。   In subsequent STEP 3, the image processing unit 1 binarizes the right image as a reference image (pixels with luminance equal to or higher than a threshold value are set to “1 (white)”, and pixels smaller than the threshold value are set to “0 (black)”. To generate a binary image.

次のSTEP4〜STEP6は処理対象画像抽出手段20による処理である。処理対象画像抽出手段20は、STEP4で、2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。また、処理対象画像抽出手段20は、STEP5で、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、STEP6で、ラベリングした画像部分を処理対象画像部分として抽出する。   The next STEP 4 to STEP 6 are processes by the processing target image extracting means 20. In STEP 4, the processing target image extracting unit 20 converts the image portion of each white area included in the binary image to run length data (data of white pixel lines continuous in the x (horizontal) direction of the binary image). . Further, the processing target image extracting unit 20 labels a line having a portion overlapping in the y (vertical) direction of the binary image as one image portion in STEP 5, and uses the labeled image portion as a processing target image portion in STEP 6. Extract.

次のSTEP7で、画像処理ユニット1は、各処理対象画像部分の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、例えば前掲した特許第4283266号公報に詳説されているので、ここでは説明を省略する。そして、画像処理ユニット1は、続くSTEP8〜STEP9と、STEP20〜STEP22を並行して実行する。   In the next STEP 7, the image processing unit 1 calculates the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed square of each processing target image portion. The specific calculation method is described in detail in, for example, the above-mentioned Japanese Patent No. 4283266, and thus the description thereof is omitted here. Then, the image processing unit 1 executes the following STEP 8 to STEP 9 and STEP 20 to STEP 22 in parallel.

STEP8で、画像処理ユニット1は、所定のサンプリング周期毎に赤外線カメラ2R,2Lにより撮像された画像に基づく2値画像から抽出された対象物の画像について同一性判定を行い、同一の対象物の画像であると判定された画像の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。また、STEP9で、画像処理ユニット1は、車速センサ4により検出される車速VCAR及びヨーレートセンサ3により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θrを算出する。   In STEP 8, the image processing unit 1 determines the identity of the image of the target object extracted from the binary image based on the images captured by the infrared cameras 2R and 2L at every predetermined sampling period. The time-series data of the position (center of gravity position) of the image determined to be an image is stored in the memory (time tracking). In STEP 9, the image processing unit 1 reads the vehicle speed VCAR detected by the vehicle speed sensor 4 and the yaw rate YR detected by the yaw rate sensor 3, and calculates the turning angle θr of the vehicle 10 by time integration of the yaw rate YR. To do.

一方、STEP20において、画像処理ユニット1は、基準画像(右画像)の2値画像によって追跡される対象物の画像候補の中の一つを選択して、右画像のグレースケール画像から探索画像R1(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。続くSTEP21で、画像処理ユニット1は、左画像のグレースケール画像から探索画像R1に対応する画像(以下、対応画像R1’という)を探索する探索領域を設定し、探索画像R1との相間演算を実行して対応画像R1’を抽出する。そして、STEP22で、画像処理ユニット1は、探索画像R1の重心位置と対応画像R1’の重心位置との差を視差量Δd(画素数)として算出し、STEP10に進む。   On the other hand, in STEP 20, the image processing unit 1 selects one of the target image candidates tracked by the binary image of the reference image (right image), and searches the search image R1 from the grayscale image of the right image. (An image of the entire region surrounded by a circumscribed rectangle of the selected candidate image) is extracted. In subsequent STEP 21, the image processing unit 1 sets a search area for searching for an image corresponding to the search image R1 (hereinafter referred to as the corresponding image R1 ′) from the grayscale image of the left image, and performs an inter-phase calculation with the search image R1. The corresponding image R1 ′ is extracted by executing. In STEP 22, the image processing unit 1 calculates the difference between the centroid position of the search image R 1 and the centroid position of the corresponding image R 1 ′ as a parallax amount Δd (number of pixels), and proceeds to STEP 10.

STEP10で、画像処理ユニット1は、視差量Δdに基づいて車両10と対象物との距離zを算出し、探索画像の座標(x,y)と距離zを、実空間座標(X,Y,Z)に変換して、探索画像に対応する実空間位置の座標を算出する。なお、実空間座標(X,Y,Z)は、図2に示したように、赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方方向に設定されている。また、画像座標は、画像の中心を原点とし、水平方向がx、垂直方向がyに設定されている。   In STEP 10, the image processing unit 1 calculates the distance z between the vehicle 10 and the object based on the parallax amount Δd, and calculates the coordinates (x, y) and the distance z of the search image as real space coordinates (X, Y, Z) to calculate the coordinates of the real space position corresponding to the search image. As shown in FIG. 2, the real space coordinates (X, Y, Z) are set such that the midpoint position of the attachment positions of the infrared cameras 2R, 2L is the origin 0, X is the vehicle width direction of the vehicle 10, and Y Is set in the vertical direction, and Z is set in the forward direction of the vehicle 10. The image coordinates are set such that the center of the image is the origin, the horizontal direction is x, and the vertical direction is y.

続くSTEP11で、画像処理ユニット1は、車両10が回頭することによる画像上の位置ずれを補正する回頭角補正を行う。続くSTEP12は、移動ベクトル算出手段21による処理であり、移動ベクトル算出手段21は、所定のモニタ期間内に撮像された複数の画像から得られた回頭角補正後の同一の対象物の実空間位置の時系列データから、対象物と車両10との相対的な移動ベクトルを算出する。   In subsequent STEP 11, the image processing unit 1 performs a turning angle correction for correcting a positional deviation on the image due to the turning of the vehicle 10. The subsequent STEP 12 is a process performed by the movement vector calculation means 21. The movement vector calculation means 21 is the real space position of the same object after turning angle correction obtained from a plurality of images captured within a predetermined monitoring period. The relative movement vector between the object and the vehicle 10 is calculated from the time series data.

なお、実空間座標(X,Y,Z)及び移動ベクトルの具体的な算出方法については、前掲した特許第4283266号公報に詳説されているので、ここでは説明を省略する。   The specific calculation method of the real space coordinates (X, Y, Z) and the movement vector is described in detail in the above-mentioned Japanese Patent No. 4283266, and the description thereof is omitted here.

次に、STEP13で、画像処理ユニット1は、車両10と検出した対象物との接触の可能性を判断して、注意喚起を行う必要があるか否かを判定する「注意喚起判定処理」を実行する。そして、「注意喚起判定処理」により、注意喚起を行う必要があると判定されたときは、STEP30に分岐してブザー6による注意喚起音の出力と、表示装置7への注意喚起表示を行う。一方、「注意喚起判定処理」により注意喚起を行う必要がないと判定されたときには、STEP1に戻り、画像処理ユニット1は注意喚起を行わない。   Next, in STEP 13, the image processing unit 1 determines a possibility of contact between the vehicle 10 and the detected object, and performs “attention determination processing” for determining whether or not it is necessary to perform attention. Run. When it is determined by the “attention call determination process” that it is necessary to call attention, the process branches to STEP 30 to output a warning sound by the buzzer 6 and display a warning on the display device 7. On the other hand, when it is determined by the “attention calling determination process” that it is not necessary to call attention, the process returns to STEP 1 and the image processing unit 1 does not call attention.

次に、「注意喚起判定処理」において実行される歩行者識別手段21による処理について、図4に示したフローチャートに従って説明する。歩行者識別手段21は、処理対象画像抽出手段20により抽出された各処理対象画像部分について、歩行者の頭部の特徴を有するか否かを判定する。   Next, the process by the pedestrian identification means 21 performed in the “attention calling determination process” will be described with reference to the flowchart shown in FIG. The pedestrian identification unit 21 determines whether each processing target image portion extracted by the processing target image extraction unit 20 has a pedestrian's head feature.

歩行者識別手段21は、図4のSTEP50で、処理対象画像部分の大きさが、処理対象画像部分に対応する実空間位置と車両10との距離に基づいて設定した、歩行者の頭部相当の大きさであるか否かを判断する。そして、処理対象画像部分の大きさが歩行者の頭部相当の大きさであったときにはSTEP51に進み、頭部相当の大きさでなかったときにはSTEP60に分岐する。   The pedestrian identification means 21 corresponds to the pedestrian's head, in which the size of the processing target image portion is set based on the distance between the real space position corresponding to the processing target image portion and the vehicle 10 in STEP 50 of FIG. It is judged whether it is the magnitude | size. Then, when the size of the processing target image portion is a size corresponding to the head of the pedestrian, the process proceeds to STEP 51, and when it is not the size corresponding to the head, the process branches to STEP 60.

ここで、図5の(a)に示したように、眼鏡を掛けた歩行者の頭部部分のグレースケール画像70を2値化すると、温度の低い眼鏡の部分で頭部の画像部分が、(b)に示したように上下2つの部分71,71に分断され、(c)に示したように、2つの処理対象画像部分75,76として抽出される場合がある。そして、この場合には、処理対象画像部分75,76は、歩行者の頭部の特徴(大きさ、重心、縦横比等)を有しないため、歩行者の頭部の画像部分として抽出されないことになる。   Here, as shown in FIG. 5A, when the grayscale image 70 of the head part of the pedestrian wearing glasses is binarized, the image part of the head in the part of the glasses having a low temperature becomes As shown in (b), it is divided into two upper and lower parts 71, 71, and as shown in (c), it may be extracted as two processing target image parts 75, 76. In this case, since the processing target image portions 75 and 76 do not have the characteristics (size, center of gravity, aspect ratio, etc.) of the pedestrian's head, they are not extracted as the image portion of the pedestrian's head. become.

そこで、歩行者識別手段21は、STEP60で、処理対象画像部分71の下方に、所定範囲内の間隔をもって対向した他の処理対象画像部分を探索する。そして、他の処理対象画像部分が探知されなかったときは、次のSTEP61からSTEP70に進み、歩行者識別手段21は、処理対象画像部分71が歩行者の頭部の画像部分ではないと判定してSTEP55に進み、処理を終了する(他の処理対象画像部分があれば、その処理対象画像部分について再度図4のフローチャートによる処理を実行する)。   Accordingly, in STEP 60, the pedestrian identification means 21 searches for another processing target image portion that is opposed to the processing target image portion 71 with an interval within a predetermined range. When no other processing target image portion is detected, the process proceeds from STEP 61 to STEP 70, and the pedestrian identification unit 21 determines that the processing target image portion 71 is not an image portion of the pedestrian's head. Then, the process proceeds to STEP 55 and the process is terminated (if there is another processing target image portion, the processing according to the flowchart of FIG. 4 is executed again for the processing target image portion).

一方、STEP60で、図5の(c)に示したように、他の処理対象画像部分72が探知されたときにはSTEP61からSTEP62に進み、歩行者識別手段21は、上部の処理対象画像部分75と、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を合わせた部分の大きさが、歩行者の頭部の上部の大きさに相当するものであるか否かを判断する。   On the other hand, as shown in FIG. 5C, when another processing target image portion 72 is detected in STEP 60, the process proceeds from STEP 61 to STEP 62, and the pedestrian identification means 21 It is determined whether the size of the combined portion of the upper processing target image portion 75 and the lower processing target image portion 76 corresponds to the size of the upper portion of the pedestrian's head. To do.

そして、上部の処理対象画像部分75と、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を合わせた部分の大きさが、歩行者の頭部の上部の大きさに相当するものであるときはSTEP63に進み、歩行者識別手段21は、図6の(a)に示したように、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を埋めて(間隔部分の画素を「1(白)」とする)、一体化する。   The size of the upper processing target image portion 75 and the combined portion of the upper processing target image portion 75 and the lower processing target image portion 76 is the size of the upper portion of the pedestrian's head. If it is equivalent, the process proceeds to STEP 63, and the pedestrian identification means 21 determines the interval between the upper processing target image portion 75 and the lower processing target image portion 76 as shown in FIG. It is embedded (pixels in the interval are set to “1 (white)”) and integrated.

そして、STEP54に進み、歩行者識別手段21は、一体化した処理対象画像部分80について、歩行者の頭部の特徴を有するか否かを判定して、この画像部分に対応する実空間上の物体が歩行者であるか否かを判断する。これにより、眼鏡の画像部分により歩行者の頭部の画像部分が上下に分断された場合であっても、歩行者の頭部の画像部分を抽出することができる。   Then, proceeding to STEP 54, the pedestrian identification means 21 determines whether or not the integrated processing target image portion 80 has the characteristics of the pedestrian's head, and in the real space corresponding to this image portion. It is determined whether or not the object is a pedestrian. Thereby, even if it is a case where the image part of a pedestrian's head is divided | segmented up and down by the image part of spectacles, the image part of a pedestrian's head can be extracted.

一方、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を合わせた部分の大きさが、歩行者の頭部の上部の大きさに相当するものでなかったときにはSTEP70に分岐し、歩行者識別手段21は、上部の処理対象画像部分75が歩行者の画像部分ではないと判定してSTEP7に進み、処理を終了する。   On the other hand, if the size of the combined portion of the upper processing target image portion 75 and the lower processing target image portion 76 is not equivalent to the size of the upper portion of the pedestrian's head, the process proceeds to STEP 70. After branching, the pedestrian identification means 21 determines that the upper processing target image portion 75 is not the pedestrian image portion, proceeds to STEP 7, and ends the processing.

次に、STEP51で、歩行者識別手段21は、処理対象画像部分に、図5の(b)に示したように、処理対象画像部分80に、水平方向に長い欠損部(白領域で三方又は四方を囲まれた黒領域)があるか否かを判断する。そして、欠損部があるときはSTEP52に進み、欠損部がないときにはSTEP54に分岐する。   Next, in STEP 51, the pedestrian identification means 21, in the processing target image portion, in the processing target image portion 80, as shown in FIG. It is determined whether or not there is a black region surrounded on all sides. If there is a missing part, the process proceeds to STEP 52, and if there is no missing part, the process branches to STEP 54.

STEP52で、歩行者識別手段21は、処理対象画像部分80における欠損部の大きさ及び位置が、眼鏡相当の大きさ及び位置であるか否かを判断する。そして、処理対象画像部分80における欠損部の大きさ及び位置が、眼鏡相当の大きさ及び位置であるときはSTEP53に進み、歩行者識別手段21は欠損部を埋める(欠損部の画素を「1(白)」とする)。例えば、図6の(b)の場合には、欠損部91が埋められて、図6の(a)の状態となる。   In STEP 52, the pedestrian identification means 21 determines whether or not the size and position of the missing portion in the processing target image portion 80 is a size and position equivalent to glasses. When the size and position of the missing portion in the processing target image portion 80 are the size and position equivalent to glasses, the process proceeds to STEP 53, and the pedestrian identification means 21 fills the missing portion (the pixel of the missing portion is set to “1”). (White) "). For example, in the case of FIG. 6B, the defect portion 91 is filled and the state of FIG.

そして、STEP54に進み、歩行者識別手段21は、欠損部が生められた画像部分について、歩行者の頭部の特徴を有するか否かを判定して、この画像部分に対応する実空間上の物体が歩行者であるか否かを判断する。これにより、眼鏡の画像部分により歩行者の頭部の画像に欠損部分が生じ、面積や充足率を基準とした判定では、処理対象画像部分が歩行者の頭部の画像であることが認識できなくなっている場合であっても、歩行者の頭部の画像部分を抽出することができる。   Then, proceeding to STEP 54, the pedestrian identification means 21 determines whether or not the image portion having the missing portion has the characteristics of the head of the pedestrian, and in the real space corresponding to this image portion. It is determined whether or not the object is a pedestrian. As a result, the image portion of the glasses causes a missing portion in the image of the pedestrian's head, and in the determination based on the area and the fullness rate, it can be recognized that the processing target image portion is the image of the pedestrian's head. Even if it is lost, the image portion of the pedestrian's head can be extracted.

なお、本実施の形態においては、眼鏡を掛けた歩行者の画像について説明したが、帽子を被った歩行者の画像についても、同様の処理を行うことで、帽子の画像部分により分断あるいは欠損が生じた歩行者の画像部分に対して、頭部の特徴を判断して歩行者であるか否かを識別することができる。   In the present embodiment, an image of a pedestrian wearing glasses has been described. However, a similar process is performed on a pedestrian image wearing a cap, so that the image portion of the cap may be divided or missing by performing the same processing. It is possible to determine whether or not the pedestrian is an pedestrian by judging the characteristics of the head of the generated image portion of the pedestrian.

また、本実施の形態においては、処理対象画像部分の中央部よりも上の箇所に欠損を有する場合を例として説明したが、人の顔形状や撮像時の角度、又は髪の毛により頭頂部が見え難い等の要因により、欠損の位置は必ずしも中央部よりも上の箇所とは限らず、中央部の下部に欠損が生じる場合もある。   Further, in the present embodiment, the case where there is a defect at a position above the central portion of the processing target image portion has been described as an example, but the top of the head is visible depending on the human face shape, the angle at the time of imaging, or the hair. Due to difficulties and the like, the position of the defect is not necessarily a location above the central part, and a defect may occur in the lower part of the central part.

1…画像処理ユニット、2R,2L…赤外線カメラ、20…処理対象画像部分抽出手段、21…歩行者識別手段、70…処理対象画像部分、71,72…眼鏡の画像部分により上限に分断された頭部の画像部分、75,76…所定間隔をもって垂直方向に対向した対象画像部分、80…間隔部分が埋められて一体化された処理対象画像部分、90…欠損部91を有する処理対象画像部分。   DESCRIPTION OF SYMBOLS 1 ... Image processing unit, 2R, 2L ... Infrared camera, 20 ... Processing object image part extraction means, 21 ... Pedestrian identification means, 70 ... Processing object image part, 71, 72 ... Divided to the upper limit by the image part of glasses Image portion of the head, 75, 76... Target image portion facing vertically in a predetermined interval, 80... Processing target image portion in which the interval portion is buried and integrated, 90. .

Claims (2)

車載の赤外線カメラによる撮像画像に基づいて、自車両周辺の監視対象物を認識する車両周辺監視装置であって、
前記撮像画像のグレースケール画像を2値化処理して生成された2値画像から、処理対象画像部分を抽出する2値画像候補抽出手段と、
前記処理対象画像部分が歩行者の頭部の特徴を有するか否かを判断して、前記処理対象画像部分に対応する実空上の物体が歩行者であるか否かを識別する歩行者識別手段とを備えた車両周辺監視装置において、
前記歩行者識別手段は、前記処理対象画像部分として、所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が抽出されたか否かを判定する判定手段を備え、該判定手段により所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が抽出されと判定されたときには、該間隔部分を埋めて該二つの画像部分を一体化し、該一体化した画像部分が歩行者の頭部の特徴を有するか否かを判断して、該二つの画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that recognizes an object to be monitored around the host vehicle based on an image captured by an in-vehicle infrared camera,
Binary image candidate extraction means for extracting a processing target image portion from a binary image generated by binarizing the grayscale image of the captured image;
Pedestrian identification for determining whether or not the processing target image portion has the characteristics of a pedestrian's head and identifying whether or not an object in the real sky corresponding to the processing target image portion is a pedestrian A vehicle periphery monitoring device comprising means,
The pedestrian identification unit includes a determination unit that determines whether or not two image portions facing each other in the vertical direction with an interval within a predetermined range are extracted as the processing target image portion , and within the predetermined range by the determination unit When it is determined that two image portions that are vertically opposed to each other are extracted, the two image portions are integrated by filling the interval portion, and the integrated image portion is the pedestrian's head. A vehicle periphery monitoring device that determines whether or not an object in real space corresponding to the two image portions is a pedestrian by determining whether or not it has a feature.
車載の赤外線カメラによる撮像画像に基づいて、自車両周辺の監視対象物を認識する車両周辺監視装置であって、
前記撮像画像のグレースケール画像を2値化処理して生成された2値画像から、処理対象画像部分を抽出する2値画像候補抽出手段と、
前記処理対象画像部分が歩行者の頭部の特徴を有するか否かを判断して、前記処理対象画像部分に対応する実空上の物体が歩行者であるか否かを識別する歩行者識別手段とを備えた車両周辺監視装置において、
前記歩行者識別手段は、前記処理対象画像部分として、略中央部に2値画像の高輝度域に3方囲まれた水平方向に長い欠損部を有する画像部分が抽出されたか否かを判定する判定手段を備え、該判定手段により略中央部に水平方向に長い欠損部を有する画像部分が抽出されと判定されたときには、該欠損部を埋めた画像部分が歩行者の頭部の特徴を有するか否かを判断して、該欠損部を有する画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that recognizes an object to be monitored around the host vehicle based on an image captured by an in-vehicle infrared camera,
Binary image candidate extraction means for extracting a processing target image portion from a binary image generated by binarizing the grayscale image of the captured image;
Pedestrian identification for determining whether or not the processing target image portion has the characteristics of a pedestrian's head and identifying whether or not an object in the real sky corresponding to the processing target image portion is a pedestrian A vehicle periphery monitoring device comprising means,
The pedestrian identification means determines whether or not an image portion having a horizontally long missing portion surrounded by three high-intensity areas of a binary image at a substantially central portion is extracted as the processing target image portion. A determination unit, and when it is determined by the determination unit that an image portion having a horizontally long defect portion is extracted at a substantially central portion, the image portion in which the defect portion is filled A vehicle periphery monitoring device that determines whether or not the object in the real space corresponding to the image portion having the deficient portion is a pedestrian.
JP2009297064A 2009-12-28 2009-12-28 Vehicle periphery monitoring device Expired - Fee Related JP5399887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009297064A JP5399887B2 (en) 2009-12-28 2009-12-28 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009297064A JP5399887B2 (en) 2009-12-28 2009-12-28 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2011138265A JP2011138265A (en) 2011-07-14
JP5399887B2 true JP5399887B2 (en) 2014-01-29

Family

ID=44349653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009297064A Expired - Fee Related JP5399887B2 (en) 2009-12-28 2009-12-28 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5399887B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6785173B2 (en) * 2017-03-17 2020-11-18 新明和工業株式会社 Garbage truck and person recognition device equipped on it
JP2018195052A (en) * 2017-05-17 2018-12-06 株式会社東海理化電機製作所 Image processing apparatus, image processing program, and gesture recognition system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4076777B2 (en) * 2002-03-06 2008-04-16 三菱電機株式会社 Face area extraction device
JP4283266B2 (en) * 2004-11-30 2009-06-24 本田技研工業株式会社 Vehicle periphery monitoring device
JP4739870B2 (en) * 2005-09-05 2011-08-03 アイシン精機株式会社 Sunglasses detection device and face center position detection device
JP4767718B2 (en) * 2006-02-24 2011-09-07 富士フイルム株式会社 Image processing method, apparatus, and program

Also Published As

Publication number Publication date
JP2011138265A (en) 2011-07-14

Similar Documents

Publication Publication Date Title
JP4203512B2 (en) Vehicle periphery monitoring device
JP4631096B2 (en) Vehicle periphery monitoring device
JP4733756B2 (en) Vehicle periphery monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4410292B1 (en) Vehicle periphery monitoring device
JP5706874B2 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP4173902B2 (en) Vehicle periphery monitoring device
JP2010146494A (en) Vehicle surroundings monitoring device
JP5480917B2 (en) Vehicle periphery monitoring device
JP2003134508A (en) Information providing device for vehicle
JP4528283B2 (en) Vehicle periphery monitoring device
JP2003216937A (en) Night vision system
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP4864953B2 (en) Vehicle periphery monitoring device
JP5004923B2 (en) Vehicle driving support device
JP5399887B2 (en) Vehicle periphery monitoring device
JP5502149B2 (en) Vehicle periphery monitoring device
JP6087240B2 (en) Vehicle periphery monitoring device
JP4943403B2 (en) Vehicle periphery monitoring device
JP4567072B2 (en) Vehicle periphery monitoring device
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
JP4975776B2 (en) Vehicle periphery monitoring device
JP4358183B2 (en) Vehicle periphery monitoring device
JP4871941B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131024

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees