JP2007257133A - Object detection system - Google Patents

Object detection system Download PDF

Info

Publication number
JP2007257133A
JP2007257133A JP2006078488A JP2006078488A JP2007257133A JP 2007257133 A JP2007257133 A JP 2007257133A JP 2006078488 A JP2006078488 A JP 2006078488A JP 2006078488 A JP2006078488 A JP 2006078488A JP 2007257133 A JP2007257133 A JP 2007257133A
Authority
JP
Japan
Prior art keywords
region
vehicle
image
temperature
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006078488A
Other languages
Japanese (ja)
Inventor
Yohei Aragaki
洋平 新垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006078488A priority Critical patent/JP2007257133A/en
Publication of JP2007257133A publication Critical patent/JP2007257133A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection system for accurately discriminating a pedestrian from a vehicle even when an environmental temperature rises and reaches a temperature which is equivalent to the temperature of a pedestrian. <P>SOLUTION: This object detection system is provided with: a far infrared camera 11 for acquiring a thermal image 50 in the periphery of an own vehicle; a featured point extraction part 31 for extracting a featured point 6 on the basis of luminance change with peripheral pixels 61 from the thermal image; a featured point temperature detection part 32 for detecting the temperature of a portion corresponding to the featured point 6 from the thermal image; an image dividing part 33 for dividing the thermal image into predetermined regions; an object region extraction part 35 for extracting a region where the featured point having the detected predetermined temperature is highly likely to appear in each of the divided image regions as an object candidate region; a directional edge extraction part 36 for extracting a horizontal edge 9 from the thermal image; and a vehicle discrimination part 37 for discriminating a vehicle on the basis of the interconnection of the horizontal edge and the object candidate region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、歩行者や前方を走行する車両などの物体を検出する物体検出システムに関するものである。   The present invention relates to an object detection system that detects an object such as a pedestrian or a vehicle traveling forward.

従来、カメラで写された画像の中の歩行者と車両とを判別する技術として特許文献1などが知られている。   Conventionally, Patent Literature 1 is known as a technique for discriminating between a pedestrian and a vehicle in an image captured by a camera.

この特許文献1では、まず遠赤外線カメラから得られた熱画像の中から、二値化によって所定の温度以上の領域を抽出することで歩行者の候補領域を抽出する。   In Patent Document 1, first, a candidate area for a pedestrian is extracted by extracting an area having a predetermined temperature or higher by binarization from a thermal image obtained from a far-infrared camera.

次に抽出された歩行者の候補領域として検出された熱源の上部を探索し、ある一定の領域内に車両の一部と思われる水平エッジが検出された場合、その熱源は車両の構成部位の一部であるとして歩行者と車両との区別をつける。
特開2004−348645号公報
Next, when the upper part of the heat source detected as the extracted candidate area of the pedestrian is searched and a horizontal edge that seems to be a part of the vehicle is detected in a certain area, the heat source is a component of the vehicle. Differentiate between pedestrians and vehicles as part of it.
JP 2004-348645 A

しかしながら、特許文献1の方法では、二値化によって遠赤外線画像からある一定温度以上の領域を切り出した際に、歩行者や車両の候補領域が切り出されていなければならなかった。   However, in the method of Patent Document 1, when a region having a certain temperature or higher is cut out from a far-infrared image by binarization, a candidate region for a pedestrian or a vehicle has to be cut out.

これに対し、環境温度が上昇する夏季などにおいては、歩行者と環境温度が同等となるような場合があるため、二値化をおこなう際の閾値の決定が難しく歩行者領域の切り出しが困難となる場合があった。   In contrast, in summer when the ambient temperature rises, the ambient temperature may be equivalent to that of the pedestrian, so it is difficult to determine the threshold for binarization and it is difficult to cut out the pedestrian area. There was a case.

そこで、本発明は、環境温度が上昇して歩行者と同等の温度になるような場合でも歩行者と車両の判別が正確におこなえる物体検出システムを提供することを目的としている。   Therefore, an object of the present invention is to provide an object detection system capable of accurately distinguishing between a pedestrian and a vehicle even when the environmental temperature rises to a temperature equivalent to that of a pedestrian.

前記目的を達成するために、本発明は、自車両周辺の熱画像を取得する熱画像取得手段と、前記熱画像取得手段又は少なくともエッジ検出が可能な画像を取得する画像取得手段により得られた画像から、周辺画素との輝度変化に基づいて特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段により抽出された特徴点に対応する部位の温度を前記熱画像から検出する特徴点温度検出手段と、前記熱画像を所定の領域に分割する画像分割手段と、前記画像分割手段により分割されたそれぞれの画像領域において前記特徴点温度検出手段により検出された所定の温度を持つ特徴点が出現する頻度が高い領域を物体候補領域であるとして抽出する物体領域抽出手段と、前記熱画像又は前記画像取得手段により取得された画像から所定の方向を持つ方向エッジを抽出する方向エッジ抽出手段と、前記方向エッジと前記物体候補領域との連結関係に基づき前記熱画像のなかの車両を判別する車両判別手段とを有する物体検出システムであることを特徴とする。   In order to achieve the above object, the present invention is obtained by a thermal image acquisition unit that acquires a thermal image around a host vehicle and an image acquisition unit that acquires the thermal image acquisition unit or at least an image capable of edge detection. Feature point extraction means for extracting a feature point from an image based on a luminance change with surrounding pixels, and a feature point temperature for detecting a temperature of a part corresponding to the feature point extracted by the feature point extraction means from the thermal image A feature point having a predetermined temperature detected by the feature point temperature detection unit in each of the image regions divided by the detection unit, an image division unit that divides the thermal image into predetermined regions, and the image division unit. An object region extraction unit that extracts a region that appears frequently as an object candidate region, and has a predetermined direction from the thermal image or the image acquired by the image acquisition unit An object detection system comprising: direction edge extraction means for extracting a direction edge; and vehicle determination means for determining a vehicle in the thermal image based on a connection relationship between the direction edge and the object candidate region. To do.

このように構成された本発明の物体検出システムは、画像の局所的な変化を捉えて抽出された物体候補領域および方向エッジを利用しているため、環境温度が歩行者と同等になる夏季等においても、歩行者と前方を走行する車両とを的確に判別することができる。   The object detection system of the present invention configured as described above uses object candidate regions and direction edges that are extracted by capturing local changes in the image, so that the environmental temperature is equivalent to that of pedestrians in summer, etc. In this case, the pedestrian and the vehicle traveling ahead can be accurately determined.

以下、本発明の最良の実施の形態について図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本実施の形態による物体検出システム10の概略構成を示したブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of an object detection system 10 according to the present embodiment.

まず、構成から説明すると、このような本実施の形態の物体検出システム10は、自車周辺の熱画像などの画像を取得する画像取得部1と、取得した画像データや演算結果のデータなどを記憶させる記憶部2と、物体を検出するための演算をおこなう演算部3とから主に構成されている。   First, in terms of configuration, the object detection system 10 according to the present embodiment includes an image acquisition unit 1 that acquires an image such as a thermal image around the own vehicle, acquired image data, calculation result data, and the like. It is mainly composed of a storage unit 2 that stores data and a calculation unit 3 that performs calculations for detecting an object.

この画像取得部1には、熱画像を取得する熱画像取得手段としての遠赤外線カメラ11(IRカメラ)が少なくとも備えられている。ここで、本実施の形態の熱画像とは、遠赤外線カメラ11で撮像された遠赤外線画像のことをいう。また、遠赤外線カメラ11が対象とする遠赤外線の波長帯域は8〜14μmを主な帯域としている。   The image acquisition unit 1 includes at least a far-infrared camera 11 (IR camera) as thermal image acquisition means for acquiring a thermal image. Here, the thermal image of the present embodiment refers to a far infrared image captured by the far infrared camera 11. The far-infrared wavelength band targeted by the far-infrared camera 11 is 8 to 14 μm.

この画像取得部1は、図2に示すように自車両4の前方のフロントグリル部などに設置され、自車両4の前方空間を主に撮像する。   As shown in FIG. 2, the image acquisition unit 1 is installed in a front grill portion or the like in front of the host vehicle 4, and mainly images the front space of the host vehicle 4.

また、遠赤外線カメラ11によって撮像して取得した熱画像50(図5参照)は、デジタル化されて記憶部2の画像メモリ21に記憶される。この画像メモリ21は、RAM(Random access memory)等の記憶装置によって構成されている。   Further, the thermal image 50 (see FIG. 5) obtained by capturing with the far-infrared camera 11 is digitized and stored in the image memory 21 of the storage unit 2. The image memory 21 is configured by a storage device such as a RAM (Random access memory).

この熱画像50は、撮像された被写体の温度に応じて画素の輝度又は色を変化させて出力されているので、各画素の輝度値や色の種類を検出することでその画素の温度を算出することができる。   Since this thermal image 50 is output by changing the luminance or color of the pixel according to the temperature of the imaged subject, the temperature of the pixel is calculated by detecting the luminance value and color type of each pixel. can do.

また、記憶部2には、演算部3でおこなった演算の結果などを一時的に記憶させるRAMなどの記憶装置がメモリ部22として備えられている。   In addition, the storage unit 2 includes a storage device such as a RAM that temporarily stores the results of calculations performed by the calculation unit 3 as a memory unit 22.

一方、演算部3には、ROM(Read only memory)等の記憶装置に記憶された各種プログラムを実行させる内部CPU(Central Processing Unit:中央演算処理装置)が備えられており、以下に説明する特徴点抽出手段、特徴点温度検出手段、画像分割手段、分割領域点数化手段、物体領域抽出手段、方向エッジ抽出手段、車両判別手段としての処理をおこなう。   On the other hand, the calculation unit 3 is provided with an internal CPU (Central Processing Unit) that executes various programs stored in a storage device such as a ROM (Read Only Memory). Processing is performed as point extraction means, feature point temperature detection means, image division means, division area score conversion means, object area extraction means, direction edge extraction means, and vehicle discrimination means.

この特徴点抽出手段としての特徴点抽出部31では、画像メモリ21に記憶された図5に示すような熱画像50から、周辺画素との輝度変化に基づいて図6に示すように特徴点6,・・・を抽出する。すなわち、図7(a),(b)に示すように周辺画素61,・・・との輝度差が所定値以上の画素61を特徴点6A,6Bとして抽出する。   In the feature point extracting unit 31 as the feature point extracting means, as shown in FIG. 6, the feature point 6 is extracted from the thermal image 50 as shown in FIG. 5 stored in the image memory 21 based on the luminance change with the surrounding pixels. , ... are extracted. That is, as shown in FIGS. 7A and 7B, the pixels 61 whose luminance difference with the surrounding pixels 61,... Is not less than a predetermined value are extracted as feature points 6A and 6B.

さらに詳述すると、この特徴点抽出部31では、画像処理法として一般的にコーナーディテクタと呼ばれる方法を用いて特徴点6の抽出を行う。例えば、Jianbo Shi、 Carlo Tomasi、(“Good Features to Track”、 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94) pp.593-600)等にトラッキングを行なうのに適している画素を抽出する方法が開示されている。   More specifically, the feature point extraction unit 31 extracts feature points 6 by using a method generally called a corner detector as an image processing method. For example, Jianbo Shi, Carlo Tomasi, (“Good Features to Track”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94) pp.593-600), etc., a method for extracting pixels suitable for tracking Is disclosed.

この方法では、撮像された被写体の輪郭の角となる部分の画素61が特徴点6として抽出される。また、特徴点6は、熱画像50内の温度分布が一様となるような空間を撮像した画像中ではあまり抽出されず、温度分布の変化が大きくなるような空間を撮像した画像中では多く抽出される。   In this method, the pixel 61 at the corner that is the corner of the contour of the imaged subject is extracted as the feature point 6. In addition, the feature point 6 is not extracted so much in an image obtained by imaging a space in which the temperature distribution in the thermal image 50 is uniform, and is large in an image obtained by imaging a space in which the temperature distribution changes greatly. Extracted.

さらに、撮像方向に直交する面が平坦ではないために表面構成が一様とならない被写体も、被写体から放射される遠赤外線の放射方向が撮像面に対して一様にならないので、熱画像50上での輝度値変化が大きくなり特徴点6が抽出されやすくなる。   Further, a subject whose surface configuration is not uniform because the surface orthogonal to the imaging direction is not flat, the radiation direction of far infrared rays emitted from the subject is not uniform with respect to the imaging surface. In this case, the change in the luminance value becomes large and the feature point 6 is easily extracted.

また、特徴点温度検出手段としての特徴点温度検出部32では、特徴点抽出部31により抽出された特徴点6に対応する画素61の温度を熱画像50から検出する。   The feature point temperature detection unit 32 as feature point temperature detection means detects the temperature of the pixel 61 corresponding to the feature point 6 extracted by the feature point extraction unit 31 from the thermal image 50.

すなわち、熱画像50は温度に応じて画像の輝度、もしくは色を変化させて出力しているため、抽出された特徴点6の輝度や色を検出することで、それぞれの特徴点6の温度を算出することができる。   That is, since the thermal image 50 is output by changing the brightness or color of the image according to the temperature, the brightness and color of the extracted feature points 6 are detected, so that the temperature of each feature point 6 is determined. Can be calculated.

また、画像分割手段としての画像分割部33では、遠赤外線カメラ11により取得された熱画像50に対して、図8に示すように格子状に分割して正方形のメッシュ状領域71,・・・を形成したり、図9に示すように縦方向の帯状に分割して短冊状領域81,・・・を形成したりする。   Further, in the image dividing unit 33 as an image dividing unit, the thermal image 50 acquired by the far-infrared camera 11 is divided into a lattice shape as shown in FIG. Are formed, or strip-like regions 81,... Are formed by being divided into vertical strips as shown in FIG.

そして、分割領域点数化手段としての分割領域点数化部34では、特徴点温度検出部32で検出した特徴点6の温度に基づいて特徴点6を選別し、画像分割部33で分割されたメッシュ状領域71,・・・又は短冊状領域81,・・・毎に選別された特徴点6の頻度を算出して各領域の点数化をおこなう。   Then, in the divided region point scoring unit 34 as the divided region point scoring means, the feature point 6 is selected based on the temperature of the feature point 6 detected by the feature point temperature detecting unit 32, and the mesh divided by the image dividing unit 33. .. Or the strip-shaped regions 81..., The frequency of the feature points 6 selected for each region is calculated to score each region.

例えば、特徴点6の中から歩行者52よりも高温度である40℃以上の特徴点6のみを点数化の対象として選別したり、歩行者52程度の温度である中温度の特徴点6のみを点数化の対象として選別したりすることができる。   For example, only the feature points 6 having a temperature higher than that of the pedestrian 52, which is 40 ° C. or higher, are selected from the feature points 6 as points to be scored, or only the feature points 6 having a medium temperature that is about the pedestrian 52. Can be selected for scoring.

また、物体領域抽出手段としての物体領域抽出部35では、分割領域点数化部34で点数化された各領域のうち、所定の点数より高い領域を物体候補領域であるとして抽出する。   In addition, the object area extracting unit 35 as the object area extracting unit extracts an area higher than a predetermined score among the areas scored by the divided area scoring unit 34 as an object candidate area.

例えば、高温度の特徴点6のみを点数化して高い点数が出た領域を物体候補領域としての高温度領域7とし、中温度の特徴点6のみを点数化して高い点数が出た領域を物体候補領域としての中温度領域8とする。   For example, a region where a high score is obtained by scoring only the high-temperature feature point 6 is set as a high-temperature region 7 as an object candidate region, and a region where a high score is obtained by scoring only the feature point 6 at medium temperature The intermediate temperature region 8 is set as a candidate region.

一方、方向エッジ抽出手段としての方向エッジ抽出部36では、熱画像50から所定方向を持つエッジを方向エッジとして抽出する。例えば熱画像50に対して所定の微分フィルタによるフィルタリングをおこない、その結果を二値化処理して横方向や縦方向などの一方向に同一の値が連続する方向エッジを抽出する。   On the other hand, the direction edge extracting unit 36 serving as a direction edge extracting unit extracts an edge having a predetermined direction from the thermal image 50 as a direction edge. For example, the thermal image 50 is filtered by a predetermined differential filter, and the result is binarized to extract direction edges in which the same value continues in one direction such as the horizontal direction or the vertical direction.

図10は、熱画像50から方向エッジとして水平方向に延出される横エッジ9を抽出して表示させた図である。   FIG. 10 is a diagram in which the horizontal edge 9 extending in the horizontal direction as the direction edge is extracted from the thermal image 50 and displayed.

さらに、車両判別手段としての車両判別部37では、方向エッジ抽出部36により抽出された方向エッジと、物体領域抽出部35により抽出された物体候補領域との連結関係に基づき、熱画像50のなかの車両を判別する。この車両の判別方法については後で詳細に説明する。   Further, in the vehicle determination unit 37 as a vehicle determination unit, the thermal image 50 is determined based on the connection relationship between the direction edge extracted by the direction edge extraction unit 36 and the object candidate region extracted by the object region extraction unit 35. The vehicle is determined. This vehicle discrimination method will be described in detail later.

次に、本実施の形態の物体検出システム10の処理の流れについて、図3のフローチャートを参照しながら説明する。   Next, the process flow of the object detection system 10 of the present embodiment will be described with reference to the flowchart of FIG.

まず、ステップS1で自車両4に搭載された遠赤外線カメラ11によって自車両4周辺の前方空間を撮像し、図5に示すような熱画像50を取得する。この熱画像50は、例えばグレースケール画像として取得され、この図には自車両4前方の他車両51や歩道を歩く歩行者52,52や街灯53,・・・などが撮像されている。   First, in step S1, the far-infrared camera 11 mounted on the host vehicle 4 captures the front space around the host vehicle 4 and acquires a thermal image 50 as shown in FIG. This thermal image 50 is acquired as, for example, a gray scale image. In this figure, other vehicles 51 in front of the host vehicle 4, pedestrians 52, 52 walking on the sidewalk, street lamps 53,.

このようにグレースケール画像で撮像された熱画像50の画素61,・・・は、図7の部分拡大図に示されるように多段階の輝度値で表示されており、ステップS2では特徴点抽出部31によって周辺画素との輝度差が所定値以上の画素61,・・・を図6に示すように特徴点6,・・・として抽出する。   Thus, the pixels 61,... Of the thermal image 50 captured as a gray scale image are displayed with multi-level luminance values as shown in the partial enlarged view of FIG. 7, and feature point extraction is performed in step S2. 6 extracts pixels 61,... Whose luminance difference from the surrounding pixels is a predetermined value or more as feature points 6,.

このステップS2で抽出された特徴点6,・・・に対しては、特徴点温度検出部32によって熱画像50に基づいて温度を検出する(ステップS3)。   For the feature points 6,... Extracted in step S2, the feature point temperature detection unit 32 detects the temperature based on the thermal image 50 (step S3).

さらに、ステップS4では、画像分割部33によって熱画像50を図8に示すように格子状に分割してメッシュ状領域71,・・・を形成する。また、同じ熱画像50に対して図9に示すような縦方向の帯状に分割した短冊状領域81,・・・も形成する。   Furthermore, in step S4, the thermal image 50 is divided into a grid pattern as shown in FIG. Further, strip-like regions 81,... Divided into vertical bands as shown in FIG.

また、ステップS5では、ステップS4で分割したメッシュ状領域71,・・・に対して物体領域抽出部35によって点数化をおこない、得点が高かった領域を物体が存在する可能性が高い物体候補領域として抽出する。   In step S5, the object region extraction unit 35 performs scoring on the mesh-like regions 71,... Divided in step S4, and the object candidate region where the object is highly likely to exist in the region where the score is high. Extract as

この点数化は、図8に示したメッシュ状領域71,・・・に対しては、歩行者よりも明らかに高温度である40度以上の特徴点6,・・・のみを対象としておこなう。   This scoring is performed only for the feature points 6... Of 40 degrees or more, which is clearly higher in temperature than the pedestrian, for the mesh-like regions 71.

例えば、自車両4の前方を走行する他車両51のマフラー部は、走行中は高温度になっているために高温度領域7A,7Bとして抽出され、夜間であれば街灯も高温度領域7Cとして抽出される。   For example, the muffler portion of the other vehicle 51 traveling in front of the host vehicle 4 is extracted as the high temperature regions 7A and 7B because it is at a high temperature during traveling, and the street lamp is also used as the high temperature region 7C at night. Extracted.

また、図9に示した短冊状領域81,・・・に対しては、歩行者52相当温度である中温度を持った特徴点6,・・・を対象として点数化をおこなう。   Further, the strip-shaped regions 81,... Shown in FIG. 9 are scored for feature points 6,.

例えば、自車両4の周辺を歩いている歩行者52,52は中温度領域8C,8Dとして抽出され、他車両51のタイヤ部も中温度領域8A,8Bとして抽出される。   For example, pedestrians 52 and 52 walking around the host vehicle 4 are extracted as intermediate temperature regions 8C and 8D, and tire portions of other vehicles 51 are also extracted as intermediate temperature regions 8A and 8B.

ここで、図9に示した中温度領域8A〜8Dは、短冊状領域81全体ではなく、帯状のなかから点数が高い部分を部分的に抽出したものである。   Here, the intermediate temperature regions 8A to 8D shown in FIG. 9 are obtained by partially extracting a portion having a high score from the strip shape, not the entire strip-shaped region 81.

一方、ステップS6においては、方向エッジ抽出部36によって図10に示すような横エッジ9,・・・を抽出する。   On the other hand, in step S6, the horizontal edge 9,... As shown in FIG.

すなわち、前方の物体が他車両51であれば、バンパー部、トランクリッド部、ルーフ部などの多くの横エッジ9A〜9Cを抽出することができる。また、他車両51から抽出される横エッジ9A〜9Cは、後述する各領域の連結性を判別する指標として適している。   That is, if the object ahead is the other vehicle 51, many horizontal edges 9A-9C, such as a bumper part, a trunk lid part, and a roof part, can be extracted. Further, the horizontal edges 9A to 9C extracted from the other vehicle 51 are suitable as an index for determining connectivity of each region described later.

なお、車両から安定的に抽出される方向エッジとしては、縦エッジも挙げられるため、横エッジ9と共に縦方向の縦エッジ(図示せず)をあわせて抽出して車両判別をおこなうこともできる。   Note that the direction edge stably extracted from the vehicle includes a vertical edge, and therefore, the vertical edge (not shown) in the vertical direction can be extracted together with the horizontal edge 9 to perform vehicle discrimination.

そして、ステップS7では、車両判別部37によって熱画像50のなかから他車両51を車両領域510として判別させる。   In step S <b> 7, the vehicle determination unit 37 determines the other vehicle 51 as the vehicle region 510 from the thermal image 50.

すなわち、ステップS5で抽出された高温度領域7A〜7C(図8)と中温度領域8A〜8D(図9)の抽出結果と、ステップS6で抽出された横エッジ9A〜9C(図10)の抽出結果とを重ね合わせ、それらの間の距離などに基づいて一台の車両に関連する領域として認識される、高温度領域7A,7B、中温度領域8A,8B及び横エッジ9A〜9Cの複数領域を包含する領域を図11に示すように車両領域510として判別する。   That is, the extraction results of the high temperature regions 7A to 7C (FIG. 8) and the intermediate temperature regions 8A to 8D (FIG. 9) extracted in step S5, and the horizontal edges 9A to 9C (FIG. 10) extracted in step S6. A plurality of high temperature regions 7A and 7B, medium temperature regions 8A and 8B, and horizontal edges 9A to 9C that are recognized as regions related to one vehicle based on the overlap between the extracted results and the distance between them. An area including the area is determined as a vehicle area 510 as shown in FIG.

この車両領域510に包含される高温度領域7A,7Bは他車両51のマフラー部である可能性が高く、中温度領域8A,8Bは温まったタイヤ部である可能性が高く、横エッジ9A〜9Cはルーフ部、トランクリッド部、バンパー部である可能性が高いとして車両領域510に包含させる。   The high temperature regions 7A and 7B included in the vehicle region 510 are highly likely to be muffler portions of the other vehicle 51, and the intermediate temperature regions 8A and 8B are highly likely to be warm tire portions, and the side edges 9A to 9C is included in the vehicle region 510 because there is a high possibility that it is a roof portion, a trunk lid portion, and a bumper portion.

ここまでは、ある時点で撮像された一枚の熱画像50に対する処理について説明してきたが、本実施の形態の物体検出システム10では時系列で連続して熱画像50,・・・が処理されているので、前の時刻の熱画像50(フレーム)において車両領域510などが判別されていた場合の処理の流れについて図4のフローチャートに沿って説明する。   Up to this point, the processing for one thermal image 50 captured at a certain time point has been described. However, in the object detection system 10 according to the present embodiment, the thermal images 50,. Therefore, the flow of processing when the vehicle region 510 or the like is determined in the thermal image 50 (frame) at the previous time will be described with reference to the flowchart of FIG.

まずステップS11では、直前のフレームにて歩行者52などの車両以外の車両外領域が抽出されたか、又はさらにそれ以前のフレームで抽出された車両外領域をトラッキングしているかどうかを判断する。   First, in step S11, it is determined whether an area outside the vehicle other than the vehicle such as the pedestrian 52 is extracted in the immediately preceding frame, or whether the area outside the vehicle extracted in the previous frame is being tracked.

そして、車両外領域が抽出又はトラッキングされていればそのまま車両外領域としてトラッキングを継続させ(ステップS12)、車両外領域として判別されていない領域に対して車両領域510か否かの判別をおこなうためにステップS13に移行する。   If the vehicle outside region is extracted or tracked, tracking is continued as the vehicle outside region as it is (step S12), and it is determined whether or not the vehicle region 510 is a region that is not determined as the vehicle outside region. The process proceeds to step S13.

このステップS13では、ステップS7と同様に抽出された高温度領域7、中温度領域8及び横エッジ9に基づいて車両領域510か否かの判別をおこなう。   In step S13, it is determined whether or not the vehicle region 510 is based on the high temperature region 7, the intermediate temperature region 8, and the lateral edge 9 extracted in the same manner as in step S7.

また、車両領域510としてグループ化された高温度領域7や中温度領域8について、それぞれの画像中での位置を記憶しておき、時系列でトラッキングを行う。さらに、直前のフレームで車両領域510が抽出されていた領域は、直前フレームからのトラッキング情報として記憶しておく。   Further, the positions in the respective images of the high temperature region 7 and the medium temperature region 8 grouped as the vehicle region 510 are stored, and tracking is performed in time series. Further, the area where the vehicle area 510 has been extracted in the immediately preceding frame is stored as tracking information from the immediately preceding frame.

また、トラッキング情報に面積情報を加えることにより、例えば領域面積が2倍や半分になるなどの各領域の面積が急激に増減した場合に、近接領域との統合や分離が起きたとして、直前フレームからのトラッキングの連続性を失わせるように判断することもできる。   Also, by adding area information to the tracking information, for example, when the area of each area suddenly increases or decreases, such as when the area of the area is doubled or halved, the previous frame It can also be determined to lose the continuity of tracking from.

そして、ステップS14では、トラッキングされたそれぞれの領域の車両領域510内に位置する横エッジ9及び物体候補領域(高温度領域7、中温領域8)の位置関係を判定する。   In step S14, the positional relationship between the lateral edge 9 and the object candidate regions (the high temperature region 7 and the intermediate temperature region 8) located in the vehicle region 510 of each tracked region is determined.

例えば、図12に示すような車両領域510Aが判別されているときに、マフラー部などを抽出した高温度領域7Dとタイヤ部などを抽出した中温度領域8E,8Fとの間の距離D1を指標にして判定をおこなう。   For example, when the vehicle area 510A as shown in FIG. 12 is determined, the distance D1 between the high temperature area 7D from which the muffler part and the like are extracted and the intermediate temperature areas 8E and 8F from which the tire parts and the like are extracted is used as an index. Make a decision.

この距離D1と車両領域510A全体の幅D2は、時系列での自車両4と他車両51との距離によって変動する。すなわち、この距離D1,D2が前述した通り他車両51の構成部位として抽出されているのであれば、この変動比率は距離D1,D2共におおむね同じ傾向を示す。   The distance D1 and the width D2 of the entire vehicle area 510A vary depending on the distance between the host vehicle 4 and the other vehicle 51 in time series. In other words, if the distances D1 and D2 are extracted as the constituent parts of the other vehicle 51 as described above, the fluctuation ratios show the same tendency for both the distances D1 and D2.

そこでステップS15において、フレームあたりの変動比率の差異が例えば5%以上(処理速度が10fps(frame per second))となった場合には、ステップS16にて、中温度領域8Eは歩行者などの車両外領域であるとして領域分割手段によって車両領域510Aから排除する。この際、図12に示した車両領域510Aの位置、サイズは、変更しないでそのまま保持する。   Therefore, in step S15, when the difference in the variation ratio per frame is, for example, 5% or more (processing speed is 10 fps (frame per second)), the intermediate temperature region 8E is a vehicle such as a pedestrian in step S16. The area is excluded from the vehicle area 510A by the area dividing means as an outside area. At this time, the position and size of the vehicle area 510A shown in FIG. 12 are maintained without being changed.

また、これ以外にも、高温度領域7Dと中温度領域8Eの位置が車両領域510A内で相対的に5%以上変動した場合にも、領域分離手段によって中温度領域8Eを分離するようにしてもよい。   In addition to this, even when the positions of the high temperature region 7D and the intermediate temperature region 8E fluctuate by 5% or more in the vehicle region 510A, the intermediate temperature region 8E is separated by the region separation means. Also good.

さらに、単純な判別方法として、高温度領域7Dと中温度領域8Eが物理的に交錯した段階で中温度領域8Eを別領域として分離するようにしてもよい。   Furthermore, as a simple discrimination method, the intermediate temperature region 8E may be separated as another region when the high temperature region 7D and the intermediate temperature region 8E are physically crossed.

そして、ステップS17では、このようにして分離された中温度領域8Eを車両外領域としてトラッキングの対象とし、以後時系列で追跡するようにする。   In step S17, the intermediate temperature region 8E thus separated is set as a tracking target as a region outside the vehicle, and is subsequently tracked in time series.

一方、図13に示すようにあらかじめ歩行者領域520として抽出されている領域があり、それと同時に車両領域510が別途抽出されているようなケースについて説明する。なお、この図13は、3つのフレームの概略を時系列に並べて示したものである。   On the other hand, a case will be described in which there is a region that is extracted in advance as a pedestrian region 520 and a vehicle region 510 is separately extracted at the same time as shown in FIG. FIG. 13 shows the outline of the three frames arranged in time series.

このような場合にも、時系列でそれぞれの領域をトラッキングし、ある時刻で歩行者領域520と車両領域510の2つの領域が交錯した場合には別領域として判別することができる。   Even in such a case, each area is tracked in time series, and when two areas of the pedestrian area 520 and the vehicle area 510 intersect at a certain time, it can be determined as a different area.

また、本実施の形態におけるトラッキングの際、時系列で連続的に判別された領域は、安定的、かつ確実に存在する物体領域である可能性が高い。   In addition, in the tracking in the present embodiment, it is highly likely that an area that is continuously determined in time series is an object area that exists stably and reliably.

このため、トラッキングをする際には、それぞれの領域に点数化された確信度を付与し、長時間(多フレーム)に亘って同一と思われる領域が抽出されるほど、その確信度の点数が増加していくようにすれば、なんらかの理由によってある時刻のフレームにおいてだけ領域が抽出されなかった場合でも、トラッキング対象を見失うことなく、安定的に抽出し続けることが可能となる。   For this reason, when tracking is performed, a certainty factor is given to each region, and as the region that seems to be the same over a long time (multiple frames) is extracted, the certainty factor score increases. By increasing the number, even if a region is not extracted only in a frame at a certain time for some reason, it is possible to continue to extract stably without losing sight of the tracking target.

このように本実施の形態の物体検出システム10は、画像の局所的な変化を捉える特徴点6及び横エッジ9を利用しているため、環境温度が歩行者52と同等になる夏季等においても、歩行者52と前方を走行する他車両51とを的確に判別することができる。   As described above, the object detection system 10 according to the present embodiment uses the feature points 6 and the lateral edges 9 that capture local changes in the image. Therefore, even in summer when the environmental temperature is equivalent to that of the pedestrian 52. The pedestrian 52 and the other vehicle 51 traveling ahead can be accurately discriminated.

また、抽出された特徴点6の温度を検出し、高温度の特徴点6であれば歩行者52以外の物体であると容易に判別することが可能となる。   Further, the temperature of the extracted feature point 6 is detected, and if the feature point 6 has a high temperature, it can be easily determined that the object is other than the pedestrian 52.

さらに、自車両4の前方を走行する他車両51のマフラー部等の高温度の物体候補領域と、歩行者52と同程度の温度を持つマフラー部に隣接する領域やタイヤ部などの物体候補領域をグループ化することで、容易に他車両51と歩行者52とを区別することが可能となる。   Furthermore, a high temperature object candidate region such as a muffler portion of another vehicle 51 traveling in front of the host vehicle 4 and a region adjacent to the muffler portion having a temperature similar to that of the pedestrian 52 or an object candidate region such as a tire portion. It becomes possible to distinguish the other vehicle 51 and the pedestrian 52 easily by grouping.

また、取得した熱画像50を格子状のメッシュ状領域71,・・・に分割する方法であれば、単純な領域分割とすることができて物体の出現可能性が高い領域の算出に要する計算コストを低減させることができる。また、これによってシステムコストの低減を図ることが可能となる。   In addition, if the method is to divide the acquired thermal image 50 into grid-like mesh areas 71,..., Calculation required for calculating an area that can be simply divided into areas and that has a high possibility of appearance of an object. Cost can be reduced. This also makes it possible to reduce the system cost.

さらに、縦方向の短冊状領域81,・・・を利用することで、他車両51の一部であるタイヤ部やテールランプ部の領域を容易に抽出することが可能となり、自車両4周辺の他車両51の検出性能を向上させることが可能となる。   Further, by using the strip-shaped regions 81 in the vertical direction, it is possible to easily extract regions of the tire portion and the tail lamp portion that are part of the other vehicle 51, and other areas around the host vehicle 4. The detection performance of the vehicle 51 can be improved.

また、特徴点6,・・・の温度を分けて領域の点数化をすることで、中温度で撮像されることが多いタイヤ部やテールランプ部の抽出と、高温度で撮像されることが多いマフラー部とを別々に抽出することが可能となり、他車両51を構成部位に分けて抽出することが可能となる。   Also, by dividing the temperature of the feature points 6,... And scoring the areas, extraction of the tire part and tail lamp part that are often imaged at medium temperatures and imaging at high temperatures are often performed. The muffler part can be extracted separately, and the other vehicle 51 can be extracted by being divided into constituent parts.

これにより、車両を判別する際にマフラー部とタイヤ部といった構成部位を利用した簡易な車両モデルを利用することが可能となり、演算コストの低減を図ることができる。   This makes it possible to use a simple vehicle model that uses components such as a muffler part and a tire part when discriminating the vehicle, thereby reducing the calculation cost.

さらに、特徴点6,・・・を高温度の特徴点6と中温度の特徴点6と区別する際に、それぞれの分割領域をメッシュ状領域71と短冊状領域81として別々の形状とすることで、他車両51の両側に存在するタイヤ部を物体候補領域として検出する性能を向上させ、同時に、他車両51のマフラー部の検出性能を向上させることが可能となるので、他車両51の検出性能の向上を図ることができる。   Further, when distinguishing the feature points 6... From the high temperature feature point 6 and the medium temperature feature point 6, the respective divided regions are formed into separate shapes as a mesh region 71 and a strip region 81. Thus, it is possible to improve the performance of detecting the tire portions existing on both sides of the other vehicle 51 as the object candidate region, and at the same time, the detection performance of the muffler portion of the other vehicle 51 can be improved. The performance can be improved.

また、方向エッジとして横エッジ9を利用するということは、他車両51を撮像した熱画像50に多く含まれ、かつ、抽出しやすい特徴量を認識処理に使うということである。そして、このような横エッジ9は、車両領域510全体を横切るように抽出されることが多い。   The use of the horizontal edge 9 as the direction edge means that a feature amount that is included in the thermal image 50 obtained by imaging the other vehicle 51 and that is easy to extract is used for the recognition process. Such a horizontal edge 9 is often extracted so as to cross the entire vehicle region 510.

このため同一車両に属する領域であれば、特徴点6により抽出された複数の物体候補領域を貫通、もしくは接するように横エッジ9が検出されるため、各領域の連結関係を判定することで車両領域510の抽出を容易に行うことが可能となり、計算コストの低減を図ることができる。   For this reason, if the region belongs to the same vehicle, the horizontal edge 9 is detected so as to penetrate or touch the plurality of object candidate regions extracted by the feature point 6, so that the vehicle can be determined by determining the connection relationship between the regions. The region 510 can be easily extracted, and the calculation cost can be reduced.

また、点数化された各物体候補領域(高温度領域7、中温度領域8)を時系列でトラッキングすることで、なんらかの理由によってある時刻のフレーム(熱画像50)で点数が急激に低下した場合でも抽出された領域を見失うことなく、安定した検出が可能となる。   In addition, when the scored object candidate regions (high temperature region 7 and intermediate temperature region 8) are tracked in time series, the score rapidly decreases in a certain time frame (thermal image 50) for some reason. However, stable detection is possible without losing sight of the extracted area.

さらに、一台の他車両51として検出されてグループ化された車両領域510の内部に存在する高温度領域7や中温度領域8などの複数の領域を時系列でトラッキングすることで、本来、他車両51ではない別の物体が車両領域510に包含されてしまったような場合でも、車両領域510内部での各領域の位置関係に変化が現れた場合に、領域分割手段によってその領域をすぐに分離することが可能となる。このため、車両以外の物体を車両と区別して正確に検出することができる。   Furthermore, by tracking a plurality of regions such as the high temperature region 7 and the intermediate temperature region 8 existing inside the vehicle region 510 detected and grouped as one other vehicle 51 in time series, Even when another object that is not the vehicle 51 is included in the vehicle area 510, if the positional relationship of each area within the vehicle area 510 changes, the area is immediately divided by the area dividing means. It becomes possible to separate. For this reason, an object other than the vehicle can be accurately detected while being distinguished from the vehicle.

また、車両外領域の分離に車両領域510内部での配置比率や、中温度領域8と高温度領域7との位置関係を用いることで、高精度に他車両51を検出することが可能となる。   In addition, the other vehicle 51 can be detected with high accuracy by using the arrangement ratio in the vehicle region 510 and the positional relationship between the intermediate temperature region 8 and the high temperature region 7 to separate the vehicle outside region. .

さらに、ある時点で認識された車両領域510に、所定時間経過後に他の領域が重なった場合でも、それぞれの物体を混同することなく認識することが可能となり、高精度で他車両51を検出することができる。   Furthermore, even when another region overlaps the vehicle region 510 recognized at a certain time after a predetermined time has elapsed, it is possible to recognize each object without confusion, and the other vehicle 51 is detected with high accuracy. be able to.

また、1台の遠赤外線カメラ11で他車両51の検出をすることが可能になるため、物体間の距離を計測するために撮像するカメラを2台構成として三角測量の方式で距離を算出す方法に比べて、システムコストが低減できるうえに計算負荷も低減できる。   In addition, since it is possible to detect the other vehicle 51 with a single far-infrared camera 11, the distance is calculated by a triangulation method with two cameras configured to measure the distance between objects. Compared with the method, the system cost can be reduced and the calculation load can be reduced.

以下、前記した実施の形態の実施例1について図14を参照して説明する。なお、前記実施の形態で説明した内容と同一乃至均等な部分の説明については同一符号を付して説明する。   Hereinafter, Example 1 of the above-described embodiment will be described with reference to FIG. The description of the same or equivalent parts as those described in the above embodiment will be given the same reference numerals.

この実施例1では、前記実施の形態とは別の方法で特徴点6の点数化をおこなう。   In Example 1, the feature points 6 are scored by a method different from that of the above embodiment.

この実施例1の点数化では、特徴点6,・・・の抽出時に後述する強度をあわせて抽出し、その強度順に特徴点6,・・・を並べておき、上位50番目までを点数化に利用する。   In the scoring of the first embodiment, the strength points described later are extracted together when extracting the feature points 6,..., The feature points 6,. Use.

これにより、気温と対象温度が近接するような環境で、熱画像50中の温度分布が一様に近くなって温度抑揚が小さくなりやすい場合でも、特徴点6を安定して抽出できる。   Thereby, even in the environment where the air temperature and the target temperature are close to each other, the feature point 6 can be stably extracted even when the temperature distribution in the thermal image 50 is nearly uniform and the temperature inflection tends to be small.

逆に、熱画像50中の温度分布の幅が広くなって温度抑揚が大きくなった場合でも、強度の高い特徴点6のみを抽出する形となるため、特徴点6の過剰抽出を抑えることが可能になる。   On the other hand, even when the temperature distribution in the thermal image 50 is widened and the temperature suppression is increased, only the feature points 6 having high strength are extracted, so that excessive extraction of the feature points 6 can be suppressed. It becomes possible.

ここで、特徴点6の強度について詳述すると、図14(a)〜(c)に示したような特徴点6C〜6Eを考えた場合、図14(a)の中心画素である特徴点6Cは、図14(b),図14(c)の中心画素である特徴点6D,6Eと比較すると周辺画素との輝度差が大きい特徴点6Cとなっている。   Here, the intensity of the feature point 6 will be described in detail. When the feature points 6C to 6E as shown in FIGS. 14A to 14C are considered, the feature point 6C which is the central pixel in FIG. Is a feature point 6C having a large luminance difference from the surrounding pixels as compared to the feature points 6D and 6E which are the central pixels in FIGS. 14B and 14C.

このような比較により、特徴点6C〜6Eの相対的な強度として、特徴点6Cが強い特徴点、特徴点6Dが中程度の強度を持つ特徴点、特徴点6Eが強度の弱い特徴点として分類することができる。   As a result of such comparison, the relative strengths of the feature points 6C to 6E are classified as feature points having a strong feature point 6C, feature points having a moderate strength feature point 6D, and feature points having a low strength feature point 6E. can do.

また別の方法として、特徴点6,・・・の輝度値を強度として任意の数にランク分けして各ランクに点数を与え、分割されたメッシュ状領域71,・・・又は短冊状領域81,・・・毎に特徴点6,・・・の点数の総和を算出するようにしてもよい。   As another method, the luminance values of the feature points 6,... Are classified into an arbitrary number as the intensity, and a score is given to each rank, and the divided mesh area 71,. ,..., The sum of the number of feature points 6,.

例えば、熱画像50中に特徴点6,・・・が300個抽出されたとして、特徴点6,・・・に対応する画素61の輝度値が大きい順に上位3分の1のグループに含まれる100個に3点、中位3分の1のグループに含まれる100個に2点、下位3分の1のグループに含まれる100個に1点を与える。   For example, if 300 feature points 6,... Are extracted from the thermal image 50, they are included in the upper third group in descending order of the luminance value of the pixel 61 corresponding to the feature points 6,. 100 points are given 3 points, 100 points included in the middle third group are given 2 points, and 100 points contained in the lower third group are given 1 point.

なお、点数の重み付けの配分は、抽出目的とする物体の温度などの特性により変更してもよく、また、各グループに含まれる割合なども変更してもよい。   Note that the distribution of the weighting of the points may be changed according to characteristics such as the temperature of the object to be extracted, and the ratio included in each group may be changed.

このように特徴点6,・・・の強度に応じて重み付けをした点数を利用し、分割された画像領域(メッシュ状領域71,・・・又は短冊状領域81,・・・)毎に総点数を求めることで、特徴点6,・・・の数は多いが総点数が低い領域は物体候補領域ではないと判断することができる。   Thus, using the weighted points according to the intensity of the feature points 6,..., The total for each divided image region (mesh region 71,... Or strip region 81,...). By obtaining the score, it is possible to determine that the region having a large number of feature points 6... But having a low total score is not an object candidate region.

この他の分割領域の点数化による物体候補領域の抽出方法としては、例えば、短冊状領域81を用いずに、高温度領域、中温度領域のいずれについてもメッシュ状領域71から抽出するようにしてもよい。   As another method for extracting object candidate regions by scoring other divided regions, for example, the high temperature region and the medium temperature region are extracted from the mesh region 71 without using the strip region 81. Also good.

この場合は、各メッシュ状領域71,・・・の点数化の際に、高温度の特徴点6,・・・に対応する得点と、中温度の特徴点6,・・・に対応する得点という二通りの点数を与える。   In this case, when scoring each mesh-like region 71,..., A score corresponding to the high temperature feature point 6,... And a score corresponding to the medium temperature feature point 6,. Two kinds of points are given.

そして、高温度領域については上記と同様の方法によって抽出し、中温度の特徴点6,・・・が多く存在する中温度領域を抽出する際には、得点の高かったメッシュ状領域71を一旦、物体候補領域として抽出した後、それぞれのメッシュ状領域71,・・・を縦方向にチェックし、同じ縦列で物体候補領域が複数抽出されている場合には、最も上位に出現している領域と最も下位に出現している領域を上限と下限として連結することで、短冊状領域81による抽出と同じ効果を得ることができる。   Then, the high temperature region is extracted by the same method as described above, and when extracting the intermediate temperature region where there are many intermediate temperature feature points 6,... After extracting as object candidate areas, each mesh-like area 71,... Is checked in the vertical direction, and when a plurality of object candidate areas are extracted in the same column, the area appearing at the top By connecting the lowest appearing region as the upper limit and the lower limit, the same effect as the extraction by the strip region 81 can be obtained.

また反対に、短冊状領域81のみを点数化のための分割領域として利用し、高温度の特徴点6についても、中温度の特徴点6と同様の物体候補領域の抽出手法を利用することで、メッシュ状領域71による物体候補領域の抽出を模擬することも可能である。   On the other hand, only the strip-shaped area 81 is used as a divided area for scoring, and for the high temperature feature point 6, the same object candidate area extraction method as that for the medium temperature feature point 6 is used. It is also possible to simulate the extraction of the object candidate area by the mesh area 71.

また、分割領域の点数化に際しては、画像全体の特徴点6,・・・に対しておこなう必要はなく、例えば高温度の特徴点6として画像の上部に出現する街灯が抽出されることがあり、このようにして発生しうるノイズ成分に対処するために画像の上部1/3を処理対象外にするなどしてもよい。   In addition, it is not necessary to score the feature points 6,... Of the entire image when scoring the divided areas. For example, street lamps appearing at the top of the image may be extracted as feature points 6 at high temperatures. In order to deal with the noise component that can be generated in this way, the upper third of the image may be excluded from the processing target.

なお、他の構成及び作用効果については、前記実施の形態と略同様であるので説明を省略する。   Other configurations and functions and effects are substantially the same as those in the above-described embodiment, and thus description thereof is omitted.

以下、前記した実施の形態の実施例2について図15を参照して説明する。なお、前記実施の形態で説明した内容と同一乃至均等な部分の説明については同一符号を付して説明する。   Hereinafter, Example 2 of the above-described embodiment will be described with reference to FIG. The description of the same or equivalent parts as those described in the above embodiment will be given the same reference numerals.

この実施例2では、車両領域510を抽出する方法について前記実施の形態とは別の熱画像に基づいて説明する。   In Example 2, a method for extracting the vehicle area 510 will be described based on a thermal image different from that of the above embodiment.

図15(a)では、高温度領域7Eと中温度領域8G,8Hが離れているが、これらの領域は横エッジ9D,9E,9F,9Gで連結されているので、連結された領域を包含する領域を一台の車両領域510Bとして抽出する。   In FIG. 15A, the high temperature region 7E and the intermediate temperature regions 8G and 8H are separated, but these regions are connected by the horizontal edges 9D, 9E, 9F, and 9G, and therefore include the connected regions. The area to be extracted is extracted as one vehicle area 510B.

また、図15(b)では中温度領域8が抽出されていないが、例えば他車両51が走り出したばかりであればタイヤ部が温まっていない場合もあり、高温度領域7Fと横エッジ9H,9Iのみが抽出されることもある。   In FIG. 15B, the intermediate temperature region 8 is not extracted. However, for example, if the other vehicle 51 has just started running, the tire portion may not be warmed, and only the high temperature region 7F and the lateral edges 9H and 9I. May be extracted.

このような場合でも車両領域510Cとして抽出できるように、高温度領域7Fと横エッジ9H,9Iを包含するように設定された領域が画像中で所定の面積以上を持つ場合には高温部・エッジ連結判定手段により車両領域510Cであると判断して抽出をおこなう。   Even in such a case, when the region set to include the high temperature region 7F and the horizontal edges 9H and 9I has a predetermined area or more in the image so that it can be extracted as the vehicle region 510C, the high temperature region / edge Extraction is performed by determining that the vehicle region is 510C by the connection determining means.

また、本実施例2や前記実施の形態では、他車両51が自車両4と同一方向を向いて撮像された熱画像50について説明したが、熱画像50に横向きで他車両51が撮像された場合であっても、車両下部のマフラー部や車軸部が高温度領域7として抽出されることになるため、正確に他車両51を判別することができる。   Further, in the second embodiment and the above-described embodiment, the thermal image 50 in which the other vehicle 51 is captured in the same direction as the host vehicle 4 has been described. However, the other vehicle 51 is captured in the thermal image 50 in the horizontal direction. Even in this case, the muffler part and the axle part at the lower part of the vehicle are extracted as the high temperature region 7, so that the other vehicle 51 can be accurately identified.

なお、他の構成及び作用効果については、前記実施の形態又は他の実施例と略同様であるので説明を省略する。   Other configurations and functions and effects are substantially the same as those of the above-described embodiment or other examples, and thus description thereof is omitted.

以上、図面を参照して、本発明の最良の実施の形態及び実施例を詳述してきたが、具体的な構成は、この実施の形態に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。   The best embodiment and examples of the present invention have been described in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and the design does not depart from the gist of the present invention. Such modifications are included in the present invention.

例えば、前記実施の形態では、画像取得部1の熱画像取得手段としての遠赤外線カメラ11のみを使用した場合について説明したが、これに限定されるものではなく、可視光画像を取得する可視光カメラ(図示せず)を遠赤外線カメラ11と併せて使用することができる。   For example, in the above-described embodiment, the case where only the far-infrared camera 11 is used as the thermal image acquisition unit of the image acquisition unit 1 is described. However, the present invention is not limited to this, and visible light that acquires a visible light image is used. A camera (not shown) can be used in conjunction with the far-infrared camera 11.

この場合は、可視光カメラによって撮像された画像は、特徴点抽出部31で輝度差を利用して特徴点6を抽出する際や、方向エッジ抽出部36で横エッジ9などの方向エッジを抽出する際の画像データとして使用する。   In this case, from the image captured by the visible light camera, the feature point extraction unit 31 extracts the feature point 6 using the luminance difference, or the direction edge extraction unit 36 extracts the direction edge such as the horizontal edge 9. It is used as image data when

本発明の実施の形態の物体検出システムの概略構成を説明するブロック図である。It is a block diagram explaining the schematic structure of the object detection system of embodiment of this invention. (a)は自車両の画像取得部の配置位置を説明する側面図、(b)は自車両の画像取得部の配置位置を説明する平面図である。(A) is a side view explaining the arrangement position of the image acquisition part of the own vehicle, (b) is a top view explaining the arrangement position of the image acquisition part of the own vehicle. 本発明の実施の形態の物体検出システムの処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of the object detection system of embodiment of this invention. 本発明の実施の形態の車両判別の処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process of the vehicle discrimination | determination of embodiment of this invention. 自車両周辺の熱画像の概略を示した図である。It is the figure which showed the outline of the thermal image around the own vehicle. 抽出された特徴点を表示した図である。It is the figure which displayed the extracted feature point. 特徴点の抽出方法を説明するために画素周辺を拡大した説明図である。It is explanatory drawing which expanded the pixel periphery in order to demonstrate the extraction method of a feature point. メッシュ状領域と物体候補領域として抽出された高温度領域を示した図である。It is the figure which showed the high temperature area | region extracted as a mesh-like area | region and an object candidate area | region. 短冊状領域と物体候補領域として抽出された中温度領域を示した図である。It is the figure which showed the medium temperature area | region extracted as a strip-shaped area | region and an object candidate area | region. 抽出された横エッジを表示した図である。It is the figure which displayed the extracted horizontal edge. 高温度領域と中温度領域と横エッジとを包含する車両領域を表示した図である。It is the figure which displayed the vehicle area | region containing a high temperature area | region, an intermediate temperature area | region, and a horizontal edge. 車両領域の内部に包含された複数の領域の位置関係を説明する説明図である。It is explanatory drawing explaining the positional relationship of the some area | region included in the inside of a vehicle area | region. 歩行者領域と車両領域とが交錯する状態を時系列で説明する説明図である。It is explanatory drawing explaining the state which a pedestrian area | region and a vehicle area cross in time series. 特徴点の強度を説明するために画素周辺を拡大した説明図である。It is explanatory drawing which expanded the pixel periphery in order to demonstrate the intensity | strength of a feature point. 車両領域の判別方法を説明する説明図である。It is explanatory drawing explaining the discrimination method of a vehicle area | region.

符号の説明Explanation of symbols

10 物体検出システム
1 画像取得部
11 遠赤外線カメラ(熱画像取得手段)
2 記憶部
3 演算部
31 特徴点抽出部(特徴点抽出手段)
32 特徴点温度検出部(特徴点温度検出手段)
33 画像分割部(画像分割手段)
34 分割領域点数化部(分割領域点数化手段)
35 物体領域抽出部(物体領域抽出手段)
36 方向エッジ抽出部(方向エッジ抽出手段)
37 車両判別部(車両判別手段)
4 自車両
50 熱画像
51 他車両(車両)
6 特徴点
7 高温度領域(物体候補領域)
71 メッシュ状領域(画像領域)
8 中温度領域(物体候補領域)
81 短冊状領域(画像領域)
9 横エッジ(方向エッジ)
510 車両領域
D1,D2 距離(位置関係)
DESCRIPTION OF SYMBOLS 10 Object detection system 1 Image acquisition part 11 Far-infrared camera (thermal image acquisition means)
2 storage unit 3 operation unit 31 feature point extraction unit (feature point extraction means)
32 feature point temperature detector (feature point temperature detection means)
33 Image segmentation unit (image segmentation means)
34 Divided area point scoring unit (divided area scoring means)
35 Object region extraction unit (object region extraction means)
36 Direction edge extraction unit (direction edge extraction means)
37 Vehicle discrimination section (vehicle discrimination means)
4 Own vehicle 50 Thermal image 51 Other vehicle (vehicle)
6 Feature point 7 High temperature area (object candidate area)
71 Mesh area (image area)
8 Medium temperature region (object candidate region)
81 Strip area (image area)
9 Horizontal edge (direction edge)
510 Distance between vehicle areas D1, D2 (positional relationship)

Claims (15)

自車両周辺の熱画像を取得する熱画像取得手段と、
前記熱画像取得手段又は少なくともエッジ検出が可能な画像を取得する画像取得手段により得られた画像から、周辺画素との輝度変化に基づいて特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された特徴点に対応する部位の温度を前記熱画像から検出する特徴点温度検出手段と、
前記熱画像を所定の領域に分割する画像分割手段と、
前記画像分割手段により分割されたそれぞれの画像領域において前記特徴点温度検出手段により検出された所定の温度を持つ特徴点が出現する頻度が高い領域を物体候補領域であるとして抽出する物体領域抽出手段と、
前記熱画像又は前記画像取得手段により取得された画像から所定の方向を持つ方向エッジを抽出する方向エッジ抽出手段と、
前記方向エッジと前記物体候補領域との連結関係に基づき前記熱画像のなかの車両を判別する車両判別手段とを有することを特徴とする物体検出システム。
Thermal image acquisition means for acquiring a thermal image around the host vehicle;
A feature point extracting means for extracting a feature point from an image obtained by the thermal image obtaining means or an image obtaining means for obtaining an image capable of at least edge detection based on a luminance change with a peripheral pixel;
Feature point temperature detection means for detecting a temperature of a part corresponding to the feature point extracted by the feature point extraction means from the thermal image;
Image dividing means for dividing the thermal image into predetermined regions;
Object region extraction means for extracting, as an object candidate region, an area where a feature point having a predetermined temperature detected by the feature point temperature detection means appears in each of the image areas divided by the image dividing means. When,
Direction edge extraction means for extracting a direction edge having a predetermined direction from the thermal image or the image acquired by the image acquisition means;
An object detection system comprising vehicle discriminating means for discriminating a vehicle in the thermal image based on a connection relationship between the direction edge and the object candidate region.
前記画像取得手段は、可視光画像を取得する手段であることを特徴とする請求項1に記載の物体検出システム。   The object detection system according to claim 1, wherein the image acquisition unit is a unit that acquires a visible light image. 前記車両判別手段は、前記方向エッジと前記物体候補領域とが連結関係を有する場合に該方向エッジおよび該物体候補領域を包含する領域を車両領域として設定することを特徴とする請求項1又は2に記載の物体検出システム。   The vehicle determination means sets a region including the direction edge and the object candidate region as a vehicle region when the direction edge and the object candidate region have a connection relationship. The object detection system described in 1. 前記画像分割手段により画像を分割する際に、前記熱画像を格子状に分割することを特徴とする請求項1乃至3のいずれか1項に記載の物体検出システム。   The object detection system according to any one of claims 1 to 3, wherein when the image is divided by the image dividing unit, the thermal image is divided in a grid pattern. 前記画像分割手段により画像を分割する際に、前記熱画像を縦方向の帯状に分割することを特徴とする請求項1乃至4のいずれか1項に記載の物体検出システム。   5. The object detection system according to claim 1, wherein when the image is divided by the image dividing unit, the thermal image is divided into vertical bands. 6. 前記特徴点温度検出手段により検出された温度に応じて高温度の特徴点と中温度の特徴点とに分けて頻度を算出することを特徴とする請求項1乃至5のいずれか1項に記載の物体検出システム。   6. The frequency is calculated separately for a high-temperature feature point and an intermediate-temperature feature point according to the temperature detected by the feature point temperature detection means. Object detection system. 前記画像分割手段は、一枚の前記熱画像から縦方向の帯状と格子状の二通りの分割画像を生成し、
縦方向の帯状に分割した短冊状領域においては中温度の特徴点を利用し、格子状に分割したメッシュ状領域においては高温度の特徴点を利用することを特徴とする請求項1乃至3のいずれか1項に記載の物体検出システム。
The image dividing means generates two types of divided images in a vertical band shape and a lattice shape from one thermal image,
4. The feature point of medium temperature is used in the strip-shaped region divided into strips in the vertical direction, and the feature point of high temperature is used in the mesh-like region divided into grids. The object detection system according to any one of claims.
前記方向エッジ抽出手段は、横方向の横エッジを抽出することを特徴とする請求項1乃至7のいずれか1項に記載の物体検出システム。   The object detection system according to claim 1, wherein the direction edge extraction unit extracts a horizontal edge in a horizontal direction. 前記車両判別手段は、高温度領域として抽出されたメッシュ状領域と前記横エッジとの連結性がある場合に車両領域と判定する高温部・エッジ連結判定手段を有することを特徴とする請求項8に記載の物体検出システム。   9. The vehicle determination unit includes a high temperature part / edge connection determination unit that determines a vehicle region when there is connectivity between the mesh-like region extracted as a high temperature region and the lateral edge. The object detection system described in 1. 前記車両判別手段は、中温度領域として抽出された短冊状領域と前記横エッジと前記高温度領域との連結性の有無を判定することを特徴とする請求項9に記載の物体検出システム。   The object detection system according to claim 9, wherein the vehicle determination unit determines whether or not there is connectivity between the strip-shaped region extracted as the intermediate temperature region, the horizontal edge, and the high temperature region. 前記物体領域抽出手段により抽出された前記物体候補領域に対して、前記特徴点が出現する頻度を点数化する分割領域点数化手段により算出されている点数を時系列で対比して領域の確信度を算出することを特徴とする請求項1乃至10のいずれか1項に記載の物体検出システム。   Confidence level of the area by comparing the points calculated by the divided area scoring means for scoring the frequency of appearance of the feature points with respect to the object candidate area extracted by the object area extracting means in time series The object detection system according to claim 1, wherein the object detection system is calculated. 前記車両判別手段により一台の車両領域として包含された複数の前記物体候補領域の位置関係に対して、高温度領域と中温度領域の位置関係に時系列で変化があったときには中温度領域は同一の車両領域ではないと判断して分離する領域分離手段を有することを特徴とする請求項6乃至11のいずれか1項に記載の物体検出システム。   When the positional relationship between the high temperature region and the intermediate temperature region changes in time series with respect to the positional relationship between the plurality of object candidate regions included as one vehicle region by the vehicle determination unit, the intermediate temperature region is The object detection system according to any one of claims 6 to 11, further comprising a region separation unit that determines that the vehicle regions are not in the same vehicle region. 前記領域分離手段は、車両領域内での中温度領域の配置位置の比率が、時系列で対比した際に所定の割合以上変化した場合に同一の車両領域ではないと判断して分離することを特徴とする請求項12に記載の物体検出システム。   The region separating means determines that the vehicle is not in the same vehicle region when the ratio of the arrangement position of the intermediate temperature region in the vehicle region changes by a predetermined ratio or more when compared in time series. The object detection system according to claim 12, wherein the system is an object detection system. 前記領域分離手段は、高温度領域と中温度領域とが時系列で対比した際に交錯した場合に中温度領域は同一の車両領域ではないと判断して分離することを特徴とする請求項12又は13に記載の物体検出システム。   13. The region separation means determines that the medium temperature region is not the same vehicle region and separates when the high temperature region and the medium temperature region intersect when they are compared in time series. Or the object detection system of 13. 前記車両判別手段により抽出した車両領域に、別の中温度領域が時系列で対比した際に交錯してきた場合にその中温度領域は同一の車両領域ではないと判断して分離することを特徴とする請求項12乃至14のいずれか1項に記載の物体検出システム。   When the vehicle area extracted by the vehicle determination means crosses when another intermediate temperature area is compared in time series, the intermediate temperature area is determined not to be the same vehicle area and is separated. The object detection system according to any one of claims 12 to 14.
JP2006078488A 2006-03-22 2006-03-22 Object detection system Pending JP2007257133A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006078488A JP2007257133A (en) 2006-03-22 2006-03-22 Object detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006078488A JP2007257133A (en) 2006-03-22 2006-03-22 Object detection system

Publications (1)

Publication Number Publication Date
JP2007257133A true JP2007257133A (en) 2007-10-04

Family

ID=38631349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006078488A Pending JP2007257133A (en) 2006-03-22 2006-03-22 Object detection system

Country Status (1)

Country Link
JP (1) JP2007257133A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146407A (en) * 2007-12-13 2009-07-02 Alpine Electronics Inc Method and apparatus for segmenting object region
KR20200083037A (en) * 2018-12-31 2020-07-08 (주)카탈로닉스 Thermal imaging apparatus
US11170272B2 (en) 2019-08-08 2021-11-09 Toyota Jidosha Kabushiki Kaisha Object detection device, object detection method, and computer program for object detection
CN113643386A (en) * 2021-10-13 2021-11-12 深圳市商汤科技有限公司 Calibration method and device, electronic equipment and computer readable storage medium
WO2023093407A1 (en) * 2021-11-25 2023-06-01 上海商汤智能科技有限公司 Calibration method and apparatus, and electronic device and computer-readable storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146407A (en) * 2007-12-13 2009-07-02 Alpine Electronics Inc Method and apparatus for segmenting object region
KR20200083037A (en) * 2018-12-31 2020-07-08 (주)카탈로닉스 Thermal imaging apparatus
KR102277509B1 (en) * 2018-12-31 2021-07-15 (주)카탈로닉스 Thermal imaging apparatus
US11170272B2 (en) 2019-08-08 2021-11-09 Toyota Jidosha Kabushiki Kaisha Object detection device, object detection method, and computer program for object detection
CN113643386A (en) * 2021-10-13 2021-11-12 深圳市商汤科技有限公司 Calibration method and device, electronic equipment and computer readable storage medium
CN113643386B (en) * 2021-10-13 2022-02-22 深圳市商汤科技有限公司 Calibration method and device, electronic equipment and computer readable storage medium
WO2023093407A1 (en) * 2021-11-25 2023-06-01 上海商汤智能科技有限公司 Calibration method and apparatus, and electronic device and computer-readable storage medium

Similar Documents

Publication Publication Date Title
Wu et al. Lane-mark extraction for automobiles under complex conditions
JP5127182B2 (en) Object detection device
JP2008286725A (en) Person detector and detection method
Reisman et al. Crowd detection in video sequences
US10339396B2 (en) Vehicle accessibility determination device
KR101498975B1 (en) Lane Departure Warning System
KR101279712B1 (en) Apparatus and method for providing real-time lane detection, recording medium thereof
CN108021856A (en) Light for vehicle recognition methods, device and vehicle
JP4864043B2 (en) Image processing apparatus, method, and program
KR102074073B1 (en) Method for detecting vehicles and apparatus using the same
JP2007257133A (en) Object detection system
JP4534700B2 (en) Person detection apparatus and method
JP4548181B2 (en) Obstacle detection device
JP5011268B2 (en) Image detection apparatus and image detection method
JP5906856B2 (en) Vehicle image recognition apparatus and vehicle image recognition method
JP6508134B2 (en) Object discrimination device
Chakraborty et al. Bangladeshi road sign detection based on YCbCr color model and DtBs vector
JP5212212B2 (en) Passage detection program, passage detection device and method
Santos et al. Learning to segment roads for traffic analysis in urban images
JP6375911B2 (en) Curve mirror detector
KR20120098292A (en) Method for detecting traffic lane
Wang et al. Saliency detection using mutual consistency-guided spatial cues combination
JP2010271969A (en) Traffic-lane detecting device
Zhang et al. Road sign detection based on visual saliency and shape analysis
JP4842301B2 (en) Pedestrian detection device and program