JP2007257133A - Object detection system - Google Patents
Object detection system Download PDFInfo
- Publication number
- JP2007257133A JP2007257133A JP2006078488A JP2006078488A JP2007257133A JP 2007257133 A JP2007257133 A JP 2007257133A JP 2006078488 A JP2006078488 A JP 2006078488A JP 2006078488 A JP2006078488 A JP 2006078488A JP 2007257133 A JP2007257133 A JP 2007257133A
- Authority
- JP
- Japan
- Prior art keywords
- region
- vehicle
- image
- temperature
- detection system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、歩行者や前方を走行する車両などの物体を検出する物体検出システムに関するものである。 The present invention relates to an object detection system that detects an object such as a pedestrian or a vehicle traveling forward.
従来、カメラで写された画像の中の歩行者と車両とを判別する技術として特許文献1などが知られている。
Conventionally,
この特許文献1では、まず遠赤外線カメラから得られた熱画像の中から、二値化によって所定の温度以上の領域を抽出することで歩行者の候補領域を抽出する。
In
次に抽出された歩行者の候補領域として検出された熱源の上部を探索し、ある一定の領域内に車両の一部と思われる水平エッジが検出された場合、その熱源は車両の構成部位の一部であるとして歩行者と車両との区別をつける。
しかしながら、特許文献1の方法では、二値化によって遠赤外線画像からある一定温度以上の領域を切り出した際に、歩行者や車両の候補領域が切り出されていなければならなかった。
However, in the method of
これに対し、環境温度が上昇する夏季などにおいては、歩行者と環境温度が同等となるような場合があるため、二値化をおこなう際の閾値の決定が難しく歩行者領域の切り出しが困難となる場合があった。 In contrast, in summer when the ambient temperature rises, the ambient temperature may be equivalent to that of the pedestrian, so it is difficult to determine the threshold for binarization and it is difficult to cut out the pedestrian area. There was a case.
そこで、本発明は、環境温度が上昇して歩行者と同等の温度になるような場合でも歩行者と車両の判別が正確におこなえる物体検出システムを提供することを目的としている。 Therefore, an object of the present invention is to provide an object detection system capable of accurately distinguishing between a pedestrian and a vehicle even when the environmental temperature rises to a temperature equivalent to that of a pedestrian.
前記目的を達成するために、本発明は、自車両周辺の熱画像を取得する熱画像取得手段と、前記熱画像取得手段又は少なくともエッジ検出が可能な画像を取得する画像取得手段により得られた画像から、周辺画素との輝度変化に基づいて特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段により抽出された特徴点に対応する部位の温度を前記熱画像から検出する特徴点温度検出手段と、前記熱画像を所定の領域に分割する画像分割手段と、前記画像分割手段により分割されたそれぞれの画像領域において前記特徴点温度検出手段により検出された所定の温度を持つ特徴点が出現する頻度が高い領域を物体候補領域であるとして抽出する物体領域抽出手段と、前記熱画像又は前記画像取得手段により取得された画像から所定の方向を持つ方向エッジを抽出する方向エッジ抽出手段と、前記方向エッジと前記物体候補領域との連結関係に基づき前記熱画像のなかの車両を判別する車両判別手段とを有する物体検出システムであることを特徴とする。 In order to achieve the above object, the present invention is obtained by a thermal image acquisition unit that acquires a thermal image around a host vehicle and an image acquisition unit that acquires the thermal image acquisition unit or at least an image capable of edge detection. Feature point extraction means for extracting a feature point from an image based on a luminance change with surrounding pixels, and a feature point temperature for detecting a temperature of a part corresponding to the feature point extracted by the feature point extraction means from the thermal image A feature point having a predetermined temperature detected by the feature point temperature detection unit in each of the image regions divided by the detection unit, an image division unit that divides the thermal image into predetermined regions, and the image division unit. An object region extraction unit that extracts a region that appears frequently as an object candidate region, and has a predetermined direction from the thermal image or the image acquired by the image acquisition unit An object detection system comprising: direction edge extraction means for extracting a direction edge; and vehicle determination means for determining a vehicle in the thermal image based on a connection relationship between the direction edge and the object candidate region. To do.
このように構成された本発明の物体検出システムは、画像の局所的な変化を捉えて抽出された物体候補領域および方向エッジを利用しているため、環境温度が歩行者と同等になる夏季等においても、歩行者と前方を走行する車両とを的確に判別することができる。 The object detection system of the present invention configured as described above uses object candidate regions and direction edges that are extracted by capturing local changes in the image, so that the environmental temperature is equivalent to that of pedestrians in summer, etc. In this case, the pedestrian and the vehicle traveling ahead can be accurately determined.
以下、本発明の最良の実施の形態について図面を参照して説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、本実施の形態による物体検出システム10の概略構成を示したブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an
まず、構成から説明すると、このような本実施の形態の物体検出システム10は、自車周辺の熱画像などの画像を取得する画像取得部1と、取得した画像データや演算結果のデータなどを記憶させる記憶部2と、物体を検出するための演算をおこなう演算部3とから主に構成されている。
First, in terms of configuration, the
この画像取得部1には、熱画像を取得する熱画像取得手段としての遠赤外線カメラ11(IRカメラ)が少なくとも備えられている。ここで、本実施の形態の熱画像とは、遠赤外線カメラ11で撮像された遠赤外線画像のことをいう。また、遠赤外線カメラ11が対象とする遠赤外線の波長帯域は8〜14μmを主な帯域としている。
The
この画像取得部1は、図2に示すように自車両4の前方のフロントグリル部などに設置され、自車両4の前方空間を主に撮像する。
As shown in FIG. 2, the
また、遠赤外線カメラ11によって撮像して取得した熱画像50(図5参照)は、デジタル化されて記憶部2の画像メモリ21に記憶される。この画像メモリ21は、RAM(Random access memory)等の記憶装置によって構成されている。
Further, the thermal image 50 (see FIG. 5) obtained by capturing with the far-
この熱画像50は、撮像された被写体の温度に応じて画素の輝度又は色を変化させて出力されているので、各画素の輝度値や色の種類を検出することでその画素の温度を算出することができる。
Since this
また、記憶部2には、演算部3でおこなった演算の結果などを一時的に記憶させるRAMなどの記憶装置がメモリ部22として備えられている。
In addition, the
一方、演算部3には、ROM(Read only memory)等の記憶装置に記憶された各種プログラムを実行させる内部CPU(Central Processing Unit:中央演算処理装置)が備えられており、以下に説明する特徴点抽出手段、特徴点温度検出手段、画像分割手段、分割領域点数化手段、物体領域抽出手段、方向エッジ抽出手段、車両判別手段としての処理をおこなう。 On the other hand, the calculation unit 3 is provided with an internal CPU (Central Processing Unit) that executes various programs stored in a storage device such as a ROM (Read Only Memory). Processing is performed as point extraction means, feature point temperature detection means, image division means, division area score conversion means, object area extraction means, direction edge extraction means, and vehicle discrimination means.
この特徴点抽出手段としての特徴点抽出部31では、画像メモリ21に記憶された図5に示すような熱画像50から、周辺画素との輝度変化に基づいて図6に示すように特徴点6,・・・を抽出する。すなわち、図7(a),(b)に示すように周辺画素61,・・・との輝度差が所定値以上の画素61を特徴点6A,6Bとして抽出する。
In the feature
さらに詳述すると、この特徴点抽出部31では、画像処理法として一般的にコーナーディテクタと呼ばれる方法を用いて特徴点6の抽出を行う。例えば、Jianbo Shi、 Carlo Tomasi、(“Good Features to Track”、 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94) pp.593-600)等にトラッキングを行なうのに適している画素を抽出する方法が開示されている。
More specifically, the feature
この方法では、撮像された被写体の輪郭の角となる部分の画素61が特徴点6として抽出される。また、特徴点6は、熱画像50内の温度分布が一様となるような空間を撮像した画像中ではあまり抽出されず、温度分布の変化が大きくなるような空間を撮像した画像中では多く抽出される。
In this method, the
さらに、撮像方向に直交する面が平坦ではないために表面構成が一様とならない被写体も、被写体から放射される遠赤外線の放射方向が撮像面に対して一様にならないので、熱画像50上での輝度値変化が大きくなり特徴点6が抽出されやすくなる。
Further, a subject whose surface configuration is not uniform because the surface orthogonal to the imaging direction is not flat, the radiation direction of far infrared rays emitted from the subject is not uniform with respect to the imaging surface. In this case, the change in the luminance value becomes large and the
また、特徴点温度検出手段としての特徴点温度検出部32では、特徴点抽出部31により抽出された特徴点6に対応する画素61の温度を熱画像50から検出する。
The feature point
すなわち、熱画像50は温度に応じて画像の輝度、もしくは色を変化させて出力しているため、抽出された特徴点6の輝度や色を検出することで、それぞれの特徴点6の温度を算出することができる。
That is, since the
また、画像分割手段としての画像分割部33では、遠赤外線カメラ11により取得された熱画像50に対して、図8に示すように格子状に分割して正方形のメッシュ状領域71,・・・を形成したり、図9に示すように縦方向の帯状に分割して短冊状領域81,・・・を形成したりする。
Further, in the
そして、分割領域点数化手段としての分割領域点数化部34では、特徴点温度検出部32で検出した特徴点6の温度に基づいて特徴点6を選別し、画像分割部33で分割されたメッシュ状領域71,・・・又は短冊状領域81,・・・毎に選別された特徴点6の頻度を算出して各領域の点数化をおこなう。
Then, in the divided region
例えば、特徴点6の中から歩行者52よりも高温度である40℃以上の特徴点6のみを点数化の対象として選別したり、歩行者52程度の温度である中温度の特徴点6のみを点数化の対象として選別したりすることができる。
For example, only the
また、物体領域抽出手段としての物体領域抽出部35では、分割領域点数化部34で点数化された各領域のうち、所定の点数より高い領域を物体候補領域であるとして抽出する。
In addition, the object
例えば、高温度の特徴点6のみを点数化して高い点数が出た領域を物体候補領域としての高温度領域7とし、中温度の特徴点6のみを点数化して高い点数が出た領域を物体候補領域としての中温度領域8とする。
For example, a region where a high score is obtained by scoring only the high-
一方、方向エッジ抽出手段としての方向エッジ抽出部36では、熱画像50から所定方向を持つエッジを方向エッジとして抽出する。例えば熱画像50に対して所定の微分フィルタによるフィルタリングをおこない、その結果を二値化処理して横方向や縦方向などの一方向に同一の値が連続する方向エッジを抽出する。
On the other hand, the direction
図10は、熱画像50から方向エッジとして水平方向に延出される横エッジ9を抽出して表示させた図である。
FIG. 10 is a diagram in which the
さらに、車両判別手段としての車両判別部37では、方向エッジ抽出部36により抽出された方向エッジと、物体領域抽出部35により抽出された物体候補領域との連結関係に基づき、熱画像50のなかの車両を判別する。この車両の判別方法については後で詳細に説明する。
Further, in the
次に、本実施の形態の物体検出システム10の処理の流れについて、図3のフローチャートを参照しながら説明する。
Next, the process flow of the
まず、ステップS1で自車両4に搭載された遠赤外線カメラ11によって自車両4周辺の前方空間を撮像し、図5に示すような熱画像50を取得する。この熱画像50は、例えばグレースケール画像として取得され、この図には自車両4前方の他車両51や歩道を歩く歩行者52,52や街灯53,・・・などが撮像されている。
First, in step S1, the far-
このようにグレースケール画像で撮像された熱画像50の画素61,・・・は、図7の部分拡大図に示されるように多段階の輝度値で表示されており、ステップS2では特徴点抽出部31によって周辺画素との輝度差が所定値以上の画素61,・・・を図6に示すように特徴点6,・・・として抽出する。
Thus, the
このステップS2で抽出された特徴点6,・・・に対しては、特徴点温度検出部32によって熱画像50に基づいて温度を検出する(ステップS3)。
For the feature points 6,... Extracted in step S2, the feature point
さらに、ステップS4では、画像分割部33によって熱画像50を図8に示すように格子状に分割してメッシュ状領域71,・・・を形成する。また、同じ熱画像50に対して図9に示すような縦方向の帯状に分割した短冊状領域81,・・・も形成する。
Furthermore, in step S4, the
また、ステップS5では、ステップS4で分割したメッシュ状領域71,・・・に対して物体領域抽出部35によって点数化をおこない、得点が高かった領域を物体が存在する可能性が高い物体候補領域として抽出する。
In step S5, the object
この点数化は、図8に示したメッシュ状領域71,・・・に対しては、歩行者よりも明らかに高温度である40度以上の特徴点6,・・・のみを対象としておこなう。
This scoring is performed only for the feature points 6... Of 40 degrees or more, which is clearly higher in temperature than the pedestrian, for the mesh-
例えば、自車両4の前方を走行する他車両51のマフラー部は、走行中は高温度になっているために高温度領域7A,7Bとして抽出され、夜間であれば街灯も高温度領域7Cとして抽出される。
For example, the muffler portion of the
また、図9に示した短冊状領域81,・・・に対しては、歩行者52相当温度である中温度を持った特徴点6,・・・を対象として点数化をおこなう。
Further, the strip-shaped
例えば、自車両4の周辺を歩いている歩行者52,52は中温度領域8C,8Dとして抽出され、他車両51のタイヤ部も中温度領域8A,8Bとして抽出される。
For example,
ここで、図9に示した中温度領域8A〜8Dは、短冊状領域81全体ではなく、帯状のなかから点数が高い部分を部分的に抽出したものである。
Here, the
一方、ステップS6においては、方向エッジ抽出部36によって図10に示すような横エッジ9,・・・を抽出する。
On the other hand, in step S6, the
すなわち、前方の物体が他車両51であれば、バンパー部、トランクリッド部、ルーフ部などの多くの横エッジ9A〜9Cを抽出することができる。また、他車両51から抽出される横エッジ9A〜9Cは、後述する各領域の連結性を判別する指標として適している。
That is, if the object ahead is the
なお、車両から安定的に抽出される方向エッジとしては、縦エッジも挙げられるため、横エッジ9と共に縦方向の縦エッジ(図示せず)をあわせて抽出して車両判別をおこなうこともできる。
Note that the direction edge stably extracted from the vehicle includes a vertical edge, and therefore, the vertical edge (not shown) in the vertical direction can be extracted together with the
そして、ステップS7では、車両判別部37によって熱画像50のなかから他車両51を車両領域510として判別させる。
In step S <b> 7, the
すなわち、ステップS5で抽出された高温度領域7A〜7C(図8)と中温度領域8A〜8D(図9)の抽出結果と、ステップS6で抽出された横エッジ9A〜9C(図10)の抽出結果とを重ね合わせ、それらの間の距離などに基づいて一台の車両に関連する領域として認識される、高温度領域7A,7B、中温度領域8A,8B及び横エッジ9A〜9Cの複数領域を包含する領域を図11に示すように車両領域510として判別する。
That is, the extraction results of the
この車両領域510に包含される高温度領域7A,7Bは他車両51のマフラー部である可能性が高く、中温度領域8A,8Bは温まったタイヤ部である可能性が高く、横エッジ9A〜9Cはルーフ部、トランクリッド部、バンパー部である可能性が高いとして車両領域510に包含させる。
The
ここまでは、ある時点で撮像された一枚の熱画像50に対する処理について説明してきたが、本実施の形態の物体検出システム10では時系列で連続して熱画像50,・・・が処理されているので、前の時刻の熱画像50(フレーム)において車両領域510などが判別されていた場合の処理の流れについて図4のフローチャートに沿って説明する。
Up to this point, the processing for one
まずステップS11では、直前のフレームにて歩行者52などの車両以外の車両外領域が抽出されたか、又はさらにそれ以前のフレームで抽出された車両外領域をトラッキングしているかどうかを判断する。
First, in step S11, it is determined whether an area outside the vehicle other than the vehicle such as the
そして、車両外領域が抽出又はトラッキングされていればそのまま車両外領域としてトラッキングを継続させ(ステップS12)、車両外領域として判別されていない領域に対して車両領域510か否かの判別をおこなうためにステップS13に移行する。
If the vehicle outside region is extracted or tracked, tracking is continued as the vehicle outside region as it is (step S12), and it is determined whether or not the
このステップS13では、ステップS7と同様に抽出された高温度領域7、中温度領域8及び横エッジ9に基づいて車両領域510か否かの判別をおこなう。
In step S13, it is determined whether or not the
また、車両領域510としてグループ化された高温度領域7や中温度領域8について、それぞれの画像中での位置を記憶しておき、時系列でトラッキングを行う。さらに、直前のフレームで車両領域510が抽出されていた領域は、直前フレームからのトラッキング情報として記憶しておく。
Further, the positions in the respective images of the
また、トラッキング情報に面積情報を加えることにより、例えば領域面積が2倍や半分になるなどの各領域の面積が急激に増減した場合に、近接領域との統合や分離が起きたとして、直前フレームからのトラッキングの連続性を失わせるように判断することもできる。 Also, by adding area information to the tracking information, for example, when the area of each area suddenly increases or decreases, such as when the area of the area is doubled or halved, the previous frame It can also be determined to lose the continuity of tracking from.
そして、ステップS14では、トラッキングされたそれぞれの領域の車両領域510内に位置する横エッジ9及び物体候補領域(高温度領域7、中温領域8)の位置関係を判定する。
In step S14, the positional relationship between the
例えば、図12に示すような車両領域510Aが判別されているときに、マフラー部などを抽出した高温度領域7Dとタイヤ部などを抽出した中温度領域8E,8Fとの間の距離D1を指標にして判定をおこなう。
For example, when the
この距離D1と車両領域510A全体の幅D2は、時系列での自車両4と他車両51との距離によって変動する。すなわち、この距離D1,D2が前述した通り他車両51の構成部位として抽出されているのであれば、この変動比率は距離D1,D2共におおむね同じ傾向を示す。
The distance D1 and the width D2 of the
そこでステップS15において、フレームあたりの変動比率の差異が例えば5%以上(処理速度が10fps(frame per second))となった場合には、ステップS16にて、中温度領域8Eは歩行者などの車両外領域であるとして領域分割手段によって車両領域510Aから排除する。この際、図12に示した車両領域510Aの位置、サイズは、変更しないでそのまま保持する。
Therefore, in step S15, when the difference in the variation ratio per frame is, for example, 5% or more (processing speed is 10 fps (frame per second)), the
また、これ以外にも、高温度領域7Dと中温度領域8Eの位置が車両領域510A内で相対的に5%以上変動した場合にも、領域分離手段によって中温度領域8Eを分離するようにしてもよい。
In addition to this, even when the positions of the
さらに、単純な判別方法として、高温度領域7Dと中温度領域8Eが物理的に交錯した段階で中温度領域8Eを別領域として分離するようにしてもよい。
Furthermore, as a simple discrimination method, the
そして、ステップS17では、このようにして分離された中温度領域8Eを車両外領域としてトラッキングの対象とし、以後時系列で追跡するようにする。
In step S17, the
一方、図13に示すようにあらかじめ歩行者領域520として抽出されている領域があり、それと同時に車両領域510が別途抽出されているようなケースについて説明する。なお、この図13は、3つのフレームの概略を時系列に並べて示したものである。
On the other hand, a case will be described in which there is a region that is extracted in advance as a
このような場合にも、時系列でそれぞれの領域をトラッキングし、ある時刻で歩行者領域520と車両領域510の2つの領域が交錯した場合には別領域として判別することができる。
Even in such a case, each area is tracked in time series, and when two areas of the
また、本実施の形態におけるトラッキングの際、時系列で連続的に判別された領域は、安定的、かつ確実に存在する物体領域である可能性が高い。 In addition, in the tracking in the present embodiment, it is highly likely that an area that is continuously determined in time series is an object area that exists stably and reliably.
このため、トラッキングをする際には、それぞれの領域に点数化された確信度を付与し、長時間(多フレーム)に亘って同一と思われる領域が抽出されるほど、その確信度の点数が増加していくようにすれば、なんらかの理由によってある時刻のフレームにおいてだけ領域が抽出されなかった場合でも、トラッキング対象を見失うことなく、安定的に抽出し続けることが可能となる。 For this reason, when tracking is performed, a certainty factor is given to each region, and as the region that seems to be the same over a long time (multiple frames) is extracted, the certainty factor score increases. By increasing the number, even if a region is not extracted only in a frame at a certain time for some reason, it is possible to continue to extract stably without losing sight of the tracking target.
このように本実施の形態の物体検出システム10は、画像の局所的な変化を捉える特徴点6及び横エッジ9を利用しているため、環境温度が歩行者52と同等になる夏季等においても、歩行者52と前方を走行する他車両51とを的確に判別することができる。
As described above, the
また、抽出された特徴点6の温度を検出し、高温度の特徴点6であれば歩行者52以外の物体であると容易に判別することが可能となる。
Further, the temperature of the extracted
さらに、自車両4の前方を走行する他車両51のマフラー部等の高温度の物体候補領域と、歩行者52と同程度の温度を持つマフラー部に隣接する領域やタイヤ部などの物体候補領域をグループ化することで、容易に他車両51と歩行者52とを区別することが可能となる。
Furthermore, a high temperature object candidate region such as a muffler portion of another
また、取得した熱画像50を格子状のメッシュ状領域71,・・・に分割する方法であれば、単純な領域分割とすることができて物体の出現可能性が高い領域の算出に要する計算コストを低減させることができる。また、これによってシステムコストの低減を図ることが可能となる。
In addition, if the method is to divide the acquired
さらに、縦方向の短冊状領域81,・・・を利用することで、他車両51の一部であるタイヤ部やテールランプ部の領域を容易に抽出することが可能となり、自車両4周辺の他車両51の検出性能を向上させることが可能となる。
Further, by using the strip-shaped
また、特徴点6,・・・の温度を分けて領域の点数化をすることで、中温度で撮像されることが多いタイヤ部やテールランプ部の抽出と、高温度で撮像されることが多いマフラー部とを別々に抽出することが可能となり、他車両51を構成部位に分けて抽出することが可能となる。
Also, by dividing the temperature of the feature points 6,... And scoring the areas, extraction of the tire part and tail lamp part that are often imaged at medium temperatures and imaging at high temperatures are often performed. The muffler part can be extracted separately, and the
これにより、車両を判別する際にマフラー部とタイヤ部といった構成部位を利用した簡易な車両モデルを利用することが可能となり、演算コストの低減を図ることができる。 This makes it possible to use a simple vehicle model that uses components such as a muffler part and a tire part when discriminating the vehicle, thereby reducing the calculation cost.
さらに、特徴点6,・・・を高温度の特徴点6と中温度の特徴点6と区別する際に、それぞれの分割領域をメッシュ状領域71と短冊状領域81として別々の形状とすることで、他車両51の両側に存在するタイヤ部を物体候補領域として検出する性能を向上させ、同時に、他車両51のマフラー部の検出性能を向上させることが可能となるので、他車両51の検出性能の向上を図ることができる。
Further, when distinguishing the feature points 6... From the high
また、方向エッジとして横エッジ9を利用するということは、他車両51を撮像した熱画像50に多く含まれ、かつ、抽出しやすい特徴量を認識処理に使うということである。そして、このような横エッジ9は、車両領域510全体を横切るように抽出されることが多い。
The use of the
このため同一車両に属する領域であれば、特徴点6により抽出された複数の物体候補領域を貫通、もしくは接するように横エッジ9が検出されるため、各領域の連結関係を判定することで車両領域510の抽出を容易に行うことが可能となり、計算コストの低減を図ることができる。
For this reason, if the region belongs to the same vehicle, the
また、点数化された各物体候補領域(高温度領域7、中温度領域8)を時系列でトラッキングすることで、なんらかの理由によってある時刻のフレーム(熱画像50)で点数が急激に低下した場合でも抽出された領域を見失うことなく、安定した検出が可能となる。
In addition, when the scored object candidate regions (
さらに、一台の他車両51として検出されてグループ化された車両領域510の内部に存在する高温度領域7や中温度領域8などの複数の領域を時系列でトラッキングすることで、本来、他車両51ではない別の物体が車両領域510に包含されてしまったような場合でも、車両領域510内部での各領域の位置関係に変化が現れた場合に、領域分割手段によってその領域をすぐに分離することが可能となる。このため、車両以外の物体を車両と区別して正確に検出することができる。
Furthermore, by tracking a plurality of regions such as the
また、車両外領域の分離に車両領域510内部での配置比率や、中温度領域8と高温度領域7との位置関係を用いることで、高精度に他車両51を検出することが可能となる。
In addition, the
さらに、ある時点で認識された車両領域510に、所定時間経過後に他の領域が重なった場合でも、それぞれの物体を混同することなく認識することが可能となり、高精度で他車両51を検出することができる。
Furthermore, even when another region overlaps the
また、1台の遠赤外線カメラ11で他車両51の検出をすることが可能になるため、物体間の距離を計測するために撮像するカメラを2台構成として三角測量の方式で距離を算出す方法に比べて、システムコストが低減できるうえに計算負荷も低減できる。
In addition, since it is possible to detect the
以下、前記した実施の形態の実施例1について図14を参照して説明する。なお、前記実施の形態で説明した内容と同一乃至均等な部分の説明については同一符号を付して説明する。 Hereinafter, Example 1 of the above-described embodiment will be described with reference to FIG. The description of the same or equivalent parts as those described in the above embodiment will be given the same reference numerals.
この実施例1では、前記実施の形態とは別の方法で特徴点6の点数化をおこなう。 In Example 1, the feature points 6 are scored by a method different from that of the above embodiment.
この実施例1の点数化では、特徴点6,・・・の抽出時に後述する強度をあわせて抽出し、その強度順に特徴点6,・・・を並べておき、上位50番目までを点数化に利用する。 In the scoring of the first embodiment, the strength points described later are extracted together when extracting the feature points 6,..., The feature points 6,. Use.
これにより、気温と対象温度が近接するような環境で、熱画像50中の温度分布が一様に近くなって温度抑揚が小さくなりやすい場合でも、特徴点6を安定して抽出できる。
Thereby, even in the environment where the air temperature and the target temperature are close to each other, the
逆に、熱画像50中の温度分布の幅が広くなって温度抑揚が大きくなった場合でも、強度の高い特徴点6のみを抽出する形となるため、特徴点6の過剰抽出を抑えることが可能になる。
On the other hand, even when the temperature distribution in the
ここで、特徴点6の強度について詳述すると、図14(a)〜(c)に示したような特徴点6C〜6Eを考えた場合、図14(a)の中心画素である特徴点6Cは、図14(b),図14(c)の中心画素である特徴点6D,6Eと比較すると周辺画素との輝度差が大きい特徴点6Cとなっている。
Here, the intensity of the
このような比較により、特徴点6C〜6Eの相対的な強度として、特徴点6Cが強い特徴点、特徴点6Dが中程度の強度を持つ特徴点、特徴点6Eが強度の弱い特徴点として分類することができる。
As a result of such comparison, the relative strengths of the feature points 6C to 6E are classified as feature points having a strong feature point 6C, feature points having a moderate
また別の方法として、特徴点6,・・・の輝度値を強度として任意の数にランク分けして各ランクに点数を与え、分割されたメッシュ状領域71,・・・又は短冊状領域81,・・・毎に特徴点6,・・・の点数の総和を算出するようにしてもよい。
As another method, the luminance values of the feature points 6,... Are classified into an arbitrary number as the intensity, and a score is given to each rank, and the divided
例えば、熱画像50中に特徴点6,・・・が300個抽出されたとして、特徴点6,・・・に対応する画素61の輝度値が大きい順に上位3分の1のグループに含まれる100個に3点、中位3分の1のグループに含まれる100個に2点、下位3分の1のグループに含まれる100個に1点を与える。
For example, if 300
なお、点数の重み付けの配分は、抽出目的とする物体の温度などの特性により変更してもよく、また、各グループに含まれる割合なども変更してもよい。 Note that the distribution of the weighting of the points may be changed according to characteristics such as the temperature of the object to be extracted, and the ratio included in each group may be changed.
このように特徴点6,・・・の強度に応じて重み付けをした点数を利用し、分割された画像領域(メッシュ状領域71,・・・又は短冊状領域81,・・・)毎に総点数を求めることで、特徴点6,・・・の数は多いが総点数が低い領域は物体候補領域ではないと判断することができる。
Thus, using the weighted points according to the intensity of the feature points 6,..., The total for each divided image region (mesh
この他の分割領域の点数化による物体候補領域の抽出方法としては、例えば、短冊状領域81を用いずに、高温度領域、中温度領域のいずれについてもメッシュ状領域71から抽出するようにしてもよい。
As another method for extracting object candidate regions by scoring other divided regions, for example, the high temperature region and the medium temperature region are extracted from the
この場合は、各メッシュ状領域71,・・・の点数化の際に、高温度の特徴点6,・・・に対応する得点と、中温度の特徴点6,・・・に対応する得点という二通りの点数を与える。
In this case, when scoring each mesh-
そして、高温度領域については上記と同様の方法によって抽出し、中温度の特徴点6,・・・が多く存在する中温度領域を抽出する際には、得点の高かったメッシュ状領域71を一旦、物体候補領域として抽出した後、それぞれのメッシュ状領域71,・・・を縦方向にチェックし、同じ縦列で物体候補領域が複数抽出されている場合には、最も上位に出現している領域と最も下位に出現している領域を上限と下限として連結することで、短冊状領域81による抽出と同じ効果を得ることができる。
Then, the high temperature region is extracted by the same method as described above, and when extracting the intermediate temperature region where there are many intermediate temperature feature points 6,... After extracting as object candidate areas, each mesh-
また反対に、短冊状領域81のみを点数化のための分割領域として利用し、高温度の特徴点6についても、中温度の特徴点6と同様の物体候補領域の抽出手法を利用することで、メッシュ状領域71による物体候補領域の抽出を模擬することも可能である。
On the other hand, only the strip-shaped
また、分割領域の点数化に際しては、画像全体の特徴点6,・・・に対しておこなう必要はなく、例えば高温度の特徴点6として画像の上部に出現する街灯が抽出されることがあり、このようにして発生しうるノイズ成分に対処するために画像の上部1/3を処理対象外にするなどしてもよい。 In addition, it is not necessary to score the feature points 6,... Of the entire image when scoring the divided areas. For example, street lamps appearing at the top of the image may be extracted as feature points 6 at high temperatures. In order to deal with the noise component that can be generated in this way, the upper third of the image may be excluded from the processing target.
なお、他の構成及び作用効果については、前記実施の形態と略同様であるので説明を省略する。 Other configurations and functions and effects are substantially the same as those in the above-described embodiment, and thus description thereof is omitted.
以下、前記した実施の形態の実施例2について図15を参照して説明する。なお、前記実施の形態で説明した内容と同一乃至均等な部分の説明については同一符号を付して説明する。 Hereinafter, Example 2 of the above-described embodiment will be described with reference to FIG. The description of the same or equivalent parts as those described in the above embodiment will be given the same reference numerals.
この実施例2では、車両領域510を抽出する方法について前記実施の形態とは別の熱画像に基づいて説明する。
In Example 2, a method for extracting the
図15(a)では、高温度領域7Eと中温度領域8G,8Hが離れているが、これらの領域は横エッジ9D,9E,9F,9Gで連結されているので、連結された領域を包含する領域を一台の車両領域510Bとして抽出する。
In FIG. 15A, the
また、図15(b)では中温度領域8が抽出されていないが、例えば他車両51が走り出したばかりであればタイヤ部が温まっていない場合もあり、高温度領域7Fと横エッジ9H,9Iのみが抽出されることもある。
In FIG. 15B, the
このような場合でも車両領域510Cとして抽出できるように、高温度領域7Fと横エッジ9H,9Iを包含するように設定された領域が画像中で所定の面積以上を持つ場合には高温部・エッジ連結判定手段により車両領域510Cであると判断して抽出をおこなう。
Even in such a case, when the region set to include the
また、本実施例2や前記実施の形態では、他車両51が自車両4と同一方向を向いて撮像された熱画像50について説明したが、熱画像50に横向きで他車両51が撮像された場合であっても、車両下部のマフラー部や車軸部が高温度領域7として抽出されることになるため、正確に他車両51を判別することができる。
Further, in the second embodiment and the above-described embodiment, the
なお、他の構成及び作用効果については、前記実施の形態又は他の実施例と略同様であるので説明を省略する。 Other configurations and functions and effects are substantially the same as those of the above-described embodiment or other examples, and thus description thereof is omitted.
以上、図面を参照して、本発明の最良の実施の形態及び実施例を詳述してきたが、具体的な構成は、この実施の形態に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。 The best embodiment and examples of the present invention have been described in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and the design does not depart from the gist of the present invention. Such modifications are included in the present invention.
例えば、前記実施の形態では、画像取得部1の熱画像取得手段としての遠赤外線カメラ11のみを使用した場合について説明したが、これに限定されるものではなく、可視光画像を取得する可視光カメラ(図示せず)を遠赤外線カメラ11と併せて使用することができる。
For example, in the above-described embodiment, the case where only the far-
この場合は、可視光カメラによって撮像された画像は、特徴点抽出部31で輝度差を利用して特徴点6を抽出する際や、方向エッジ抽出部36で横エッジ9などの方向エッジを抽出する際の画像データとして使用する。
In this case, from the image captured by the visible light camera, the feature
10 物体検出システム
1 画像取得部
11 遠赤外線カメラ(熱画像取得手段)
2 記憶部
3 演算部
31 特徴点抽出部(特徴点抽出手段)
32 特徴点温度検出部(特徴点温度検出手段)
33 画像分割部(画像分割手段)
34 分割領域点数化部(分割領域点数化手段)
35 物体領域抽出部(物体領域抽出手段)
36 方向エッジ抽出部(方向エッジ抽出手段)
37 車両判別部(車両判別手段)
4 自車両
50 熱画像
51 他車両(車両)
6 特徴点
7 高温度領域(物体候補領域)
71 メッシュ状領域(画像領域)
8 中温度領域(物体候補領域)
81 短冊状領域(画像領域)
9 横エッジ(方向エッジ)
510 車両領域
D1,D2 距離(位置関係)
DESCRIPTION OF
2 storage unit 3
32 feature point temperature detector (feature point temperature detection means)
33 Image segmentation unit (image segmentation means)
34 Divided area point scoring unit (divided area scoring means)
35 Object region extraction unit (object region extraction means)
36 Direction edge extraction unit (direction edge extraction means)
37 Vehicle discrimination section (vehicle discrimination means)
4
6
71 Mesh area (image area)
8 Medium temperature region (object candidate region)
81 Strip area (image area)
9 Horizontal edge (direction edge)
510 Distance between vehicle areas D1, D2 (positional relationship)
Claims (15)
前記熱画像取得手段又は少なくともエッジ検出が可能な画像を取得する画像取得手段により得られた画像から、周辺画素との輝度変化に基づいて特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された特徴点に対応する部位の温度を前記熱画像から検出する特徴点温度検出手段と、
前記熱画像を所定の領域に分割する画像分割手段と、
前記画像分割手段により分割されたそれぞれの画像領域において前記特徴点温度検出手段により検出された所定の温度を持つ特徴点が出現する頻度が高い領域を物体候補領域であるとして抽出する物体領域抽出手段と、
前記熱画像又は前記画像取得手段により取得された画像から所定の方向を持つ方向エッジを抽出する方向エッジ抽出手段と、
前記方向エッジと前記物体候補領域との連結関係に基づき前記熱画像のなかの車両を判別する車両判別手段とを有することを特徴とする物体検出システム。 Thermal image acquisition means for acquiring a thermal image around the host vehicle;
A feature point extracting means for extracting a feature point from an image obtained by the thermal image obtaining means or an image obtaining means for obtaining an image capable of at least edge detection based on a luminance change with a peripheral pixel;
Feature point temperature detection means for detecting a temperature of a part corresponding to the feature point extracted by the feature point extraction means from the thermal image;
Image dividing means for dividing the thermal image into predetermined regions;
Object region extraction means for extracting, as an object candidate region, an area where a feature point having a predetermined temperature detected by the feature point temperature detection means appears in each of the image areas divided by the image dividing means. When,
Direction edge extraction means for extracting a direction edge having a predetermined direction from the thermal image or the image acquired by the image acquisition means;
An object detection system comprising vehicle discriminating means for discriminating a vehicle in the thermal image based on a connection relationship between the direction edge and the object candidate region.
縦方向の帯状に分割した短冊状領域においては中温度の特徴点を利用し、格子状に分割したメッシュ状領域においては高温度の特徴点を利用することを特徴とする請求項1乃至3のいずれか1項に記載の物体検出システム。 The image dividing means generates two types of divided images in a vertical band shape and a lattice shape from one thermal image,
4. The feature point of medium temperature is used in the strip-shaped region divided into strips in the vertical direction, and the feature point of high temperature is used in the mesh-like region divided into grids. The object detection system according to any one of claims.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006078488A JP2007257133A (en) | 2006-03-22 | 2006-03-22 | Object detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006078488A JP2007257133A (en) | 2006-03-22 | 2006-03-22 | Object detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007257133A true JP2007257133A (en) | 2007-10-04 |
Family
ID=38631349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006078488A Pending JP2007257133A (en) | 2006-03-22 | 2006-03-22 | Object detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007257133A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146407A (en) * | 2007-12-13 | 2009-07-02 | Alpine Electronics Inc | Method and apparatus for segmenting object region |
KR20200083037A (en) * | 2018-12-31 | 2020-07-08 | (주)카탈로닉스 | Thermal imaging apparatus |
US11170272B2 (en) | 2019-08-08 | 2021-11-09 | Toyota Jidosha Kabushiki Kaisha | Object detection device, object detection method, and computer program for object detection |
CN113643386A (en) * | 2021-10-13 | 2021-11-12 | 深圳市商汤科技有限公司 | Calibration method and device, electronic equipment and computer readable storage medium |
WO2023093407A1 (en) * | 2021-11-25 | 2023-06-01 | 上海商汤智能科技有限公司 | Calibration method and apparatus, and electronic device and computer-readable storage medium |
-
2006
- 2006-03-22 JP JP2006078488A patent/JP2007257133A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146407A (en) * | 2007-12-13 | 2009-07-02 | Alpine Electronics Inc | Method and apparatus for segmenting object region |
KR20200083037A (en) * | 2018-12-31 | 2020-07-08 | (주)카탈로닉스 | Thermal imaging apparatus |
KR102277509B1 (en) * | 2018-12-31 | 2021-07-15 | (주)카탈로닉스 | Thermal imaging apparatus |
US11170272B2 (en) | 2019-08-08 | 2021-11-09 | Toyota Jidosha Kabushiki Kaisha | Object detection device, object detection method, and computer program for object detection |
CN113643386A (en) * | 2021-10-13 | 2021-11-12 | 深圳市商汤科技有限公司 | Calibration method and device, electronic equipment and computer readable storage medium |
CN113643386B (en) * | 2021-10-13 | 2022-02-22 | 深圳市商汤科技有限公司 | Calibration method and device, electronic equipment and computer readable storage medium |
WO2023093407A1 (en) * | 2021-11-25 | 2023-06-01 | 上海商汤智能科技有限公司 | Calibration method and apparatus, and electronic device and computer-readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
JP5127182B2 (en) | Object detection device | |
JP2008286725A (en) | Person detector and detection method | |
Reisman et al. | Crowd detection in video sequences | |
US10339396B2 (en) | Vehicle accessibility determination device | |
KR101498975B1 (en) | Lane Departure Warning System | |
KR101279712B1 (en) | Apparatus and method for providing real-time lane detection, recording medium thereof | |
CN108021856A (en) | Light for vehicle recognition methods, device and vehicle | |
JP4864043B2 (en) | Image processing apparatus, method, and program | |
KR102074073B1 (en) | Method for detecting vehicles and apparatus using the same | |
JP2007257133A (en) | Object detection system | |
JP4534700B2 (en) | Person detection apparatus and method | |
JP4548181B2 (en) | Obstacle detection device | |
JP5011268B2 (en) | Image detection apparatus and image detection method | |
JP5906856B2 (en) | Vehicle image recognition apparatus and vehicle image recognition method | |
JP6508134B2 (en) | Object discrimination device | |
Chakraborty et al. | Bangladeshi road sign detection based on YCbCr color model and DtBs vector | |
JP5212212B2 (en) | Passage detection program, passage detection device and method | |
Santos et al. | Learning to segment roads for traffic analysis in urban images | |
JP6375911B2 (en) | Curve mirror detector | |
KR20120098292A (en) | Method for detecting traffic lane | |
Wang et al. | Saliency detection using mutual consistency-guided spatial cues combination | |
JP2010271969A (en) | Traffic-lane detecting device | |
Zhang et al. | Road sign detection based on visual saliency and shape analysis | |
JP4842301B2 (en) | Pedestrian detection device and program |