JP3716623B2 - Thermal detector - Google Patents

Thermal detector Download PDF

Info

Publication number
JP3716623B2
JP3716623B2 JP19466998A JP19466998A JP3716623B2 JP 3716623 B2 JP3716623 B2 JP 3716623B2 JP 19466998 A JP19466998 A JP 19466998A JP 19466998 A JP19466998 A JP 19466998A JP 3716623 B2 JP3716623 B2 JP 3716623B2
Authority
JP
Japan
Prior art keywords
vehicle
pedestrian
image
warm body
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19466998A
Other languages
Japanese (ja)
Other versions
JP2000030197A (en
Inventor
昭 浅岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP19466998A priority Critical patent/JP3716623B2/en
Publication of JP2000030197A publication Critical patent/JP2000030197A/en
Application granted granted Critical
Publication of JP3716623B2 publication Critical patent/JP3716623B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車両の走行方向に存在する温体を正確に検出可能な温体検出装置に関する。
【0002】
【従来の技術】
従来の温体検出装置としては、図14に示す特開平7−200986号報に記載の「画像式歩行者検出装置」が報告されている。
【0003】
従来の温体検出装置においては、昼間はCCDカメラ141を用いて可視画像を撮像する一方、夜間は熱画像センサカメラ143を用いて温体画像を撮像し、映像信号切替器145を用いて入力画像を切り替えて画像処理部147に入力し、入力された画像を2値化した後、最新のフレーム画像の2値化データと以前のフレーム画像の2値化データとの差分を取ることで、撮影エリア内に物体あり、物体なし、物体退却、物体侵入の4つの状態に分類する。さらに、物体侵入、物体あり、物体退却の連続する撮像エリア内の領域のみに着目して、移動ベクトルを演算する。移動ベクトルの方向が、横断歩道と平行になるものは歩行者とみなす一方、垂直になるものは車両と見なして区別することで、歩行者と車両とを効果的に識別することができる。この結果、歩行者を検知したときには、出力部149から運転車に歩行者の存在注意を喚起される。
【0004】
【発明が解決しようとする課題】
従来の温体検出装置にあっては、カメラが固定された場所に設置され、処理画像が静止画である時にのみ歩行者の検知機能を発揮していた。
しかしながら、従来の温体検出装置を車両に搭載した場合、撮影エリア内の全ての対象物が移動物体として検出されるため、歩行者のみを区別して検出することが困難であり、撮影エリア内に物体あり、物体なし、物体退却、物体侵入といった4つの状態に分類することが不可能になる。
【0005】
また、カメラを車両上に装着して道路上を走行した場合、横断方向の歩行者の移動速度ベクトルに比較して、車両の移動速度が相対的に極めて大きいので、車両と歩行者とを移動ベクトルの方向を用いて区別することは困難である。
さらに、赤外線カメラで車両前方の道路を撮影した場合、輝度が高く入力される対象物としては、歩行者の顔の他に、対向車線を走行する車両のヘッドライト、ラジェター、また先行車のマフラ、ボディ、テールライト、さらに信号灯火、道路照明等があり、これらの外乱と歩行者の顔とは、形状,大きさのいずれにおいても類似しているため、両者を識別することが困難である。このため、温体として歩行者を検出しようとしても誤動作が多く、温体検出装置を警報システムに利用しても信頼性が著しく低下するといった問題があった。
【0006】
本発明は、上記に鑑みてなされたもので、その目的としは、外乱要因に影響されることなく、正確に歩行者を検出することができる温体検出装置を提供することにある。
【0007】
請求項1記載の発明は、上記課題を解決するため、車両の走行方向の熱源を有する温体画像を撮像する温体画像撮像手段と、車両の走行方向の可視画像を撮像する可視画像撮像手段と、車両の走行方向の他車両までの距離及び方向を検出する車両検出手段と、この他車両までの距離及び方向に基づいて、他車両の存在領域を抽出する車両抽出手段と、前記可視画像撮像手段で撮像された可視画像の輝度に基づいて、前記可視画像から発光する物体を抽出し、前記温体画像撮像手段で撮像された温体画像から前記発光する物体及び前記車両抽出手段で抽出された他車両の存在領域を除去する画像除去処理手段と、この除去処理結果として得られた温体画像に基づいて、歩行者の存在を検出する温体検出手段とを備えたことを要旨とする。
【0008】
請求項2記載の発明は、上記課題を解決するため、前記車両抽出手段は、前記他車両までの距離及び方向で表される複数の点群間の水平距離が所定値以下の点群同志をグループ化するグループ生成手段と、水平幅が所定値を超えるグループを車両グループとして選択するグループ選択手段と、この選択された車両グループの領域面積を高さ方向に拡張する面積拡張手段と、この拡張処理後の車両グループの領域に所定の輝度値を設定して車両の存在領域を生成する存在領域生成手段とを備えたことを要旨とする。
【0009】
請求項3記載の発明は、上記課題を解決するため、前記温体検出手段は、温体画像の画素群の面積が所定基準値を超える場合に歩行者と判断する面積判断手段と、温体画像の画素群に外接する四角形の縦横比率が所定範囲内の場合に歩行者と判断する縦横比率判断手段と、温体画像の画素群の単位面積当たりの高輝度画素率が所定範囲内の場合に歩行者と判断する高輝度画素率判断手段と、前記面積判断手段と縦横比率判断手段及び高輝度画素率判断手段での判断結果が全て歩行者である場合には、歩行者として判定する歩行者判定手段とを備えたことを要旨とする。
請求項4記載の発明は、上記課題を解決するため、前記車両検出手段は、レーザレーダ、ミリ波レーダ、ステレオカメラのいずれか1つを用いることを要旨とする。
【0010】
【発明の効果】
請求項1記載の本発明によれば、車両の走行方向の温体画像と可視画像を撮像しておき、車両の走行方向の他車両までの距離及び方向を検出するようにし、この他車両までの距離及び方向に基づいて、他車両の存在領域を抽出する。次に、この温体画像から可視画像及び他車両の存在領域を除去し、この除去処理結果として得られた温体画像に基づいて、歩行者の存在を検出するようにしているので、外乱要因に影響されることなく、正確に歩行者を検出することができる。
【0011】
請求項2記載の本発明によれば、他車両までの距離及び方向で表される複数の点群間の水平距離が所定値以下の点群同志をグループ化し、水平幅が所定値を超えるグループを車両グループとして選択する。次に、この選択された車両グループの領域面積を高さ方向に拡張し、この拡張処理後の車両グループの領域に所定の輝度値を設定して車両の存在領域を生成することで、車両の走行方向の他車両の存在領域を正確に抽出することができ、この結果、外乱要因の発生箇所を特定することができる。
【0012】
請求項3記載の本発明によれば、温体画像の画素群の面積が所定基準値を超える場合に歩行者と判断しておき、次に、温体画像の画素群に外接する四角形の縦横比率が所定範囲内の場合に歩行者と判断しておく。さらに、温体画像の画素群の単位面積当たりの高輝度画素率が所定範囲内の場合に歩行者と判断しておき、これらの判断結果が全て歩行者である場合には、歩行者として判定することで、歩行者の精度向上に寄与することができる。
【0013】
請求項4記載の本発明によれば、レーザレーダ、ミリ波レーダ、ステレオカメラのいずれか1つを用いて、車両の走行方向の他車両までの距離及び方向を検出することができ、この結果、他車両の存在領域を抽出して外乱要因の発生箇所を特定することができる。
【0014】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の一実施の形態に係る温体検出装置の全体構成を示す図である。
【0015】
温体検出装置は、図1に示すように、車両9前方のラジェターグリル11の奥部にはカメラユニット13が配置される。カメラユニット13には、車両前方の温体画像を撮像する赤外線カメラ1と、車両前方の可視画像を撮像する可視カメラ3と、車両の走行方向の他車両の距離及び方向を存在領域として検出するレーザレーダからなる車両検出部17とが配置されており、それぞれの出力はハーネス15を経由して車室内に配置された画像処理ユニット5に伝送される。
【0016】
画像処理ユニット5は、歩行者の存在を検知した場合には、警報部7に検知信号を送り、音、LED、映像等を使用した警報を発生して、歩行者に対する注意を運転者に喚起する。
【0017】
なお、カメラユニット13をラジェターグリル11部分に配置するよう説明しているが、車両のヘッドライト内部、バンパー部、フロントガラス部、ルーフ部等に配置してもよく、さらに、カメラユニット13の検知領域は、車両前方の他に車両後方であってもよい。
【0018】
また、赤外線カメラ1の水平,垂直の画角と、可視カメラ3の水平,垂直の画角は、予め光学的にあるいは拡大縮小処理により概ね合わされている。さらに、赤外線カメラ1の水平画角と車両検出部17とも予め上記処理により合わされていることとする。
【0019】
次に、図2は、温体検出装置のブロック図である。
温体画像は、赤外線カメラ1で撮像された後に、A/D変換器21で2次元の所定画素数の輝度を有するデジタル画像データに変換される。さらに、ウィンドウコンパレータ25で所定幅の輝度を有する画素のみが選択された後に、2値化部29で2値化される。
【0020】
一方、可視画像は、可視カメラ3で撮像された後に、A/D変換器23で2次元の所定画素数の輝度を有するデジタル画像データに変換される。さらに、ウィンドウコンパレータ27で所定幅の輝度を有する画素のみが選択された後に、2値化部31で2値化される。
【0021】
ここで、差分部33では、2値化部29から出力された温体画像から、2値化部31から出力された可視画像、車両検出部17から出力された先行車の存在領域画像が減算される。歩行者識別部35では、差分部33かの減算結果から得られた画像に歩行者が存在するか否かを識別し、歩行者が存在すると判断した場合には、警報部7に警報信号を出力する。この結果、警報部7から歩行者が存在していることへの注意が運転者に喚起される。
なお、画像処理ユニット5は、CPU,ROM,RAM等の電子部品から構成されており、上述したような機能ブロックを有している。
【0022】
次に、図1,図2,図4を参照しつつ、図3に示す画像処理ユニット5の動作を説明する。なお、画像処理ユニット5は、ROMに記憶されている制御プログラムに従って制御されることとする。
いま、図4に示すように、自車両前方には、自車線41の左前方に信号機51が設置されおり、自車線41上に先行車43が走行している。また、対向車線45上に対向車47がへッドライトを点灯して走行している。また、歩道60上に歩行者49が歩行している。
【0023】
まず、ステップSl0では、赤外線カメラ1からの温体画像をA/D変換器21でA/D変換し、2次元の所定画素数の輝度データに変換する。
次に、ステップS20では、ウィンドウコンパレータ25で所定幅の輝度値を有する画素のみを選択する。例えばダイナミックレンジが256階調の輝度データのうち歩行者の顔の輝度値が通常200程度であれば、輝度範囲190〜210内の輝度データのみを選択し、他の画素の輝度値は全て0に書き換える。また、別の方法として、全画素の輝度値の出現ヒストグラムを計測して生成しておき、所定画素数として例えば100個の画素のみを抽出するように所定幅の輝度を調整すれば、自動的に歩行者の顔の輝度データのみを抽出することも可能となる。
【0024】
次に、ステップS30では、ステップS20で得られた各画素のうち輝度データが0でない画素に対して全て輝度値255に書き換える。ここで、図5にステップS30の処理を経た温体画像を示す。赤外線カメラ1で撮像された温体画像であるので、熱源を有する温体画像のみが高輝度値255を有し、図5に示す黒色で塗りつぶした部位が高輝度値255の画素に対応する。図5に示すように、青信号の赤外像511、対向車のヘッドライトの赤外像521、歩行者の頭部491、歩行者の右手495、歩行者の左手493、先行車のテールライトの赤外像531、先行車のマフラの赤外像54が抽出されている。
【0025】
ステップS40では、可視カメラ3で撮像された可視画像をA/D変換器23でA/D変換し、2次元の所定画素数の輝度データに変換する。
ステップS50では、ウィンドウコンパレータ27により所定幅の輝度値を有する画素のみを選択する。
ステップS60では、ステップS50で得られた各画素のうち輝度データが0でない画素に対しては全て輝度値255に書き換える。ここで、図6にステップS60の処理を経た可視画像を示す。可視カメラ3で撮像された可視画像であるので、発光する物体のみが高輝度値255を有し、図6に示す黒色で塗りつぶした部位が高輝度値255の画素に対応する。図6に示すように、青信号の可視像513、対向車のヘッドライトの可視像523、先行車のテールライトの可視像533が抽出されている。この時、可視画像において、青信号の可視像513、対向車のヘッドライトの可視像523、先行車のテールライトの可視像533等の灯火は、空気中の粉塵により散乱し、いわゆるグレア現象を起すので、赤外線カメラ1で撮像された灯火より選択される領域が拡大される。
【0026】
ステップS70では、車両検出部17で車両前方の物体までの距離及び方向を検出してその値を取り込む。図7に示すように、車両検出部17で検出される距離点群は信号機51の支柱、先行車のテールライトおよびその間のトランク部分53、対向車のヘッドライト及びその間の部分52のそれぞれナンバープレート部分である。これら点群の距離Dは、信号機51の支柱はD3、先行車のテールライトおよびその間のトランク部分53のナンバープレート部分はDl、対向車のヘッドライトおよびその間の部分52のナンバープレート部分はD2と計測される。
【0027】
ステップS80では、ステップS70で得られた点群から、対象点群までの到達距離の差及びこの距離と方向とにより三角関数演算を用いて計算される点群間において、水平距離が所定値以下の点群同志をグループ化する。例えば、この所定値として水平方向の距離が0.1m以内、点群までの距離を0.1m以内に設定しておけば、次のステップS90での車両抽出処理を行うのに十分な分解能が得られる。
【0028】
ステップS90では、ステップS80で求めた各グループのうちから、グループの水平方向幅が所定値より大きいグループのみを選択する。例えば、各グループのうち水平方向幅が1.5m以上のグループのみを車両グループとして選択しておけば、少なくとも車両を確実に抽出することができる。
【0029】
ステップS100では、ステップS90で選択した車両グループの面積を予め計算しておいた車両グループの面積重心を原点として高さ方向のみ約6倍程度に拡張し、図7に示す領域A及びBに対して、輝度値を255に設定し、その他の領域の輝度値を0に設定する。ここで、面積を高さ方向に6倍に拡張するのは、車種によっては一般車両の車両グループよりも突出した部位にマフラが配置されていることも考えられるので、このような先行車をも車両グループに含めるためである。
【0030】
ステップSll0では、ステップS30で得られた温体画像からステップS60で得られた可視画像を各画素ごとに減算する。この減算結果が負の場合には減算結果を0に書き換える。この結果、図8に示すように、歩行者の頭部491、歩行者の右手495、歩行者の左手493、及び先行車のマフラ32が抽出され、青信号の赤外像511、対向車のヘッドライトの赤外像521、先行車のテールライトの赤外像531は除去される。さらに、この除去結果からステップS100で得られた先行車の存在領域を各画素ごとに減算を行ない、減算結果が負の場合は0に書き換える。この結果、図9に示すように、歩行者の頭部491、歩行者の右手495、歩行者の左手493が抽出され、先行車のマフラ54の赤外像は除去される。
【0031】
ステップS120では、ステップS110で抽出された画素群のうち、連続した領域を固まりとして順次にラベリングする。
ステップS130では、各ラベリングされた画素群の面積を計算する。
ステップS140では、各ラべリングされた画素群の重心を計算し、さらに重心位置を計算する。
ステップS150では、図10に示すように、紙面縦方向に領域A〜Eまでの5つの領域を予め設定しておき、ステップS140で計算された各画素群の重心位置から、各ラべリングされた画素群が領域A〜Eのうちどの領域に属するかを判別する。
【0032】
ステップS160では、ステップS130で計算した各ラベリングされた画素群の面積の大きさと、予め、各領域毎に基準値を設定してある歩行者の顔の面積の大きさとを比較し、歩行者の顔であると判断した場合は大きさ一致を表す大きさフラグを1に設定する一方、否と判断した場合には大きさフラグを0に設定する。この結果、歩行者の手は、歩行者の顔に対して小さいため排除される。従って、大きさフラグが1に設定される画素群は、歩行者の頭部491のみである。各領域毎に歩行者の顔の大きさの基準値を個別に設定することで、自車との距離に依存して見かけの大きさが変化する場合でも、歩行者の顔の大きさの比較を正確に行なえるようになる。
【0033】
ステップS170では、ステップS160で大きさフラグが1に設定された歩行者の頭部491に対して外接四角形の座標を計算する。
ステップS180では、図11に示すように、大きさフラグが1に設定された歩行者の頭部の外接四角形497に対して縦横比率、すなわち、外接四角形497の横長Aと縦長Bとの比率を計算する。
【0034】
ステップS190では、歩行者の頭部の外接四角形497の横長Aと縦長Bとの比が予め設定した所定範囲内であるか否かを判断する。所定範囲内である場合には縦横比率の一致を表す縦横比フラグを1に設定し、否であれば0を設定する。一般に、歩行者の顔は円形に近いので、縦横比が1に近い値が所定範囲のしきい値となる。
【0035】
ステップS200では、ステップS170で求めた外接四角形の座標に従って、面積を計算する。さらに、ステップS130で求めた歩行者の頭部491の面積との比を求めることで、対象の画素群に関する単位面積当たりの高輝度画素の比率、すなわち、充足率を計算する。
【0036】
ステップS210では、ステップS200で計算した充足率が予め設定した所定範囲内であるか否かを判断する。所定範囲内の場合には充足率が一致したことを表す充足率フラグを1に設定し、否であれば0を設定する。この結果、歩行者の顔のように画素密度が大きい画素群のみが選択される一方、画素密度が大きくない画素群は排除されるので、歩行者検出の精度を向上することができる。
【0037】
以上の処理結果として、外乱の熱源が存在していても、大きさ、形、充足率により、これらを排除することが可能である。ただし、先行車のマフラ54の赤外像は、歩行者の頭部491と、大きさ、形、充足率が概ね等しいため、ステップS160、ステップS190及びステップS210では排除できないが、予めステップS110で排除されているので、先行車のマフラ54の赤外像を、歩行者の頭部491と間違えることはない。
【0038】
ステップS220では、ステップS160で設定された大きさフラグ、ステップS190で設定された縦横比フラグ、ステップS210で設定された充足率フラグがいずれも1である画素群が存在する場合には、歩行者であると判定し、警報信号を警報部7に送る。この結果、警報部7から歩行者が存在していることへの注意が運転者に喚起される。警報部7にはブザー、インジケータ、モニタ等が備えられており、ブザーから警報音が発生され、インジケータから赤色の警報光が発生される。さらに、モニタからは画像処理ユニット5で抽出された歩行者の温体画像が表示される。この結果、運転者が警報音に気付いてモニタを見ると、歩行者の温体画像が表示されているので、歩行者の存在領域をも視認することができる。
【0039】
なお、本実施の形態においては、赤外線カメラ1及び可視カメラ3で撮像された温体画像及び可視画像を差分部33で単純に減算して差分処理とするように説明しているが、赤外線カメラ1及び可視カメラ3からの画像にはスミア現象と呼ばれる残像現象が生じることが考えられる。このスミア現象は、強い輝度信号がカメラに入力した時に発生するので、この現象を解消するまでの間、カメラの絞りを絞ることが有効である。また、スミア検出は、強い輝度信号が解消するまでの間、所定画素の輝度値の変化を検出すればよい。スミア現象の発生している時間に従って、差分部33に入力する映像の時間的遅れを調整することも可能である。また、スミア現象の発生している時間に従って、カメラの絞りを自動的に調節することも可能である。
【0040】
また、本実施の形態では、車両検出部17にレーザレーダ用いているが、これに替わって、ミリ波レーダに置き換えることも可能である。車両検出部17にミリ波レーダを使用した場合、図12に示すように、検出される距離点群は、ミリ波を良好に反射する金属板となる。この金属板は、例えば信号機51の支柱、先行車43の全体、及び対向車47の全体である。これら点群の距離Dは、信号機51の支柱がD3、先行車43がDl、対向車47がD2と計測される。
【0041】
さらに、車両検出部17に、ステレオカメラ法に置き換えたこともことも可能である。車両検出部17に、水平方向に所定距離を隔して配置される2台のカメラを使用し、両者の視差に基づいて、物体までの距離を測定する方法である。図13に示すように、検出される距離点群は、先行車43の全体、及び対向車47の全体である。このように、ステレオカメラ法では、計測ノイズを低減するため、小さい物体、あるいは細い物体を予め排除して距離演算を行えるため、車両のみを抽出することが可能となる。また、信号器51のように高い位置に配置される物体も、計測画角の設定により排除することが容易に可能である。これらの点群の距離Dは、先行車43がDl、対向車47がD2と計測される。
【0042】
さらにまた、車両検出部17に、超音波方式を用いる場合や、CCDからなる1ラインセンサで得られる画像信号を光学的三角測量を用いる場合も考えられる。
【0043】
また、車両の車速や、車両検出部17で検出される先行車との距離や、先行車との相対車速等を判断して、温体検出装置の作動条件を限定してもよい。
さらに、赤外線カメラ1で撮像される温体画像と可視カメラ3で撮像される可視画像とが光軸のずれ等に起因して完全に一致していなくても、本発明の効果を満足することができるため、精密な光軸調整のためのコスト高を防止することができる。
【0044】
さらにまた、灯火としては、信号機、対向車のヘッドライト、及び先行車のテールライトに限定しているが、道路の照明灯、家屋の照明等全ての発光体に関しても同様の効果が得られることはいうまでもない。
【図面の簡単な説明】
【図1】本発明の一実施の形態に係る温体検出装置の全体構成を示す図である。
【図2】温体検出装置のブロック図である。
【図3】画像処理ユニット5の動作を説明するためのフローチャートである。
【図4】温体検出装置の使用状況を説明するための図である。
【図5】赤外線カメラで撮像された温体画像を画像処理ユニット5で画像処理した結果を示す図である。
【図6】可視カメラで撮像された可視画像を画像処理ユニット5で画像処理した結果を示す図である。
【図7】レーザレーダで検出された距離及び方向を示す図である。
【図8】画像処理ユニット5で温体画像から可視画像を減算処理した結果を示す図である。
【図9】画像処理ユニット5で歩行者の温体画像のみが抽出された画像処理結果を示す図である。
【図10】画像処理ユニット5で画像処理に用いられる処理領域A〜Eを示す図である。
【図11】画像処理ユニット5で画像処理に用いられる歩行者の頭部を示す図である。
【図12】ミリ波レーダで検出される距離点群を示す図である。
【図13】ステレオカメラで検出される距離点群を示す図である。
【図14】従来の温体検出装置として報告されている画像式歩行者検出装置のブロック図である。
【符号の説明】
1 赤外線カメラ
3 可視カメラ
5 画像処理ユニット
7 警報部
9 車両
11 ラジェターグリル
13 カメラユニット
15 ハーネス
17 車両検出部
41 自車線
43 先行車
45 対向車線
47 対向車
49 歩行者
21,23 A/D変換器
25,27 ウィンドウコンパレータ
29,31 2値化部
33 差分部
35 歩行者識別部
51 信号機
52 対向車のヘッドライト
53 先行車のテールライト
54 先行車のマフラの赤外像
60 歩道
511 青信号の赤外像
513 青信号の可視像
521 対向車のヘッドライトの赤外像
523 対向車のヘッドライトの可視像
491 歩行者の頭部
493 歩行者の左手
495 歩行者の右手
497 歩行者の頭部の外接四角形
531 先行車のテールライトの赤外像
533 先行車のテールライトの可視像
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a warm body detection device capable of accurately detecting a warm body existing in the traveling direction of a vehicle.
[0002]
[Prior art]
As a conventional warm body detection device, an “image type pedestrian detection device” described in Japanese Patent Laid-Open No. 7-200906 shown in FIG. 14 has been reported.
[0003]
In a conventional warm body detection device, a visible image is captured using a CCD camera 141 during the daytime, while a thermal image is captured using a thermal image sensor camera 143 at night, and input using a video signal switch 145. By switching the image and inputting it to the image processing unit 147, and binarizing the input image, by taking the difference between the binarized data of the latest frame image and the binarized data of the previous frame image, Classification is made into four states: the presence of an object in the shooting area, the absence of an object, the retreat of an object, and the entry of an object. Further, the movement vector is calculated by paying attention only to the area within the imaging area where the object intrusion, the object exists, and the object retreats. A movement vector whose direction is parallel to the pedestrian crossing is regarded as a pedestrian, while a movement vector whose direction is vertical is regarded as a vehicle, so that the pedestrian and the vehicle can be distinguished effectively. As a result, when a pedestrian is detected, the output unit 149 alerts the driver vehicle to the presence of the pedestrian.
[0004]
[Problems to be solved by the invention]
In the conventional warm body detection device, the camera is installed in a fixed place, and the pedestrian detection function is exhibited only when the processed image is a still image.
However, when a conventional warm body detection device is mounted on a vehicle, since all objects in the shooting area are detected as moving objects, it is difficult to distinguish and detect only pedestrians. It becomes impossible to classify into four states, that is, an object, no object, object retreat, and object intrusion.
[0005]
Also, when the camera is mounted on the vehicle and the vehicle is traveling on the road, the moving speed of the vehicle is relatively large compared to the moving speed vector of the pedestrian in the transverse direction. It is difficult to distinguish using the vector direction.
Furthermore, when a road ahead of the vehicle is photographed with an infrared camera, the high-luminance input object includes the headlights, radiators, and mufflers of the preceding vehicle in the opposite lane as well as the face of the pedestrian. , Body, taillights, signal lights, road lighting, etc. These disturbances and the pedestrian's face are similar in both shape and size, so it is difficult to distinguish both . For this reason, even if it tried to detect a pedestrian as a warm body, there were many malfunctions, and there existed a problem that reliability would fall remarkably even if a warm body detection apparatus was utilized for an alarm system.
[0006]
The present invention has been made in view of the above, and an object of the present invention is to provide a warm body detection device capable of accurately detecting a pedestrian without being affected by disturbance factors.
[0007]
In order to solve the above-mentioned problem, the invention described in claim 1 is a thermal image capturing unit that captures a thermal image having a heat source in the traveling direction of the vehicle, and a visible image capturing unit that captures a visible image in the traveling direction of the vehicle. Vehicle detection means for detecting the distance and direction to the other vehicle in the traveling direction of the vehicle, vehicle extraction means for extracting the presence area of the other vehicle based on the distance and direction to the other vehicle, and the visible image An object that emits light is extracted from the visible image based on the luminance of the visible image captured by the image capturing unit, and is extracted by the vehicle extracting unit and the light emitting object from the warm body image captured by the warm body image capturing unit. The present invention includes an image removal processing means for removing the existing region of the other vehicle and a warm body detection means for detecting the presence of a pedestrian based on the warm body image obtained as a result of the removal processing. To do.
[0008]
According to a second aspect of the present invention, in order to solve the above-mentioned problem, the vehicle extracting means is configured to detect a point group in which a horizontal distance between a plurality of point groups represented by a distance and a direction to the other vehicle is a predetermined value or less. Group generation means for grouping, group selection means for selecting a group whose horizontal width exceeds a predetermined value as a vehicle group, area expansion means for extending the area of the selected vehicle group in the height direction, and this expansion The gist of the invention is that it includes presence region generation means for generating a vehicle presence region by setting a predetermined luminance value in the vehicle group region after processing.
[0009]
According to a third aspect of the present invention, in order to solve the above-described problem, the warm body detection unit includes an area determination unit that determines a pedestrian when an area of a pixel group of a warm body image exceeds a predetermined reference value, and a warm body Aspect ratio determining means for determining a pedestrian when the aspect ratio of a rectangle circumscribing a pixel group of an image is within a predetermined range, and a high luminance pixel rate per unit area of a pixel group of a thermal image is within a predetermined range it is determined that the pedestrian and the high luminance pixel rate determining means, when the area determining means and the aspect ratio determination means and determination result of the high luminance pixel ratio determining means are all pedestrian determines walking as a pedestrian The gist is provided with a person determination means.
In order to solve the above-mentioned problem, the gist of the present invention is that the vehicle detection means uses any one of a laser radar, a millimeter wave radar, and a stereo camera.
[0010]
【The invention's effect】
According to the first aspect of the present invention, a warm body image and a visible image in the traveling direction of the vehicle are captured, and the distance and direction to the other vehicle in the traveling direction of the vehicle are detected. Based on the distance and the direction, the existence area of the other vehicle is extracted. Next, the presence area of the visible image and the other vehicle is removed from the warm image, and the presence of the pedestrian is detected based on the warm image obtained as a result of the removal process. It is possible to accurately detect a pedestrian without being influenced by.
[0011]
According to the second aspect of the present invention, a group of point groups in which the horizontal distance between a plurality of point groups represented by the distance and direction to another vehicle is a predetermined value or less is grouped, and the horizontal width exceeds a predetermined value. As a vehicle group. Next, the area area of the selected vehicle group is expanded in the height direction, a predetermined luminance value is set in the area of the vehicle group after the expansion process, and a vehicle existence area is generated. It is possible to accurately extract the existence area of other vehicles in the traveling direction, and as a result, it is possible to specify the location where the disturbance factor occurs.
[0012]
According to the third aspect of the present invention, when the area of the pixel group of the warm body image exceeds a predetermined reference value, it is determined that the person is a pedestrian, and then a rectangular vertical and horizontal circumscribing the pixel group of the warm body image. If the ratio is within a predetermined range, it is determined that the person is a pedestrian. Furthermore, when the high luminance pixel rate per unit area of the pixel group of the thermal image is within a predetermined range, it is determined as a pedestrian, and when all of these determination results are pedestrians, it is determined as a pedestrian. By doing so, it is possible to contribute to improving the accuracy of pedestrians.
[0013]
According to the present invention as set forth in claim 4, the distance and direction to the other vehicle in the traveling direction of the vehicle can be detected by using any one of a laser radar, a millimeter wave radar, and a stereo camera. Then, the location where the other vehicle is present can be extracted to identify the location where the disturbance factor occurs.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an overall configuration of a warm body detection apparatus according to an embodiment of the present invention.
[0015]
As shown in FIG. 1, the warm body detection device has a camera unit 13 disposed in the back of a radiator grill 11 in front of the vehicle 9. The camera unit 13 detects the infrared camera 1 that captures a warm body image in front of the vehicle, the visible camera 3 that captures a visible image in front of the vehicle, and the distance and direction of the vehicle in the traveling direction of the vehicle as existing regions. A vehicle detection unit 17 composed of a laser radar is disposed, and each output is transmitted via the harness 15 to the image processing unit 5 disposed in the vehicle interior.
[0016]
When the image processing unit 5 detects the presence of a pedestrian, it sends a detection signal to the alarm unit 7 to generate an alarm using sound, LED, video, etc., to alert the driver to the pedestrian. To do.
[0017]
Although the camera unit 13 is described as being disposed in the radiator grille 11 portion, it may be disposed in the vehicle headlight, bumper portion, windshield portion, roof portion, and the like. The area may be the rear of the vehicle in addition to the front of the vehicle.
[0018]
In addition, the horizontal and vertical field angles of the infrared camera 1 and the horizontal and vertical field angles of the visible camera 3 are roughly matched in advance optically or by enlargement / reduction processing. Furthermore, it is assumed that the horizontal angle of view of the infrared camera 1 and the vehicle detection unit 17 are matched in advance by the above processing.
[0019]
Next, FIG. 2 is a block diagram of the warm body detection apparatus.
The warm body image is captured by the infrared camera 1 and then converted to digital image data having a predetermined two-dimensional luminance by the A / D converter 21. Further, after the window comparator 25 selects only pixels having a predetermined luminance, the binarization unit 29 binarizes the selected pixels.
[0020]
On the other hand, the visible image is captured by the visible camera 3 and then converted into digital image data having a two-dimensional predetermined number of pixels by the A / D converter 23. Further, after the pixel having only a predetermined luminance is selected by the window comparator 27, the pixel is binarized by the binarization unit 31.
[0021]
Here, in the difference unit 33, the visible image output from the binarization unit 31 and the presence vehicle image of the preceding vehicle output from the vehicle detection unit 17 are subtracted from the warm body image output from the binarization unit 29. Is done. The pedestrian identification unit 35 identifies whether or not there is a pedestrian in the image obtained from the subtraction result of the difference unit 33. If it is determined that there is a pedestrian, the pedestrian identification unit 35 sends an alarm signal to the alarm unit 7. Output. As a result, the driver is alerted from the alarm unit 7 that a pedestrian is present.
The image processing unit 5 is composed of electronic components such as a CPU, ROM, and RAM, and has the functional blocks as described above.
[0022]
Next, the operation of the image processing unit 5 shown in FIG. 3 will be described with reference to FIGS. The image processing unit 5 is controlled according to a control program stored in the ROM.
As shown in FIG. 4, a traffic light 51 is installed in front of the host lane 41 in front of the host vehicle 41, and a preceding vehicle 43 is traveling on the host lane 41. An oncoming vehicle 47 is traveling on the oncoming lane 45 with the headlights on. A pedestrian 49 is walking on the sidewalk 60.
[0023]
First, in step SlO, the warm body image from the infrared camera 1 is A / D converted by the A / D converter 21 and converted into two-dimensional luminance data having a predetermined number of pixels.
In step S20, the window comparator 25 selects only pixels having a luminance value with a predetermined width. For example, if the luminance value of a pedestrian's face is usually about 200 out of luminance data with a dynamic range of 256 gradations, only the luminance data within the luminance range 190 to 210 is selected, and the luminance values of the other pixels are all 0. Rewrite to As another method, if an appearance histogram of luminance values of all pixels is measured and generated, and the luminance of a predetermined width is adjusted so that, for example, only 100 pixels are extracted as the predetermined number of pixels, automatic It is also possible to extract only the luminance data of the pedestrian's face.
[0024]
Next, in step S30, all of the pixels obtained in step S20 are rewritten to the luminance value 255 for pixels whose luminance data is not 0. Here, the warm body image which passed through the process of step S30 is shown in FIG. Since it is a warm body image picked up by the infrared camera 1, only the warm body image having the heat source has a high luminance value 255, and the portion painted in black shown in FIG. 5 corresponds to the pixel of the high luminance value 255. As shown in FIG. 5, an infrared image 511 of a blue signal, an infrared image 521 of a headlight of an oncoming vehicle, a pedestrian's head 491, a pedestrian's right hand 495, a pedestrian's left hand 493, and a taillight of a preceding vehicle An infrared image 531 and an infrared image 54 of the muffler of the preceding vehicle are extracted.
[0025]
In step S40, the visible image captured by the visible camera 3 is A / D converted by the A / D converter 23 and converted into two-dimensional luminance data having a predetermined number of pixels.
In step S50, the window comparator 27 selects only pixels having a luminance value with a predetermined width.
In step S60, all of the pixels obtained in step S50 are rewritten to the luminance value 255 for pixels whose luminance data is not 0. Here, the visible image which passed through the process of step S60 is shown in FIG. Since it is a visible image captured by the visible camera 3, only the light emitting object has a high luminance value 255, and the portion painted black in FIG. 6 corresponds to the pixel of the high luminance value 255. As shown in FIG. 6, a visible image 513 of a green signal, a visible image 523 of a headlight of an oncoming vehicle, and a visible image 533 of a taillight of a preceding vehicle are extracted. At this time, in the visible image, lights such as the visible image 513 of the green light, the visible image 523 of the headlight of the oncoming vehicle, and the visible image 533 of the taillight of the preceding vehicle are scattered by dust in the air, so-called glare. Since the phenomenon occurs, the area selected from the lamp imaged by the infrared camera 1 is enlarged.
[0026]
In step S70, the vehicle detection unit 17 detects the distance and direction to the object in front of the vehicle and captures the values. As shown in FIG. 7, the distance point groups detected by the vehicle detection unit 17 are the license plate of the traffic light 51, the taillight of the preceding vehicle and the trunk portion 53 therebetween, the headlight of the oncoming vehicle and the portion 52 therebetween. Part. The distance D between these point groups is D3 for the column of the traffic light 51, D1 for the taillight of the preceding vehicle and the trunk portion 53 between them, and D2 for the headlight of the oncoming vehicle and the portion 52 between them. It is measured.
[0027]
In step S80, the horizontal distance is less than or equal to a predetermined value between the point groups calculated in step S70 using the trigonometric function calculation based on the difference in reach distance from the point group to the target point group and the distance and direction. Group point cloud comrades. For example, if the horizontal distance is set within 0.1 m and the distance to the point group is set within 0.1 m as the predetermined values, the resolution sufficient for performing the vehicle extraction process in the next step S90 is obtained. can get.
[0028]
In step S90, only the group whose group horizontal width is larger than a predetermined value is selected from the groups obtained in step S80. For example, if only a group having a horizontal width of 1.5 m or more is selected as a vehicle group among the groups, at least the vehicle can be reliably extracted.
[0029]
In step S100, the area of the vehicle group selected in step S90 is expanded to about 6 times only in the height direction using the area center of gravity of the vehicle group calculated in advance as an origin, and the areas A and B shown in FIG. Thus, the brightness value is set to 255, and the brightness values of the other areas are set to 0. Here, the reason why the area is expanded six times in the height direction is that a muffler may be arranged in a portion protruding from the vehicle group of a general vehicle depending on the vehicle type. This is because it is included in the vehicle group.
[0030]
In step SlO, the visible image obtained in step S60 is subtracted for each pixel from the warm body image obtained in step S30. When the subtraction result is negative, the subtraction result is rewritten to 0. As a result, as shown in FIG. 8, the pedestrian's head 491, the pedestrian's right hand 495, the pedestrian's left hand 493, and the muffler 32 of the preceding vehicle are extracted, and an infrared image 511 of a green signal, the head of the oncoming vehicle The infrared image 521 of the light and the infrared image 531 of the tail light of the preceding vehicle are removed. Further, the existence area of the preceding vehicle obtained in step S100 is subtracted for each pixel from the removal result, and is rewritten to 0 when the subtraction result is negative. As a result, as shown in FIG. 9, the pedestrian's head 491, the pedestrian's right hand 495, and the pedestrian's left hand 493 are extracted, and the infrared image of the muffler 54 of the preceding vehicle is removed.
[0031]
In step S120, continuous regions of the pixel group extracted in step S110 are sequentially labeled as a cluster.
In step S130, the area of each labeled pixel group is calculated.
In step S140, the center of gravity of each labeled pixel group is calculated, and the position of the center of gravity is further calculated.
In step S150, as shown in FIG. 10, five areas from area A to E are set in advance in the vertical direction of the paper, and each area is labeled from the barycentric position of each pixel group calculated in step S140. It is determined which of the areas A to E the pixel group belongs to.
[0032]
In step S160, the size of the area of each labeled pixel group calculated in step S130 is compared with the size of the area of the pedestrian's face for which a reference value is set in advance for each region. If it is determined that the face is a face, the size flag indicating the size match is set to 1, while if it is determined not, the size flag is set to 0. As a result, the hand of the pedestrian is excluded because it is small relative to the pedestrian's face. Therefore, the pixel group in which the size flag is set to 1 is only the pedestrian's head 491. By setting a standard value for the size of the pedestrian's face for each area, even if the apparent size changes depending on the distance from the vehicle, the size of the pedestrian's face can be compared. Can be done accurately.
[0033]
In step S170, the coordinates of the circumscribed rectangle are calculated for the head 491 of the pedestrian whose size flag is set to 1 in step S160.
In step S180, as shown in FIG. 11, the aspect ratio of the circumscribed rectangle 497 of the head of the pedestrian whose size flag is set to 1, that is, the ratio of the landscape A and the portrait B of the circumscribed rectangle 497 is set. calculate.
[0034]
In step S190, it is determined whether or not the ratio of the horizontally long A and the vertically long B of the circumscribed rectangle 497 of the pedestrian's head is within a predetermined range set in advance. If it is within the predetermined range, the aspect ratio flag indicating the coincidence of the aspect ratio is set to 1, and if not, 0 is set. In general, since the face of a pedestrian is close to a circle, a value with an aspect ratio close to 1 is a threshold value within a predetermined range.
[0035]
In step S200, the area is calculated according to the coordinates of the circumscribed rectangle obtained in step S170. Furthermore, by calculating the ratio with the area of the pedestrian's head 491 obtained in step S130, the ratio of high luminance pixels per unit area relating to the target pixel group, that is, the sufficiency rate is calculated.
[0036]
In step S210, it is determined whether or not the sufficiency rate calculated in step S200 is within a predetermined range set in advance. If it is within the predetermined range, a fullness flag indicating that the fullness is the same is set to 1, and if not, 0 is set. As a result, only a pixel group with a high pixel density, such as a pedestrian's face, is selected, while a pixel group with a low pixel density is excluded, so that the accuracy of pedestrian detection can be improved.
[0037]
As a result of the above processing, even if there is a heat source of disturbance, it is possible to eliminate them depending on the size, shape, and fullness. However, the infrared image of the muffler 54 of the preceding vehicle is substantially the same in size, shape, and fullness as the pedestrian's head 491, and thus cannot be excluded in steps S160, S190, and S210, but in advance in step S110. Therefore, the infrared image of the muffler 54 of the preceding vehicle is not mistaken for the head 491 of the pedestrian.
[0038]
In step S220, if there is a pixel group in which the size flag set in step S160, the aspect ratio flag set in step S190, and the fullness flag set in step S210 are all 1, a pedestrian The alarm signal is sent to the alarm unit 7. As a result, the driver is alerted from the alarm unit 7 that a pedestrian is present. The alarm unit 7 includes a buzzer, an indicator, a monitor, and the like. An alarm sound is generated from the buzzer, and red alarm light is generated from the indicator. Further, a pedestrian warm body image extracted by the image processing unit 5 is displayed from the monitor. As a result, when the driver notices the warning sound and looks at the monitor, the pedestrian's warm body image is displayed, so that the pedestrian's presence area can also be visually recognized.
[0039]
In the present embodiment, the warm body image and the visible image captured by the infrared camera 1 and the visible camera 3 are simply subtracted by the difference unit 33 to perform difference processing. It is considered that an afterimage phenomenon called a smear phenomenon occurs in the images from 1 and the visible camera 3. Since this smear phenomenon occurs when a strong luminance signal is input to the camera, it is effective to reduce the aperture of the camera until this phenomenon is resolved. The smear detection may be performed by detecting a change in the luminance value of a predetermined pixel until the strong luminance signal is eliminated. It is also possible to adjust the time delay of the video input to the difference unit 33 according to the time when the smear phenomenon occurs. It is also possible to automatically adjust the aperture of the camera according to the time when the smear phenomenon occurs.
[0040]
Further, in the present embodiment, a laser radar is used for the vehicle detection unit 17, but it can be replaced with a millimeter wave radar instead. When a millimeter wave radar is used for the vehicle detection unit 17, as shown in FIG. 12, the detected distance point group is a metal plate that favorably reflects the millimeter wave. This metal plate is, for example, the column of the traffic light 51, the entire preceding vehicle 43, and the entire oncoming vehicle 47. The distance D of these point groups is measured as D3 for the column of the traffic light 51, Dl for the preceding vehicle 43, and D2 for the oncoming vehicle 47.
[0041]
Furthermore, the vehicle detection unit 17 can be replaced with a stereo camera method. This is a method in which two cameras arranged at a predetermined distance in the horizontal direction are used as the vehicle detection unit 17 and the distance to the object is measured based on the parallax between the two cameras. As shown in FIG. 13, the detected distance point group is the entire preceding vehicle 43 and the entire oncoming vehicle 47. Thus, in the stereo camera method, in order to reduce measurement noise, a small object or a thin object can be excluded in advance and a distance calculation can be performed, so that only a vehicle can be extracted. Further, an object arranged at a high position such as the signal device 51 can be easily excluded by setting the measurement angle of view. The distance D of these point groups is measured as D1 for the preceding vehicle 43 and D2 for the oncoming vehicle 47.
[0042]
Furthermore, the case where an ultrasonic method is used for the vehicle detection unit 17 or the case where optical triangulation is used for an image signal obtained by a one-line sensor composed of a CCD is conceivable.
[0043]
Further, the operating condition of the warm body detection device may be limited by judging the vehicle speed, the distance from the preceding vehicle detected by the vehicle detection unit 17, the relative vehicle speed with respect to the preceding vehicle, and the like.
Furthermore, the effect of the present invention is satisfied even if the thermal image captured by the infrared camera 1 and the visible image captured by the visible camera 3 do not completely match due to a shift in the optical axis or the like. Therefore, high cost for precise optical axis adjustment can be prevented.
[0044]
Furthermore, the lights are limited to traffic lights, headlights of oncoming vehicles, and taillights of preceding vehicles, but the same effect can be obtained for all illuminants such as road lights and house lights. Needless to say.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a warm body detection apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram of a warm body detection apparatus.
FIG. 3 is a flowchart for explaining the operation of the image processing unit 5;
FIG. 4 is a diagram for explaining a use state of a warm body detection device.
FIG. 5 is a diagram illustrating a result of image processing performed on an image of a warm body image captured by an infrared camera by an image processing unit 5;
FIG. 6 is a diagram showing a result of image processing performed on a visible image captured by a visible camera by an image processing unit 5;
FIG. 7 is a diagram showing distances and directions detected by a laser radar.
FIG. 8 is a diagram showing a result of subtracting a visible image from a warm image in the image processing unit 5;
FIG. 9 is a diagram illustrating an image processing result in which only a pedestrian's warm body image is extracted by the image processing unit 5;
10 is a diagram showing processing areas A to E used for image processing in the image processing unit 5. FIG.
11 is a diagram showing a pedestrian's head used for image processing in the image processing unit 5. FIG.
FIG. 12 is a diagram showing a range of distance points detected by a millimeter wave radar.
FIG. 13 is a diagram showing a range of distance points detected by a stereo camera.
FIG. 14 is a block diagram of an image type pedestrian detection device reported as a conventional warm body detection device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Infrared camera 3 Visible camera 5 Image processing unit 7 Alarm part 9 Vehicle 11 Radar grill 13 Camera unit 15 Harness 17 Vehicle detection part 41 Own lane 43 Leading car 45 Oncoming lane 47 Oncoming lane 49 Pedestrian 21, 23 A / D converter 25, 27 Window comparators 29, 31 Binarization unit 33 Difference unit 35 Pedestrian identification unit 51 Traffic light 52 Headlight of oncoming vehicle 53 Taillight of preceding vehicle 54 Infrared image of muffler of preceding vehicle 60 Sidewalk 511 Infrared of blue signal Image 513 Blue signal visible image 521 Oncoming vehicle headlight infrared image 523 Oncoming vehicle headlight visible image 491 Pedestrian head 493 Pedestrian left hand 495 Pedestrian right hand 497 Pedestrian head Circumscribed square 531 infrared image 533 of the taillight of the preceding vehicle visible image of the taillight of the preceding vehicle

Claims (4)

車両の走行方向の熱源を有する温体画像を撮像する温体画像撮像手段と、
車両の走行方向の可視画像を撮像する可視画像撮像手段と、
車両の走行方向の他車両までの距離及び方向を検出する車両検出手段と、
この他車両までの距離及び方向に基づいて、他車両の存在領域を抽出する車両抽出手段と、
前記可視画像撮像手段で撮像された可視画像の輝度に基づいて、前記可視画像から発光する物体を抽出し、前記温体画像撮像手段で撮像された温体画像から前記発光する物体及び前記車両抽出手段で抽出された他車両の存在領域を除去する画像除去処理手段と、
この除去処理結果として得られた温体画像に基づいて、歩行者の存在を検出する温体検出手段とを備えたことを特徴とする温体検出装置。
A warm body image capturing means for capturing a warm body image having a heat source in the traveling direction of the vehicle;
Visible image capturing means for capturing a visible image of the traveling direction of the vehicle;
Vehicle detection means for detecting the distance and direction to the other vehicle in the traveling direction of the vehicle;
Vehicle extraction means for extracting the presence area of the other vehicle based on the distance and direction to the other vehicle;
Based on the luminance of the visible image captured by the visible image capturing unit, an object that emits light is extracted from the visible image, and the object that emits light and the vehicle are extracted from the warm body image captured by the warm image capturing unit. Image removal processing means for removing the presence area of the other vehicle extracted by the means;
A warm body detection apparatus comprising warm body detection means for detecting the presence of a pedestrian based on a warm body image obtained as a result of the removal process.
前記車両抽出手段は、
前記他車両までの距離及び方向で表される複数の点群間の水平距離が所定値以下の点群同志をグループ化するグループ生成手段と、
水平幅が所定値を超えるグループを車両グループとして選択するグループ選択手段と、
この選択された車両グループの領域面積を高さ方向に拡張する面積拡張手段と、
この拡張処理後の車両グループの領域に所定の輝度値を設定して車両の存在領域を生成する存在領域生成手段とを備えたことを特徴とする請求項1記載の温体検出装置。
The vehicle extraction means includes
A group generating means for grouping point groups having a horizontal distance between a plurality of point groups represented by a distance and a direction to the other vehicle below a predetermined value;
Group selection means for selecting a group having a horizontal width exceeding a predetermined value as a vehicle group;
Area expanding means for expanding the area of the selected vehicle group in the height direction;
2. The warm body detection device according to claim 1, further comprising presence region generation means for generating a vehicle presence region by setting a predetermined luminance value in the vehicle group region after the expansion processing.
前記温体検出手段は、
温体画像の画素群の面積が所定基準値を超える場合に歩行者と判断する面積判断手段と、
温体画像の画素群に外接する四角形の縦横比率が所定範囲内の場合に歩行者と判断する縦横比率判断手段と、
温体画像の画素群の単位面積当たりの高輝度画素率が所定範囲内の場合に歩行者と判断する高輝度画素率判断手段と、
前記面積判断手段と縦横比率判断手段及び高輝度画素率判断手段での判断結果が全て歩行者である場合には、歩行者として判定する歩行者判定手段とを備えたことを特徴とする請求項1記載の温体検出装置。
The warm body detecting means includes
Area determining means for determining a pedestrian when the area of the pixel group of the warm body image exceeds a predetermined reference value;
Aspect ratio determining means for determining a pedestrian when the aspect ratio of a rectangle circumscribing a pixel group of a thermal image is within a predetermined range;
A high-luminance pixel rate determination means for determining a pedestrian when the high-luminance pixel rate per unit area of the pixel group of the warm body image is within a predetermined range;
A pedestrian determination unit for determining as a pedestrian when all of the determination results by the area determination unit, the aspect ratio determination unit, and the high luminance pixel rate determination unit are pedestrians. The warm body detection device according to 1.
前記車両検出手段は、
レーザレーダ、ミリ波レーダ、ステレオカメラのいずれか1つを用いることを特徴とする請求項1記載の温体検出装置。
The vehicle detection means includes
The warm body detection apparatus according to claim 1, wherein any one of a laser radar, a millimeter wave radar, and a stereo camera is used.
JP19466998A 1998-07-09 1998-07-09 Thermal detector Expired - Fee Related JP3716623B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19466998A JP3716623B2 (en) 1998-07-09 1998-07-09 Thermal detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19466998A JP3716623B2 (en) 1998-07-09 1998-07-09 Thermal detector

Publications (2)

Publication Number Publication Date
JP2000030197A JP2000030197A (en) 2000-01-28
JP3716623B2 true JP3716623B2 (en) 2005-11-16

Family

ID=16328347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19466998A Expired - Fee Related JP3716623B2 (en) 1998-07-09 1998-07-09 Thermal detector

Country Status (1)

Country Link
JP (1) JP3716623B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509523B2 (en) 2004-07-26 2013-08-13 Tk Holdings, Inc. Method of identifying an object in a visual scene

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4267171B2 (en) * 1999-05-10 2009-05-27 本田技研工業株式会社 Pedestrian detection device
JP3987013B2 (en) 2003-09-01 2007-10-03 本田技研工業株式会社 Vehicle periphery monitoring device
JP4543861B2 (en) * 2004-09-30 2010-09-15 日産自動車株式会社 Person detection apparatus and method
DE102005056666B4 (en) 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP4234092B2 (en) 2004-11-30 2009-03-04 本田技研工業株式会社 Image processing device
JP4128562B2 (en) 2004-11-30 2008-07-30 本田技研工業株式会社 Vehicle periphery monitoring device
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP4242334B2 (en) 2004-11-30 2009-03-25 本田技研工業株式会社 Vehicle periphery monitoring device
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056647B4 (en) 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Vehicle environment monitoring device
JP4130434B2 (en) 2004-11-30 2008-08-06 本田技研工業株式会社 Abnormality detection device for imaging device
JP3970876B2 (en) 2004-11-30 2007-09-05 本田技研工業株式会社 Vehicle periphery monitoring device
JP4130435B2 (en) 2004-11-30 2008-08-06 本田技研工業株式会社 Abnormality detection device for imaging device
JP4094604B2 (en) 2004-11-30 2008-06-04 本田技研工業株式会社 Vehicle periphery monitoring device
JP4975379B2 (en) * 2006-06-16 2012-07-11 本田技研工業株式会社 Vehicle perimeter monitoring system
JP5195351B2 (en) * 2008-11-27 2013-05-08 トヨタ自動車株式会社 Vehicle periphery monitoring device
JP5215329B2 (en) * 2010-01-28 2013-06-19 本田技研工業株式会社 Vehicle periphery monitoring device
JP5642785B2 (en) * 2010-06-07 2014-12-17 本田技研工業株式会社 Vehicle periphery monitoring device
JP5480925B2 (en) * 2012-03-05 2014-04-23 本田技研工業株式会社 Vehicle periphery monitoring device
US9738253B2 (en) 2012-05-15 2017-08-22 Aps Systems, Llc. Sensor system for motor vehicle
WO2014033885A1 (en) * 2012-08-30 2014-03-06 富士通株式会社 Image processing device, image processing method, and image processing program
KR101729444B1 (en) * 2016-07-04 2017-04-24 강래호 Apparatus and method of acquiring traffic light information
JP7135579B2 (en) * 2018-08-20 2022-09-13 株式会社Soken Object detection device
CN110929636A (en) * 2019-11-20 2020-03-27 上海融军实业有限公司 Passenger flow size and direction detection method and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6171787A (en) * 1984-09-14 1986-04-12 Mitsubishi Heavy Ind Ltd Environmental video monitor device
JPH09128548A (en) * 1995-11-06 1997-05-16 Mitsubishi Motors Corp Vehicle detecting method
JPH09326096A (en) * 1996-06-06 1997-12-16 Nissan Motor Co Ltd Human obstacle detector for vehicle
JP3843502B2 (en) * 1996-09-30 2006-11-08 マツダ株式会社 Vehicle motion recognition device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509523B2 (en) 2004-07-26 2013-08-13 Tk Holdings, Inc. Method of identifying an object in a visual scene
US8594370B2 (en) 2004-07-26 2013-11-26 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
US9330321B2 (en) 2004-07-26 2016-05-03 Tk Holdings, Inc. Method of processing an image of a visual scene

Also Published As

Publication number Publication date
JP2000030197A (en) 2000-01-28

Similar Documents

Publication Publication Date Title
JP3716623B2 (en) Thermal detector
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
EP3480057B1 (en) Rear obstruction detection
TWI302879B (en) Real-time nighttime vehicle detection and recognition system based on computer vision
JP5883732B2 (en) Environment recognition device
KR101891460B1 (en) Method and apparatus for detecting and assessing road reflections
US20070221822A1 (en) Headlight, Taillight And Streetlight Detection
JP2003296736A (en) Device for detecting obstacle and method thereof
JP2014013449A (en) On-vehicle device
WO2013121357A1 (en) Time to collision using a camera
JP2008070979A (en) Onboard fog decision unit
JP2007057331A (en) In-vehicle system for determining fog
JP5051405B2 (en) Distance measuring device and distance measuring method
EP2347931A1 (en) Headlamp controller
JPH1139597A (en) Collision preventing device for vehicle
JPH08193831A (en) Apparatus for detecting approaching vehicle
JP4798576B2 (en) Attachment detection device
JP3598793B2 (en) Pedestrian detection alarm device
JP7261006B2 (en) External environment recognition device
JPH0927100A (en) Method and device for recognizing proceding vehicel and read-end collision preventive device equipped there with for vehicle
JP3988657B2 (en) Object detection device
Wu et al. A new vehicle detection with distance estimation for lane change warning systems
JP6378547B2 (en) Outside environment recognition device
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method
JP4334744B2 (en) Traffic flow measuring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090909

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100909

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100909

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110909

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees