JP2002329202A - Object detecting device - Google Patents
Object detecting deviceInfo
- Publication number
- JP2002329202A JP2002329202A JP2001130981A JP2001130981A JP2002329202A JP 2002329202 A JP2002329202 A JP 2002329202A JP 2001130981 A JP2001130981 A JP 2001130981A JP 2001130981 A JP2001130981 A JP 2001130981A JP 2002329202 A JP2002329202 A JP 2002329202A
- Authority
- JP
- Japan
- Prior art keywords
- information
- human body
- image
- determined
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、車輌等に搭載され
る物体検出装置に関し、特に赤外線式撮影手段を備え、
人や動物等の発熱物体を精度良く検出する物体検出装置
に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detecting device mounted on a vehicle or the like, and more particularly, to an object detecting device provided with an infrared type photographing means.
The present invention relates to an object detection device that accurately detects a heat-generating object such as a human or an animal.
【0002】[0002]
【従来の技術】物体検出装置としては、車輌前方の人
(人体)を検出し、運転者に注意を促す人体検出装置が
挙げられ、特開平9−326096号公報に開示される
ものがある。2. Description of the Related Art As an object detecting device, there is a human body detecting device which detects a person (human body) in front of a vehicle and alerts a driver, and there is one disclosed in Japanese Patent Application Laid-Open No. 9-326096.
【0003】この人体検出装置は、赤外線カメラを備
え、前記赤外線カメラから入力される赤外線画像におい
て、輝度値が特定の範囲内の画素を残すとともに連結す
る画素群を求め、この画素群の形状(連結した画素群)
が円形で、かつその形状が特定の大きさのものを人と判
断するものである。This human body detection device includes an infrared camera. In an infrared image input from the infrared camera, a pixel group whose luminance value is within a specific range is left and a connected pixel group is obtained, and the shape of the pixel group is determined. Connected pixel group)
Is a person whose shape is circular and whose shape is a specific size.
【0004】[0004]
【発明が解決しようとする課題】このような人体検出装
置において、人の温度や大きさに近い人以外の発熱物体
についても人と判定してしまう虞があり、信頼性の高い
人体判定ができず人体検出装置としての商品価値を低下
させてしまうといった問題を有していた。In such a human body detecting device, there is a possibility that a heat generating object other than a person close to the temperature or the size of the person may be determined as a person, and a highly reliable human body determination can be performed. There is a problem that the commercial value of the human body detecting device is lowered.
【0005】そこで、本発明は、前述した問題点に着目
し、赤外線式撮影手段を用いた物体検出装置において、
撮影手段からの画像情報に対して信頼性の高い判定処理
を行うことのできる物体検出装置を提供するものであ
る。Accordingly, the present invention focuses on the above-mentioned problems, and provides an object detecting device using infrared photographing means.
It is an object of the present invention to provide an object detection device capable of performing highly reliable determination processing on image information from a photographing unit.
【0006】[0006]
【課題を解決するための手段】本発明の物体検出装置
は、前記課題を解決するため、請求項1に記載のよう
に、車輌の前方風景を撮影する赤外線式撮影手段と、発
熱特性を有する第1の物体の形状特性に応じた第1の物
体情報と、前記第1の物体以外の第2,第3の物体の形
状特性に応じた第2,第3の物体情報を記憶する記憶手
段と、前記撮影手段から撮像される画像情報内において
被判定情報を定め、前記被判定情報に対して、予め記憶
された第1の物体情報と第2の物体情報とのどちらに近
似するのかを固有空間法に基づき比較する第1の判定処
理を行った後、前記第1の判定処理において前記第1の
物体情報に近似した前記被判定情報に対して、前記第1
の物体情報と第3の物体情報とのどちらに近似するのか
を固有空間法に基づき比較する第2の判定処理を行うこ
とにより、前記画像情報内における前記第1の物体を検
出する制御手段とを備えてなることを特徴とするもので
ある。In order to solve the above-mentioned problems, the object detecting apparatus of the present invention has an infrared photographing means for photographing a scene in front of a vehicle and has an exothermic characteristic. Storage means for storing first object information corresponding to the shape characteristics of the first object and second and third object information corresponding to the shape characteristics of the second and third objects other than the first object Determining the information to be determined in the image information picked up by the photographing means, and determining which of the first object information and the second object information stored in advance is closer to the determined information. After performing a first determination process for comparison based on the eigenspace method, the first determination process is performed on the determined information approximated to the first object information in the first determination process.
Control means for detecting the first object in the image information by performing a second determination process of comparing which of the object information and the third object information is closer to each other based on the eigenspace method. It is characterized by comprising.
【0007】また、請求項2に記載のように、請求項1
に記載の物体検出装置において、前記制御手段は、前記
画像情報から発熱物体の高温部分を抽出し、前記高温部
分の大きさが所定の大きさであるものに対して領域区分
し、領域内の情報を前記被判定情報として抽出してなる
ことを特徴とするものである。[0007] Also, as described in claim 2, claim 1
In the object detection device according to the above, the control unit extracts a high-temperature portion of the heat-generating object from the image information, classifies the high-temperature portion into a region having a predetermined size, Information is extracted as the information to be determined.
【0008】また、請求項3に記載のように、請求項1
または請求項2に記載の物体検出装置において、前記記
憶手段は、前記撮影手段から撮像される画像情報内の前
回の被判定情報の人体判定結果を記憶するとともに、前
記制御手段は、新たに撮像されて得た今回の被判定情報
において、少なくとも前回の前記人体判定結果に基づい
て、前記第1の物体であるのか否かを判定する第3の判
定処理を行うことを特徴とするものである。[0008] Also, as described in claim 3, claim 1
Alternatively, in the object detection device according to claim 2, the storage unit stores a human body determination result of the previous determination target information in the image information captured by the imaging unit, and the control unit newly performs image capturing. A third determination process for determining whether or not the object is the first object is performed based on at least the previous human body determination result in the current determination target information obtained as described above. .
【0009】また、請求項4に記載のように、請求項1
から請求項3のいずれかに記載の物体検出装置におい
て、前記画像情報を表示する表示手段を備え、前記制御
手段は前記表示手段の表示において前記第1の物体の形
状を強調表示するように制御してなることを特徴とする
ものである。Further, as described in claim 4, claim 1 is
4. The object detection device according to claim 3, further comprising a display unit configured to display the image information, wherein the control unit controls the display unit to highlight the shape of the first object. It is characterized by becoming.
【0010】また、請求項5に記載のように、請求項1
から請求項4のいずれかに記載の物体検出装置におい
て、前記記憶手段は、人,動物の形状特性に応じた第1
の物体情報を記憶してなることを特徴とするものであ
る。[0010] Further, as described in claim 5, claim 1 is
5. The object detection device according to claim 1, wherein the storage unit stores the first and second shapes according to a shape characteristic of a person or an animal.
In which the object information is stored.
【0011】[0011]
【発明の実施の形態】以下、本発明の実施の形態を添付
図面に基づき説明する。Embodiments of the present invention will be described below with reference to the accompanying drawings.
【0012】以下、物体検出装置として車輌に搭載され
る人体検出装置を例に挙げて説明する。図1において、
人体検出装置1は、赤外線カメラ(赤外線式撮影手段)
2と、画像処理手段(制御手段)3と、画像表示手段4
と、警報手段5とから構成されている。Hereinafter, a human body detecting device mounted on a vehicle will be described as an example of the object detecting device. In FIG.
The human body detection device 1 is an infrared camera (infrared imaging means)
2, image processing means (control means) 3, image display means 4
And an alarm means 5.
【0013】赤外線カメラ2は、車輌(例えば、自動
車)6内のフロントグリルやフロントバンパー等に配設
される。赤外線カメラ2は、図2に示すように、例えば
240画素×320画素からなる撮像エリア7を有して
いる。The infrared camera 2 is disposed on a front grill, a front bumper, and the like in a vehicle (for example, an automobile) 6. As shown in FIG. 2, the infrared camera 2 has an imaging area 7 composed of, for example, 240 pixels × 320 pixels.
【0014】画像処理手段3は、車輌6から所定距離離
れた位置の人体(発熱物体)8を検出するものであっ
て、赤外線カメラ2の撮像エリア7に基づく画像データ
(画像情報)から後述する処理によって人体8である発
熱物体を検出するための制御手段であり、マイクロコン
ピュータによって構成されている。The image processing means 3 detects a human body (heating object) 8 located at a predetermined distance from the vehicle 6 and will be described later based on image data (image information) based on the imaging area 7 of the infrared camera 2. This is control means for detecting a heat-generating object as the human body 8 by processing, and is constituted by a microcomputer.
【0015】画像表示手段4は、例えば、バックライト
付き液晶表示装置から構成され、前記液晶表示装置から
の表示光となる人体8の映像をフロントガラス9に投影
する、所謂ヘッドアップディスプレイであり、車輌6内
の運転者10は、前記映像を前方風景から視線を逸らさ
なくとも視認できるものである。The image display means 4 is, for example, a so-called head-up display which is constituted by a liquid crystal display device with a backlight and projects an image of a human body 8 as display light from the liquid crystal display device onto a windshield 9. The driver 10 in the vehicle 6 can visually recognize the image without deviating his / her eyes from the scenery ahead.
【0016】警報手段5は、ランプやLED,ブザー等
によって構成されるものである。画像処理手段3は、赤
外線カメラ2の撮像エリア7内に、人体8が存在すると
判断すると、所定の駆動信号を警報手段5に出力し動作
させる。The alarm means 5 is constituted by a lamp, an LED, a buzzer and the like. When the image processing means 3 determines that the human body 8 exists in the imaging area 7 of the infrared camera 2, it outputs a predetermined drive signal to the alarm means 5 to operate.
【0017】以上の各部によって人体検出装置1が構成
される。The above components constitute the human body detecting device 1.
【0018】次に、図3から図7を用いて、人体検出装
置1の画像処理手段3における処理手順を説明する。Next, a processing procedure in the image processing means 3 of the human body detecting device 1 will be described with reference to FIGS.
【0019】画像処理手段3は、赤外線カメラ2から撮
像エリア7に基づく画像情報を入力する(ステップS
1)。The image processing means 3 inputs image information based on the imaging area 7 from the infrared camera 2 (step S).
1).
【0020】画像処理手段3は、赤外線カメラ2によっ
て検出される所定範囲の画像情報について2値化処理を
実行し、周囲温度よりも高温となる発熱領域である第1
の画像データ(高温部分)11と、非発熱領域となる第
2の画像データ12とに分類する(ステップS2)。The image processing means 3 executes a binarization process on a predetermined range of image information detected by the infrared camera 2, and is a first heat-generating region having a temperature higher than the ambient temperature.
(High-temperature portion) 11 and second image data 12 serving as a non-heat-generating region (step S2).
【0021】次に画像処理手段3は、第1の画像データ
11の大きさの判定を行うべく、画素単位で連結する第
1の画像データ11をグループ分けし、このグループ分
けされた第1の画像データ11の輪郭に接触する包囲領
域13(例えば外接長方形)を生成する(ステップS
3)。なお、画像処理手段3の抽出結果を図4に示す。Next, the image processing means 3 groups the first image data 11 to be connected on a pixel-by-pixel basis to determine the size of the first image data 11, and A surrounding area 13 (for example, a circumscribed rectangle) that contacts the contour of the image data 11 is generated (Step S)
3). FIG. 4 shows an extraction result of the image processing means 3.
【0022】画像処理手段3は、第1の画像データの大
きさの判定において、ノイズとなる風景が含まれている
ことを想定する判定を行うものであって、例えば、包囲
領域13の長辺が4画素以下の微少領域となる第1の画
像データ11や、包囲領域13の長辺が32画素以上の
矩形領域となる第1の画像データ11を除去する判定で
ある。即ち、包囲領域13の第1の画像データにおい
て、周囲温度よりも高温となる物体の内、明らかに判定
対象外の大きさを有する第1の画像データ11を除去す
ることができる。The image processing means 3 performs a determination assuming that a scene that becomes a noise is included in the determination of the size of the first image data. Is a determination to remove the first image data 11 that is a small area of 4 pixels or less and the first image data 11 that is a rectangular area whose long side of the surrounding area 13 is 32 pixels or more. That is, in the first image data of the surrounding area 13, the first image data 11 having a size clearly outside the determination target can be removed from the object having a temperature higher than the ambient temperature.
【0023】画像処理手段3は、前述した判定におい
て、包囲領域13の長辺の長さXが、4画素より大きく
32画素より小さい値(4<X<32)となる包囲領域
13だけを人体8として選定するもので、この範囲に含
まれない包囲領域13は除去される(ステップS4)。
なお、前記微少領域と前記矩形領域との除去に関する画
素数は、赤外線カメラ2から人体8までの距離や、赤外
線カメラ2の画素構成等によって異なる。In the above-described determination, the image processing means 3 determines that only the surrounding region 13 in which the length X of the long side of the surrounding region 13 is a value larger than 4 pixels and smaller than 32 pixels (4 <X <32) is used as a human body. 8 and the surrounding area 13 not included in this range is removed (step S4).
The number of pixels related to the removal of the minute area and the rectangular area differs depending on the distance from the infrared camera 2 to the human body 8, the pixel configuration of the infrared camera 2, and the like.
【0024】次に画像処理手段3は、ステップS2にお
いて、除去されずに残った包囲領域13において、連結
成分における重心を算出し、この重心を中心とした、例
えば、図5に示すように、32画素×32画素の切り出
し領域を生成することにより被判定情報14を設定し、
被判定情報14が撮像エリア内の画像情報中に幾つの被
判定情報14を有していたのかをカウントし、後述する
人体選定判定を行う被判定情報14の数(判定回数)と
してNに入力するとともに、実行回数nのカウント値を
初期化(n←0)する(ステップS5)。Next, in step S2, the image processing means 3 calculates the center of gravity of the connected component in the surrounding area 13 which has not been removed, and centers the center of gravity on this connected center, for example, as shown in FIG. By generating a cutout area of 32 pixels × 32 pixels, the determined information 14 is set,
It counts how many pieces of the information to be determined 14 are included in the image information in the imaging area, and inputs the number of pieces of the information to be determined 14 (the number of times of determination) for performing the human body selection determination described below to N. At the same time, the count value of the number of executions n is initialized (n ← 0) (step S5).
【0025】次に画像処理手段3は、被判定情報数Nと
実行回数nを比較することによって、被判定情報14の
すべてが人体選定判定されたか否かを判定し(ステップ
S6)、実行回数nが被判定情報数Nに達していない場
合は、ステップS6からステップS19の人体選定判定
処理を実行する。Next, the image processing means 3 determines whether or not all of the information to be determined 14 has been subjected to human body selection determination by comparing the number of information to be determined N with the number of executions n (step S6). If n does not reach the number N of information to be determined, the human body selection determination processing from step S6 to step S19 is executed.
【0026】画像処理手段3は、被判定情報14に対す
る物体が、前回の画像情報入力時に、人体選定判定され
たか否かを判定する(ステップS7)。この場合、画像
処理手段3は、前回の画像情報を入力した際に得た被判
定情報14の中に、今回の画像情報を入力しステップS
5にて設定された被判定情報14の位置と同じ、もしく
は近い位置データを後述する記憶手段が記憶しているか
否かを判定するものである。また、画像処理手段3は、
ステップS7にて、被判定情報14が前回に人体選定判
定処理されている場合は、前回の被判定情報14の人体
判定カウンタ(人体判定結果)Cの値を今回の被判定情
報14の人体判定回数Cに入力し(ステップS8)、ス
テップS6にて、被判定情報14が前回に人体選定判定
処理されていないものである場合は、人体判定カウンタ
Cのカウンタ値を初期化(C←0)する(ステップS
9)。The image processing means 3 determines whether or not the object corresponding to the determination target information 14 has been subjected to the human body selection determination at the time of the previous input of the image information (step S7). In this case, the image processing means 3 inputs the current image information into the determined information 14 obtained when the previous image information was input, and proceeds to step S
This is to determine whether or not the storage means described later stores position data that is the same as or close to the position of the determination target information 14 set in step 5. Further, the image processing means 3
In step S7, if the to-be-determined information 14 has been subjected to the human body selection determination processing last time, the value of the human body determination counter (human body determination result) C of the previous to-be-determined information 14 is changed to the human body determination of the current to-be-determined information 14. It is input to the number of times C (step S8), and in step S6, if the to-be-determined information 14 has not been subjected to the human body selection determination processing last time, the counter value of the human body determination counter C is initialized (C ← 0). (Step S
9).
【0027】次に画像処理手段3は、被判定情報14
が、予め記憶された人体8の特徴を表す少なくとも1つ
の固有空間(以下、第1の物体情報と記す)と、背景
(風景)の特徴を表す少なくとも1つの固有空間(以
下、第2の物体情報と記す)との何れに類似しているか
を判定する(ステップS10)。Next, the image processing means 3 outputs the information to be determined 14
Are at least one eigenspace (hereinafter, referred to as first object information) representing features of the human body 8 stored in advance, and at least one eigenspace (hereinafter, second object) representing features of the background (landscape). (Hereinafter referred to as information) is determined (step S10).
【0028】ステップS10における判定処理(第1の
判定処理)について図6を用いて説明する。なお、以下
の説明は、固有空間を2次元的に表したものである。The determination process (first determination process) in step S10 will be described with reference to FIG. In the following description, the eigenspace is represented two-dimensionally.
【0029】画像処理手段3は、画像データ,位置デー
タ,大きさ,人体判定回数Cなどの情報を有する被判定
情報14が、画像処理手段3に設けられるROMやEE
PROM等からなる記憶手段(図示しない)に予め記憶
された人体認識用の第1の物体情報P1と、背景認識用
の第2の物体情報P2とのどちらかに類似しているかを
判定するものである。The image processing means 3 stores information to be determined 14 including information such as image data, position data, size, and the number of times of human body determination C in a ROM or EE provided in the image processing means 3.
To determine whether the first object information P1 for human body recognition or the second object information P2 for background recognition previously stored in a storage means (not shown) such as a PROM or the like is similar. It is.
【0030】すなわち、画像処理手段3は、被判定情報
14を第1,第2の物体情報P1,P2に投影した際の
第1,第2ベクトルp1,p2の大きさ(図6において
は長さとなる)を所定の演算によって求め、この各ベク
トルp1,p2の大きさを比較することによって、被判
定情報14が人体認識用の第1の物体情報P1と背景認
識用の第2の物体情報P2との何れに近い画像データで
あるかを求め、人体8かあるいは背景かを判定するもの
である。なお、画像処理手段3に予め記憶されている各
物体情報P1,P2は、車輌6と人体8との距離が所定
距離(例えば、80m)離れた位置における人体8及び
背景の固有空間である。That is, the image processing means 3 determines the magnitudes of the first and second vectors p1 and p2 when projecting the information to be determined 14 onto the first and second object information P1 and P2 (lengths in FIG. Is determined by a predetermined calculation, and the magnitudes of the vectors p1 and p2 are compared, so that the determined information 14 is the first object information P1 for human body recognition and the second object information P1 for background recognition. P2 is determined as to which image data the image data is closer to, and it is determined whether the image data is the human body 8 or the background. The object information P1 and P2 stored in the image processing means 3 in advance are the eigenspace of the human body 8 and the background at a position where the distance between the vehicle 6 and the human body 8 is a predetermined distance (for example, 80 m).
【0031】また、画像処理手段4は、ステップS10
の判定処理において、被判定情報14が第1の物体情報
に近似する、つまり人体に近い形状特性を有すると判断
された場合、被判定情報14が、予め記憶された人体8
の特徴を示す少なくとも1つの固有空間(第1の物体情
報)と、第1,第2の物体情報以外の物体の特徴を表す
少なくとも1つの固有空間(以下、第3の物体情報と記
す)との何れに類似しているかを判定する(ステップS
11)。なお、この場合、画像処理手段3は、信号機や
電柱等の形状特性を第3の物体情報として記憶手段に予
め記憶するものである。Further, the image processing means 4 determines in step S10
In the determination process of the above, when it is determined that the determined information 14 is close to the first object information, that is, it has a shape characteristic close to a human body, the determined information 14 is stored in the human body 8 stored in advance.
And at least one eigenspace (hereinafter, referred to as third object information) representing characteristics of an object other than the first and second object information. Is determined (step S
11). Note that, in this case, the image processing means 3 preliminarily stores the shape characteristics of the traffic light, the electric pole and the like as the third object information in the storage means.
【0032】なお、ステップS11における判定処理
(第2の判定処理)は、ステップS10の処理方法と同
様であるため詳細な説明は省く。The determination processing (second determination processing) in step S11 is the same as the processing method in step S10, and thus a detailed description is omitted.
【0033】次に画像処理手段3は、ステップS11の
判定処理において、被判定情報14が第1の物体情報に
近い、つまり人体8に近い形状特性を有すると判断した
場合、人体判定回数Cのカウント値をインクリメント
(C←C+1)する(ステップS12)。Next, when the image processing means 3 determines in the determination processing in step S11 that the information to be determined 14 has a shape characteristic close to the first object information, that is, has a shape characteristic close to the human body 8, the image processing means 3 The count value is incremented (C ← C + 1) (step S12).
【0034】次に、画像処理手段3は、記憶手段に被判
定情報14の画像データ,位置データ,大きさ,人体判
定回数Cを記憶させた後(ステップS13)、同じ物体
に対して過去3回の画像情報入力時に、人体選定判定さ
れているか否かを判定する(ステップS14)。この場
合、画像処理手段3は、過去3回の画像情報を入力した
際に得た被判定情報14の中に、今回画像情報を入力し
ステップS4にて抽出されステップS13にて記憶され
た被判定情報14の位置に近い位置データを有するもの
があるのか否かを判定するものである。Next, the image processing means 3 stores the image data, the position data, the size, and the number of times of human body determination C of the information to be determined 14 in the storage means (step S13). At the time of inputting the image information twice, it is determined whether or not the human body selection has been determined (step S14). In this case, the image processing means 3 inputs the current image information into the determined information 14 obtained when the past three times of the image information are input, extracts the image information in the step S4, and stores the image information in the step S13. This is to determine whether or not there is any data having position data close to the position of the determination information 14.
【0035】画像処理手段3は、ステップS14におい
て、同じ物体に対して過去3回の画像情報入力時に、人
体選定判定されていない場合は、被判定情報14に対応
する物体が人体8の候補であると認識する(ステップS
15)。また、画像処理手段3は、被判定情報14に対
応する物体に対して、過去3回以上の人体選定判定され
ている場合は、第3の判定処理として、被判定情報14
の人体判定回数Cが2以上であるか否かを判定し(ステ
ップS16)、人体判定回数Cが2以上であれば被判定
情報14に対応する物体が人体8であるとして認識し
(ステップS17)、人体判定回数Cが2未満であれ
ば、被判定情報14に対応する物体が人体8以外の物体
であるとして認識するものである。In step S14, if the human body selection has not been determined in the past three times of inputting the image information for the same object, the object corresponding to the determined information 14 is a candidate for the human body 8 in step S14. (Step S
15). If the object corresponding to the information 14 to be determined has been selected three or more times in the past for the object corresponding to the information 14 to be determined, the image processing means 3 performs the third determination process as the third determination process.
It is determined whether or not the number of human body determinations C is 2 or more (step S16). If the number of human body determinations C is 2 or more, it is recognized that the object corresponding to the determined information 14 is the human body 8 (step S17). If the number of times of human body determination C is less than 2, the object corresponding to the information to be determined 14 is recognized as an object other than the human body 8.
【0036】また、画像処理手段3は、実行回数nをイ
ンクリメント(n←n+1)し(ステップS19)、ス
テップS6において、被判定情報数Nと実行回数nを比
較する際に、被判定情報14のすべてが人体選定判定さ
れたと判断されるまで、画像情報中の被判定情報14に
ついて、ステップS6からステップS19までの処理を
繰り返し、画像情報中の全ての被判定情報14について
人体選定判定を行った後、画像処理手段3による画像情
報の処理結果を画像表示手段4や警報手段5を用いて運
転者に報知する(ステップS20)。なお、ステップS
20の処理を行う際、画像情報手段3は、ステップS1
にて入力した画像情報中に、撮像エリア7内の画像情報
中に、ステップS17にて人体8と認識された被判定情
報14があった場合、画像表示手段4を制御することに
より、図7で示すように、前記被判定情報に対応する部
分、すなわち人体8部分のみを表示するとともに、警報
手段5を制御することによって撮像エリア7内の人体8
の有無を運転者10に積極的に知らせるものである。The image processing means 3 increments the number of executions n (n ← n + 1) (step S19). In step S6, when comparing the number of information to be determined N with the number of executions n, the information to be determined 14 Are repeated for the to-be-determined information 14 in the image information, and the human-body selection is determined for all of the to-be-determined information 14 in the image information until it is determined that all of the information has been determined. After that, the processing result of the image information by the image processing means 3 is notified to the driver using the image display means 4 and the alarm means 5 (step S20). Step S
When performing the process of step 20, the image information unit 3 executes step S1.
In the case where the image information input in step S17 includes the determined information 14 recognized as the human body 8 in step S17 in the image information in the image pickup area 7, the image display unit 4 is controlled to control the image display means 4 as shown in FIG. As shown by, only the portion corresponding to the information to be determined, that is, only the human body 8 portion is displayed, and the human body 8 in the imaging area 7 is controlled by controlling the alarm means 5.
Is positively notified to the driver 10.
【0037】かかる人体検出装置1は、車輌6の前方風
景を撮影する赤外線カメラ1と、発熱特性を有する人体
8の形状特性に応じた第1の物体情報と背景の形状特性
に応じた第2の物体情報とこれら以外の物体の形状特性
に応じた第3の物体情報とを記憶する記憶手段と、赤外
線カメラ1から撮像される画像情報内において被判定情
報14を定め、被判定情報14に対して、予め記憶され
た第1の物体情報と第2の物体情報とのどちらに近似す
るのかを固有空間法に基づき比較する第1の判定処理を
行った後、前記第1の判定処理において前記第1の物体
情報に近似した前記被判定情報に対して、前記第1の物
体情報と第3の物体情報とのどちらに近似するのかを固
有空間法に基づき比較する第2の判定処理を行うことに
より、前記画像情報内における前記人体8を検出する画
像処理手段3とを備えてなることにより、誤判定を防ぐ
ことができるため、検出された物体情報に対して信頼性
の高い判定処理を行うことのできる物体検出装置を提供
するものである。The human body detecting device 1 includes an infrared camera 1 for photographing a scene in front of a vehicle 6, a first object information corresponding to a shape characteristic of a human body 8 having a heat generation characteristic, and a second object information corresponding to a shape characteristic of a background. Storage means for storing the third object information corresponding to the shape information of the object other than the above object information, and the determined information 14 in the image information captured by the infrared camera 1, and the determined information 14 On the other hand, after performing a first determination process of comparing which of the first object information and the second object information stored in advance is closer to each other based on the eigenspace method, in the first determination process, A second determination process of comparing which of the first object information and the third object information is closer to the determined information approximated to the first object information based on the eigenspace method; By doing so, the image information And the image processing means 3 for detecting the human body 8 in the inside, the erroneous determination can be prevented, and the object detection that can perform highly reliable determination processing on the detected object information An apparatus is provided.
【0038】また、前記記憶手段は、赤外線カメラ1か
ら撮像される画像情報内の前回の被判定情報14の人体
判定結果を記憶するとともに、画像処理手段3は、新た
に撮像されて得た今回の被判定情報14において、少な
くとも前回の前記人体判定結果に基づいて、人体8であ
るのか否かを判定する第3の判定処理を行うことによ
り、画像処理手段3は、被判定情報14について、1つ
の画像情報のみで人体8と判断せず、人体8であると認
識するまでに複数回の第1,第2の判定処理を行うた
め、より確実な判定結果を得ることができる。The storage means stores the result of the previous human body determination of the to-be-determined information 14 in the image information picked up by the infrared camera 1, and the image processing means 3 stores the newly obtained image picked up By performing a third determination process of determining whether or not the subject is the human body 8 based on at least the previous human body determination result in the determined information 14, the image processing unit 3 The first and second determination processes are performed a plurality of times until the human body 8 is recognized without determining the human body 8 with only one piece of image information, so that a more reliable determination result can be obtained.
【0039】また、画像処理手段3は、画像表示手段4
の人体8の表示方法において、切り出し領域となる被判
定情報14を画像表示手段4に表示するのではなく、被
判定情報14における人体8のみの画像データを表示す
る処理を施すため、2値化処理によって得られる人体8
の形状をそのまま表示することが可能となり、画像表示
手段4において人体8を強調した表示が可能となる。The image processing means 3 comprises an image display means 4
In the display method of the human body 8 described above, since the determined information 14 to be a cut-out area is not displayed on the image display means 4 but image data of only the human body 8 in the determined information 14 is displayed, the binarization is performed. Human body 8 obtained by processing
Can be displayed as it is, and the image display means 4 can display the human body 8 with emphasis.
【0040】また、LEDやランプ,ブザー等の警報手
段5を設けることによって、車輌6の前方に存在する人
体8を運転者10は容易に判断することが可能となる。The provision of the warning means 5 such as an LED, a lamp and a buzzer enables the driver 10 to easily determine the human body 8 existing in front of the vehicle 6.
【0041】なお、本発明の実施の形態では、人体8を
検出する人体検出装置1を用いて説明したが、犬や猫等
の動物の特徴を表す固有空間のデータと、前記動物以外
の特徴を表す固有空間のデータを予め記憶するようにす
れば、人体8以外の発熱物体をも検出することが可能な
物体検出装置として用いることができる。In the embodiment of the present invention, the human body detecting device 1 for detecting the human body 8 has been described. However, the data of the eigenspace representing the characteristics of animals such as dogs and cats and the characteristics other than the animals are described. Is stored in advance, it can be used as an object detection device that can also detect a heating object other than the human body 8.
【0042】また、本発明の実施の形態では、図6の説
明において1つの人体認識用の固有空間と、1つの背景
認識用の固有空間とを比較するようにしているが、人体
8においても横向きの状態や座っている状態等の様々な
状態が想定され、また背景においても様々な状態が存在
するため、複数の人体認識用の固有空間と、複数の背景
認識用の固有区間とを記憶する必要があることは言うま
でもない。In the embodiment of the present invention, one eigenspace for human body recognition and one eigenspace for background recognition are compared in the description of FIG. Since various states such as a horizontal state and a sitting state are assumed, and there are various states in the background, a plurality of eigenspaces for human body recognition and a plurality of eigenspaces for background recognition are stored. Needless to say, you need to do that.
【0043】また、本発明の実施の形態では、撮像エリ
ア7の全領域における画像データについて前述した処理
判定を行うようにしているが、本発明は、所定距離離れ
た発熱物体を最も捉えることが可能の領域において所定
の区画領域を生成し、この区画領域について、判定処理
を行うことで、画像処理手段3における処理速度を向上
させることが可能となる。Further, in the embodiment of the present invention, the above-described processing determination is performed on the image data in the entire area of the imaging area 7. However, the present invention can best capture a heating object that is separated by a predetermined distance. The processing speed in the image processing unit 3 can be improved by generating a predetermined partitioned area in the possible area and performing the determination process on the partitioned area.
【0044】また、本発明の実施の形態では、表示手段
としてヘッドアップディスプレイを例に挙げたが、例え
ば液晶表示装置であっても良く、本発明における表示手
段は本発明の実施の形態に限定されるものではない。In the embodiments of the present invention, a head-up display is taken as an example of the display means. However, for example, a liquid crystal display device may be used, and the display means in the present invention is limited to the embodiments of the present invention. It is not done.
【0045】また、本発明の実施の形態では、画像表示
手段4により検出された人体8部分のみを表示するよう
にしたが、本発明はこれに限定されるものではなく、例
えば、画像表示手段4により背景を含む画像で撮像エリ
ア内を表示し、人体8部分を赤色等に着色表示すること
によって人体8部分を強調することができる。また、ス
テップS15で処理した被判定情報14に対する物体
(人体の候補)を黄色等に着色表示して示すことで、人
体検出における、さらなる警告表示を可能とする。In the embodiment of the present invention, only the portion of the human body 8 detected by the image display means 4 is displayed. However, the present invention is not limited to this. 4, the inside of the imaging area is displayed as an image including the background, and the human body 8 can be emphasized by coloring the human body 8 in red or the like. In addition, by displaying the object (candidate of the human body) corresponding to the determination target information 14 processed in step S15 in yellow or the like, a further warning display in the human body detection is enabled.
【0046】[0046]
【発明の効果】本発明は、車輌等に搭載される物体検出
装置に関し、特に赤外線式撮影手段を備え、発熱物体を
精度良く検出する物体検出装置において、検出された物
体情報に対して信頼性の高い判定処理を行うことのでき
る物体検出装置を提供できる。The present invention relates to an object detecting device mounted on a vehicle or the like, and more particularly to an object detecting device provided with an infrared type photographing means for detecting a heating object with high accuracy. Object detection device capable of performing a high-accuracy determination process.
【図1】本発明の実施の形態を示す人体検出装置のブロ
ック図。FIG. 1 is a block diagram of a human body detection device according to an embodiment of the present invention.
【図2】同上実施の形態の撮像手段により撮影される画
像を示す図。FIG. 2 is a diagram showing an image photographed by the imaging means of the embodiment.
【図3】同上実施の形態の画像処理手段による処理手順
を示す図。FIG. 3 is an exemplary view showing a processing procedure by the image processing means of the embodiment.
【図4】同上実施の形態の第1の判定処理によって処理
された画像を示す図。FIG. 4 is a view showing an image processed by a first determination process of the embodiment.
【図5】同上実施の形態の第3の画像データを示す図。FIG. 5 is a view showing third image data according to the embodiment;
【図6】同上実施の形態の第2の処理判定を説明する
図。FIG. 6 is an exemplary view for explaining a second processing determination in the embodiment.
【図7】同上実施の形態の第2の処理判定後に、画像表
示手段の表示状態を示す図。FIG. 7 is a diagram showing a display state of an image display unit after a second processing determination in the embodiment.
1 人体検出装置(物体検出装置) 2 赤外線カメラ(赤外線式撮影手段) 3 画像処理手段(制御手段) 4 画像表示手段(表示手段) 6 車輌 8 人体(第1の物体) 11 第1の画像データ(高温部分) 14 被判定情報 P1 人体認識用の固有空間(第1の物体情報) P2 背景認識用の固有空間(第2の物体情報) DESCRIPTION OF SYMBOLS 1 Human body detection device (object detection device) 2 Infrared camera (infrared imaging means) 3 Image processing means (control means) 4 Image display means (display means) 6 Vehicle 8 Human body (first object) 11 First image data (High temperature part) 14 Information to be determined P1 Eigenspace for human body recognition (first object information) P2 Eigenspace for background recognition (second object information)
フロントページの続き Fターム(参考) 5B057 AA16 BA02 CA12 CA16 DA07 DA15 DB02 DC03 DC09 DC36 5H180 AA01 CC02 CC04 FF33 LL01 LL07 LL08 5L096 BA02 BA04 CA02 DA03 FA02 FA59 FA64 JA11 Continued on the front page F term (reference) 5B057 AA16 BA02 CA12 CA16 DA07 DA15 DB02 DC03 DC09 DC36 5H180 AA01 CC02 CC04 FF33 LL01 LL07 LL08 5L096 BA02 BA04 CA02 DA03 FA02 FA59 FA64 JA11
Claims (5)
段と、発熱特性を有する第1の物体の形状特性に応じた
第1の物体情報と、前記第1の物体以外の第2,第3の
物体の形状特性に応じた第2,第3の物体情報を記憶す
る記憶手段と、前記撮影手段から撮像される画像情報内
において被判定情報を定め、前記被判定情報に対して、
予め記憶された第1の物体情報と第2の物体情報とのど
ちらに近似するのかを固有空間法に基づき比較する第1
の判定処理を行った後、前記第1の判定処理において前
記第1の物体情報に近似した前記被判定情報に対して、
前記第1の物体情報と第3の物体情報とのどちらに近似
するのかを固有空間法に基づき比較する第2の判定処理
を行うことにより、前記画像情報内における前記第1の
物体を検出する制御手段とを備えてなることを特徴とす
る物体検出装置。An infrared photographing means for photographing a scene in front of a vehicle; first object information corresponding to a shape characteristic of a first object having a heat generation characteristic; Storage means for storing second and third object information corresponding to the shape characteristics of the third object, and information to be determined in image information taken from the photographing means;
A first method for comparing which of the first object information and the second object information stored in advance is closer to each other based on the eigenspace method;
After performing the determination process of the above, in the first determination process, for the determined information approximated to the first object information,
The first object in the image information is detected by performing a second determination process of comparing which of the first object information and the third object information approximates based on the eigenspace method. An object detection device, comprising: a control unit.
体の高温部分を抽出し、前記高温部分の大きさが所定の
大きさであるものに対して領域区分し、領域内の情報を
前記被判定情報として抽出してなることを特徴とする請
求項1に記載の物体検出装置。2. The control means extracts a high-temperature portion of the heat-generating object from the image information, classifies the high-temperature portion having a predetermined size into regions, and extracts information in the region. The object detection device according to claim 1, wherein the object detection device is extracted as information to be determined.
れる画像情報内の前回の被判定情報の人体判定結果を記
憶するとともに、前記制御手段は、新たに撮像されて得
た今回の被判定情報において、少なくとも前回の前記人
体判定結果に基づいて、前記第1の物体であるのか否か
を判定する第3の判定処理を行うことを特徴とする請求
項1または請求項2に記載の物体検出装置。3. The storage means stores a human body determination result of the previous determination information in the image information captured by the imaging means, and the control means stores a current captured image obtained by newly capturing an image. 3. The method according to claim 1, wherein in the determination information, a third determination process of determining whether the object is the first object is performed based on at least a previous result of the human body determination. 4. Object detection device.
前記制御手段は前記表示手段の表示において前記第1の
物体の形状を強調表示するように制御してなることを特
徴とする請求項1から請求項3のいずれかに記載の物体
検出装置。4. A display device for displaying the image information,
4. The object detection device according to claim 1, wherein the control unit controls the display unit to highlight the shape of the first object on the display.
じた第1の物体情報を記憶してなることを特徴とする請
求項1から請求項4のいずれかに記載の物体検出装置。5. The object detecting apparatus according to claim 1, wherein said storage means stores first object information corresponding to shape characteristics of a person or an animal. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001130981A JP2002329202A (en) | 2001-04-27 | 2001-04-27 | Object detecting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001130981A JP2002329202A (en) | 2001-04-27 | 2001-04-27 | Object detecting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002329202A true JP2002329202A (en) | 2002-11-15 |
Family
ID=18979247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001130981A Pending JP2002329202A (en) | 2001-04-27 | 2001-04-27 | Object detecting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002329202A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009032030A (en) * | 2007-07-26 | 2009-02-12 | Koito Ind Ltd | Vehicle detector |
JP2011233173A (en) * | 2005-08-19 | 2011-11-17 | Adc Technology Inc | On-vehicle image display device |
JP2016038686A (en) * | 2014-08-06 | 2016-03-22 | 株式会社豊田中央研究所 | Monitoring apparatus and program |
-
2001
- 2001-04-27 JP JP2001130981A patent/JP2002329202A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011233173A (en) * | 2005-08-19 | 2011-11-17 | Adc Technology Inc | On-vehicle image display device |
US8237580B2 (en) | 2005-08-19 | 2012-08-07 | Adc Technology Inc. | In-vehicle image display apparatus |
US8264367B2 (en) | 2005-08-19 | 2012-09-11 | Adc Technology, Inc. | In-vehicle image display apparatus |
US8446289B2 (en) | 2005-08-19 | 2013-05-21 | Adc Technology, Inc. | In-vehicle image display apparatus |
US8456290B2 (en) | 2005-08-19 | 2013-06-04 | Adc Technology Inc. | In-vehicle image display apparatus |
JP2009032030A (en) * | 2007-07-26 | 2009-02-12 | Koito Ind Ltd | Vehicle detector |
JP2016038686A (en) * | 2014-08-06 | 2016-03-22 | 株式会社豊田中央研究所 | Monitoring apparatus and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5047007B2 (en) | Imaging device | |
US7949151B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4135123B2 (en) | Display processing device | |
EP1553516B1 (en) | Pedestrian extracting apparatus | |
EP1589485A2 (en) | Object tracking and eye state identification method | |
CN105769120A (en) | Fatigue driving detection method and device | |
US20070211919A1 (en) | Vehicle surroundings monitoring apparatus | |
JP2010191793A (en) | Alarm display and alarm display method | |
EP3506169A2 (en) | Driver assistance system and method for object detection and notification | |
JPH0944685A (en) | Face image processor | |
CN108860045A (en) | Driving support method, driving support device, and storage medium | |
JP2007508624A (en) | Moving object detection using computer vision adaptable to low illumination depth | |
KR101914362B1 (en) | Warning system and method based on analysis integrating internal and external situation in vehicle | |
JP6043933B2 (en) | Sleepiness level estimation device, sleepiness level estimation method, and sleepiness level estimation processing program | |
CN108859963A (en) | Multifunctional driving assistance method, multifunctional driving assistance device, and storage medium | |
JP2007323578A (en) | Vehicle periphery monitoring device | |
JP4989249B2 (en) | Eye detection device, dozing detection device, and method of eye detection device | |
JP2007164517A (en) | Graphic center detection method, ellipse detection method, image recognition device and controller | |
JP5621558B2 (en) | Vehicle display device | |
JP2012164026A (en) | Image recognition device and display device for vehicle | |
US20120189161A1 (en) | Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus | |
JP2004093167A (en) | Object detecting device | |
JP4701961B2 (en) | Pedestrian detection device | |
JP2002329202A (en) | Object detecting device | |
JP2011134119A (en) | Vehicle periphery monitoring device |