JP2005301719A - Occupant detection apparatus and method - Google Patents

Occupant detection apparatus and method Download PDF

Info

Publication number
JP2005301719A
JP2005301719A JP2004117543A JP2004117543A JP2005301719A JP 2005301719 A JP2005301719 A JP 2005301719A JP 2004117543 A JP2004117543 A JP 2004117543A JP 2004117543 A JP2004117543 A JP 2004117543A JP 2005301719 A JP2005301719 A JP 2005301719A
Authority
JP
Japan
Prior art keywords
difference
information
template
edge
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004117543A
Other languages
Japanese (ja)
Inventor
Masabumi Tsuji
正文 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004117543A priority Critical patent/JP2005301719A/en
Publication of JP2005301719A publication Critical patent/JP2005301719A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Air Bags (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an occupant detection apparatus and method capable of detecting occupant information regardless of the movements of occupants. <P>SOLUTION: This occupant detection apparatus includes an edge information creation means 12 using images picked up by an image pickup means 11 that picks up images of the inside of a vehicle; an edge area extraction means 13 that depends on the edge information; an edge template creation means 14 that depends on edge areas; a difference information creation means 15 for the previous and current images; a difference area extraction means 16 that depends on difference information; a difference template creation means 17 that depends on difference areas; a difference template update means 18; a template integration means 20 for an edge template and an updated difference template; and an occupant information extraction means 21 for extracting the occupant information on the basis of position information and images obtained from the integrated templates. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両等の乗り物における乗員検出装置および方法に関する。   The present invention relates to an occupant detection apparatus and method for a vehicle such as a vehicle.

近年、自動車などの車両の安全性や快適性を向上させるために、乗員の有無、位置等の状態を検出し、その情報に応じた制御を行うことが提案されている。このような情報を検出する装置としては、例えば下記特許文献1に記載されたものがある。
この装置は、同一被写体について時間差をもって撮像された2枚の原画像のエッジ画像をそれぞれ作成し、該エッジ画像の差分処理を行い、移動したエッジ成分に基づいて乗員の頭部位置の検出を行う。これにより、背景エッジを無くして、動きのある被写体の情報を効率的に得ることができる、というものである。
In recent years, in order to improve the safety and comfort of a vehicle such as an automobile, it has been proposed to detect the presence or absence of a passenger, a position such as a position, and perform control according to the information. As an apparatus for detecting such information, for example, there is one described in Patent Document 1 below.
This device creates edge images of two original images captured with a time difference for the same subject, performs difference processing of the edge images, and detects the head position of the occupant based on the moved edge component . As a result, the background edge can be eliminated and information on a moving subject can be obtained efficiently.

特開2000−113164号公報JP 2000-113164 A

しかしながら、上記従来装置にあっては、エッジ成分の動き情報によってのみ乗員に関する情報を検出するようにしているため、乗員が頭部付近で手を動かした場合にも動き情報が発生し、乗員状態の判定や頭部位置を誤判定してしまう。また、乗員は車両のゆれやその他自然な動作により常にわずかながら動いていることを前提としているため、乗員が動いている場合には、背景エッジを除外して乗員情報を得ることが可能である。しかし、乗員が動かない場合や初期状態では、検出不可能となる。
本発明は上記の点に鑑みてなされたもので、乗員の動きにかかわらず乗員情報が検出可能な乗員検出装置および方法を提供することを目的とする。
However, in the above-described conventional apparatus, since information about the occupant is detected only by the movement information of the edge component, the movement information is generated even when the occupant moves his hand near the head, and the occupant state And misjudgment of head position. In addition, since it is assumed that the occupant always moves slightly due to the movement of the vehicle and other natural movements, the occupant information can be obtained by excluding the background edge when the occupant is moving. . However, detection is impossible when the occupant does not move or in the initial state.
The present invention has been made in view of the above points, and an object thereof is to provide an occupant detection apparatus and method capable of detecting occupant information regardless of the movement of the occupant.

上記課題を解決するために、本発明は、車室内の乗員情報を検出する乗員検出装置において、車室内の熱画像情報を含む画像を取得する撮像手段と、取得された画像を用いてエッジ情報を作成するエッジ情報作成手段と、作成されたエッジ情報の中から所定条件を満たす画素により囲まれたエッジ領域を抽出するエッジ領域抽出手段と、抽出されたエッジ領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジテンプレートを作成するエッジテンプレート作成手段と、前回の画像と今回の画像との差分をとることにより差分情報を作成する差分情報作成手段と、作成された差分情報の中から所定条件を満たす画素により囲まれた差分領域を抽出する差分領域抽出手段と、抽出された差分領域に所定値を設定し、それ以外の領域には別の所定値を設定することにより差分テンプレートを作成する差分テンプレート作成手段と、差分テンプレートを更新する差分テンプレート更新手段と、取得された画像および更新された差分テンプレートを記憶する記憶手段と、エッジテンプレートと更新された差分テンプレートとの共通領域を抽出し、該共通領域に所定値を設定し、それ以外の領域には別の所定値を設定することにより統合テンプレートを作成するテンプレート統合手段と、テンプレート統合手段により取得された位置情報と取得された画像からの温度情報に基づいて、乗員情報を抽出する乗員情報抽出手段とを備えている。   In order to solve the above-described problems, the present invention provides an occupant detection device that detects occupant information in a vehicle interior, and includes edge information using an image capturing unit that acquires an image including thermal image information in the vehicle interior, and the acquired image. Edge information creating means for creating an edge area extracting means for extracting an edge area surrounded by pixels satisfying a predetermined condition from the created edge information, and setting a predetermined value to the extracted edge area, An edge template creating means for creating an edge template by setting another predetermined value in a region other than the above, a difference information creating means for creating difference information by taking a difference between the previous image and the current image, A difference area extraction unit that extracts a difference area surrounded by pixels that satisfy a predetermined condition from the created difference information, and a predetermined value is set in the extracted difference area. A difference template creating means for creating a difference template by setting another predetermined value in a region other than the above, a difference template updating means for updating the difference template, and a memory for storing the acquired image and the updated difference template A template for creating an integrated template by extracting a common area between the means and the edge template and the updated difference template, setting a predetermined value in the common area, and setting another predetermined value in the other area And an occupant information extracting unit that extracts occupant information based on the position information acquired by the template integrating unit and the temperature information from the acquired image.

本発明によれば、乗員の動きにかかわらず乗員情報が検出可能な乗員検出装置および方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the passenger | crew detection apparatus and method which can detect passenger | crew information irrespective of a passenger | crew's movement can be provided.

以下、本発明の実施の形態について図面に基づいて詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図1は本発明の一実施の形態の乗員検出装置のハードウェアを示す構成図である。本実施の形態の乗員検出装置は、図1に示すように、IRカメラ(赤外線カメラ)1、マイクロコンピュータ2から構成され、後続の装置として、モニタ3、エアバッグ制御装置4、エアコン制御装置5が接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings described below, components having the same function are denoted by the same reference numerals, and repeated description thereof is omitted.
FIG. 1 is a configuration diagram illustrating hardware of an occupant detection device according to an embodiment of the present invention. As shown in FIG. 1, the occupant detection device according to the present embodiment includes an IR camera (infrared camera) 1 and a microcomputer 2. Subsequent devices include a monitor 3, an airbag control device 4, and an air conditioner control device 5. Is connected.

図2は本実施の形態におけるカメラの取り付け状態を示す図で、(a)は側面図、(b)は上面図である。
IRカメラ1は、車両の例えばマップランプ部またはセンタークラスタ部等に設置され、車室内の熱画像を撮像して温度情報を出力するものである。また、設置されるIRカメラ1は1台で車両全体の乗員を検出するようにしても良いし、乗員ごとに複数台用いても良い。本実施の形態では、図2に示すように車両のセンタークラスタ部に設置されたIRカメラ1で、車両の右側を撮像する場合を説明するものとする。IRカメラ1から出力される温度情報としては、IRカメラ1内のIR検知素子(熱検知素子)で得られたアナログ信号を例えば0〜255にデジタル化された二次元情報で表わす場合もあるが、本実施の形態では、0〜255のデジタル値に対して温度変換定数により温度変換された二次元情報を、熱画像情報とする。
FIGS. 2A and 2B are diagrams showing a camera mounting state in the present embodiment, where FIG. 2A is a side view and FIG. 2B is a top view.
The IR camera 1 is installed in, for example, a map lamp unit or a center cluster unit of a vehicle, captures a thermal image in the vehicle compartment, and outputs temperature information. Further, one IR camera 1 may be installed to detect the occupants of the entire vehicle, or a plurality of IR cameras 1 may be used for each occupant. In the present embodiment, as shown in FIG. 2, the case where the right side of the vehicle is imaged with the IR camera 1 installed in the center cluster portion of the vehicle will be described. As temperature information output from the IR camera 1, there may be a case where an analog signal obtained by an IR detection element (heat detection element) in the IR camera 1 is represented by, for example, two-dimensional information digitized from 0 to 255. In this embodiment, the two-dimensional information obtained by temperature conversion of the digital value of 0 to 255 with the temperature conversion constant is used as thermal image information.

図3は本実施の形態における撮像領域を示す図である。図3において、30は運転席乗員、30aは運転席乗員30の頭部、31はサイドガラス、32はリアガラス、33は天井である。   FIG. 3 is a diagram showing an imaging region in the present embodiment. In FIG. 3, 30 is a driver's seat occupant, 30a is the head of the driver's seat occupant 30, 31 is a side glass, 32 is a rear glass, and 33 is a ceiling.

マイクロコンピュータ2は、IRカメラ1により取得された熱画像情報を処理して図3の運転席乗員30のいる座席、すなわち、座席ごとの乗員の有無を特定する。それとともに、図3の運転席乗員30の頭部30aの顔の表面温度分布から頭部30aの位置と顔の代表温度を検出する。   The microcomputer 2 processes the thermal image information acquired by the IR camera 1 to identify the seat where the driver's seat occupant 30 of FIG. 3 is present, that is, the presence or absence of the occupant for each seat. At the same time, the position of the head 30a and the representative temperature of the face are detected from the surface temperature distribution of the face of the head 30a of the driver seat occupant 30 in FIG.

そして、後続装置であるモニタ3は、マイクロコンピュータ2の出力である座席ごとの乗員の有無、頭部位置および顔の代表温度や熱画像情報そのものを表示する。
また、エアバッグ制御装置4は、マイクロコンピュータ2の出力である座席ごとの乗員の有無および頭部位置に基づいて、例えば乗員不在の座席のエアバッグを開かない等のエアバッグの展開制御を行う。
さらに、エアコン制御装置5は、マイクロコンピュータ2の出力である座席ごとの乗員の有無、頭部位置および顔の代表温度に基づいて、例えばエアコン制御における乗員の表面温度を利用した快適空調制御等を行う。
Then, the monitor 3 as a subsequent device displays the presence / absence of an occupant for each seat, the head position, the representative temperature of the face, and the thermal image information itself, which are outputs of the microcomputer 2.
The airbag control device 4 controls the deployment of the airbag based on the presence / absence of the occupant for each seat and the position of the head, which are outputs of the microcomputer 2, for example, not opening the airbag of the seat without the occupant. .
Further, the air conditioner control device 5 performs, for example, comfortable air conditioning control using the surface temperature of the occupant in the air conditioner control based on the presence / absence of the occupant for each seat, the head position, and the representative temperature of the face, which are the outputs of the microcomputer 2. Do.

図4は本実施の形態の乗員検出装置を機能的に表現した機能ブロック図である。図4において、11は車室内の温度分布を表わす熱画像情報を含む画像を取得する撮像手段である。12は撮像手段11により取得された画像を用いて、エッジ情報を作成するエッジ情報作成手段である。13はエッジ情報作成手段12により作成されたエッジ情報の中から、所定条件を満たす画素により囲まれたエッジ領域を抽出するエッジ領域抽出手段である。14はエッジ領域抽出手段13により抽出されたエッジ領域に基づいて、該エッジ領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジテンプレートを作成するエッジテンプレート作成手段である。15は撮像手段11により取得された前回の画像と今回の画像との差分をとることにより差分情報を作成する差分情報作成手段である。16は差分情報作成手段15により作成された差分情報の中から、所定条件を満たす画素により囲まれた差分領域を抽出する差分領域抽出手段である。17は差分領域抽出手段16により抽出された差分領域に基づいて、該差分領域に所定値を設定し、それ以外の領域には別の所定値を設定することにより差分テンプレートを作成する差分テンプレート作成手段である。18は差分テンプレートを更新する差分テンプレート更新手段である。19は撮像手段11により取得された画像および差分テンプレート更新手段18により更新された差分テンプレートを記憶する記憶手段(メモリ)である。20はエッジテンプレート作成手段14により作成されたエッジテンプレートと、差分テンプレート更新手段18により更新された差分テンプレートとの共通領域を新たな着目領域として抽出し、該共通領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジ情報と差分情報に基づいた統合テンプレートを作成するテンプレート統合手段である。21はテンプレート統合手段20により取得された位置情報と撮像手段11により取得された画像からの温度情報に基づいて、乗員情報を算出して出力する乗員情報抽出手段である。   FIG. 4 is a functional block diagram functionally expressing the occupant detection device of the present embodiment. In FIG. 4, 11 is an image pickup means for acquiring an image including thermal image information representing the temperature distribution in the passenger compartment. Reference numeral 12 denotes edge information creating means for creating edge information using the image acquired by the imaging means 11. Reference numeral 13 denotes an edge area extracting means for extracting an edge area surrounded by pixels satisfying a predetermined condition from the edge information created by the edge information creating means 12. 14 is an edge template creation in which an edge template is created by setting a predetermined value for the edge area based on the edge area extracted by the edge area extracting means 13 and setting another predetermined value for the other area. Means. Reference numeral 15 denotes difference information creation means for creating difference information by taking the difference between the previous image acquired by the imaging means 11 and the current image. Reference numeral 16 denotes difference area extraction means for extracting a difference area surrounded by pixels satisfying a predetermined condition from the difference information created by the difference information creation means 15. 17 is a difference template creation for creating a difference template based on the difference area extracted by the difference area extraction means 16 by setting a predetermined value in the difference area and setting another predetermined value in the other area. Means. Reference numeral 18 denotes difference template update means for updating the difference template. Reference numeral 19 denotes storage means (memory) for storing the image acquired by the imaging means 11 and the difference template updated by the difference template update means 18. 20 extracts a common area between the edge template created by the edge template creation means 14 and the difference template updated by the difference template update means 18 as a new area of interest, and sets a predetermined value in the common area. This is a template integration unit that creates an integrated template based on edge information and difference information by setting another predetermined value in the other area. Reference numeral 21 denotes an occupant information extraction unit that calculates and outputs occupant information based on the position information acquired by the template integration unit 20 and the temperature information from the image acquired by the imaging unit 11.

図4に示す機能ブロックと、図1に示すハードウェアとして表現したものとを対比させると、図1のIRカメラ1が図4の撮像手段11に、図1のマイクロコンピュータ2が図4のエッジ情報作成手段12、エッジ領域抽出手段13、エッジテンプレート作成手段14、差分情報作成手段15、差分領域抽出手段16、差分テンプレート作成手段17、差分テンプレート更新手段18、記憶手段19、テンプレート統合手段20、乗員情報抽出手段21にそれぞれ相当する。   When the functional blocks shown in FIG. 4 are compared with those expressed as hardware shown in FIG. 1, the IR camera 1 in FIG. 1 becomes the imaging means 11 in FIG. 4, and the microcomputer 2 in FIG. Information creation means 12, edge region extraction means 13, edge template creation means 14, difference information creation means 15, difference area extraction means 16, difference template creation means 17, difference template update means 18, storage means 19, template integration means 20, Each corresponds to the occupant information extraction means 21.

図5は図4に示したテンプレート統合手段20の内容を示す機能ブロック図である。すなわち、テンプレート統合手段20は、図5に示すように、共通領域抽出手段201、ラベル番号付け手段202、ラベル番号更新手段203から構成される。共通領域抽出手段201は、図4のエッジテンプレート作成手段14により作成されたエッジテンプレートと、図4の差分テンプレート更新手段18により更新された差分テンプレートとの共通領域を抽出する。ラベル番号付け手段202は該共通領域に個別のラベル番号を付ける。ラベル番号更新手段203は、ラベル番号付け手段202により付けられたラベル番号に基づいて、各共通領域の水平方向の成分が垂直方向に共通な領域は同一対象であると判断して、同一のラベル番号となるようにラベル番号を更新する。なお、図4の乗員情報抽出手段21は、撮像手段11により取得された画像からの温度情報を参照する際に、同一のラベル番号が付けられたxy方向に関する位置を一つの対象情報として処理するようになっている。以下、各手段について詳細に説明する。   FIG. 5 is a functional block diagram showing the contents of the template integration means 20 shown in FIG. That is, the template integration unit 20 includes a common area extraction unit 201, a label numbering unit 202, and a label number updating unit 203 as shown in FIG. The common area extracting unit 201 extracts a common area between the edge template created by the edge template creating unit 14 in FIG. 4 and the difference template updated by the difference template updating unit 18 in FIG. The label numbering means 202 attaches an individual label number to the common area. Based on the label number assigned by the label numbering means 202, the label number updating means 203 determines that the areas in which the horizontal component of each common area is common in the vertical direction are the same target, and the same label Update the label number to be a number. Note that the occupant information extraction unit 21 in FIG. 4 processes, as one piece of target information, the position in the xy direction with the same label number when referring to the temperature information from the image acquired by the imaging unit 11. It is like that. Hereinafter, each means will be described in detail.

図6は本実施の形態の乗員検出装置および方法における処理の流れを示すフローチャートである。
以下、図6に基づき本実施の形態における動作について説明する。
図6に示すように、乗員検出処理を開始すると、まず、ステップ1(S1)において、以降の処理の実行に使用するカウンタやフラグを初期設定する初期化の処理を実行する。例えば、差分テンプレートの初期値として、座席のヘッドレスト位置周辺の領域だけテンプレートの値を1に設定し、それ以外を0とするものとする。差分テンプレートは、二次元情報内で乗員の頭部が存在すると思われる候補位置の情報がわかるものであればよく、存在すると思われる領域とそうでない領域の違いがわかれば1や0という値に限定されるものではない。
FIG. 6 is a flowchart showing the flow of processing in the occupant detection device and method of the present embodiment.
Hereinafter, the operation in the present embodiment will be described with reference to FIG.
As shown in FIG. 6, when the occupant detection process is started, first, in step 1 (S1), an initialization process for initializing counters and flags used for the subsequent processes is executed. For example, as the initial value of the difference template, the template value is set to 1 only for the area around the headrest position of the seat, and the other values are set to 0. The difference template only needs to be able to understand information on the candidate position where the occupant's head is supposed to exist in the two-dimensional information. If the difference between the area that is supposed to exist and the area that does not exist is known, the difference template has a value of 1 or 0. It is not limited.

次に、ステップ2(S2)において、図1のIRカメラ1により車室内の温度分布を示す熱画像情報を含む画像を取得してマイクロコンピュータ2の処理領域に取り込む。このとき取得される二次元熱画像情報は、表面温度が高い場所ほど濃度値が高い画像となる。なお、このような情報を取得するのに、例えば車室内の乗員全てが一枚の画像に写るようにしてもよいし、座席ごとに設定されたIRカメラ1で、一人一人写るようにしてもよい。本実施の形態では、図2に示す位置にIRカメラ1を設置して、図3に示すように一台のIRカメラ1で運転席乗員30を写す場合を例に挙げて説明する。
図7は、本実施の形態における乗員の動きについて説明するための図である。(a)は時刻T−1における車室内の温度画像、(b)は時刻Tで頭を傾けた場合を示す。図7(a)に示すように運転席乗員30が前回の時刻T−1の状態に対して、図7(b)に示すように時刻Tで矢印に示すごとく首を傾けた場合について述べる。それ以外の乗員を含んだ画像を処理する場合には、例えばIRカメラ1の設置状態から各座席の乗員が存在すると思われる領域に分割して領域ごとに抽出を行えば、それ以降の処理は本実施の形態と同様な処理でよい。
Next, in step 2 (S2), an image including thermal image information indicating the temperature distribution in the passenger compartment is acquired by the IR camera 1 of FIG. The two-dimensional thermal image information acquired at this time becomes an image having a higher density value as the surface temperature is higher. In order to obtain such information, for example, all the passengers in the passenger compartment may be shown in one image, or each person may be shown in the IR camera 1 set for each seat. Good. In the present embodiment, the case where the IR camera 1 is installed at the position shown in FIG. 2 and the driver's seat occupant 30 is copied by one IR camera 1 as shown in FIG. 3 will be described as an example.
FIG. 7 is a diagram for explaining the movement of the occupant in the present embodiment. (A) shows the temperature image in the passenger compartment at time T-1, and (b) shows the case where the head is tilted at time T. A case where the driver's seat occupant 30 tilts his / her head as shown by an arrow at time T as shown in FIG. 7B with respect to the state at the previous time T-1 as shown in FIG. 7A will be described. When processing an image including other passengers, for example, if the image is divided into regions where the passengers of each seat are considered to be present from the installed state of the IR camera 1 and extraction is performed for each region, the subsequent processing is performed. The same processing as in this embodiment may be performed.

次に、ステップ3(S3)において、ステップ2(S2)で取り込まれた二次元熱画像情報を用いてエッジ情報を作成する(図4のエッジ情報作成手段12)。例えばソーベルオペレータを用いて水平方向の濃度勾配を抽出することで縦エッジ画像を作成する。図8は本実施の形態におけるエッジテンプレートの作成例を示す図である。(a)はエッジ処理(エッジ情報)、(b)は領域テンプレート(エッジ領域)、(c)はエッジテンプレートを示す。
入力画像が図7(b)である場合のエッジ情報の例を図8(a)に示す。このエッジ情報は濃度勾配に応じて+エッジと−エッジという符号を有するものである。本実施の形態では縦エッジ情報を作成するようにしているが、もちろん横エッジ情報を併用しても構わない。すなわち、エッジ情報は、少なくとも縦エッジ情報を含むものである。
Next, in step 3 (S3), edge information is created using the two-dimensional thermal image information captured in step 2 (S2) (edge information creation means 12 in FIG. 4). For example, a vertical edge image is created by extracting a density gradient in the horizontal direction using a Sobel operator. FIG. 8 is a diagram showing an example of creating an edge template in the present embodiment. (A) shows edge processing (edge information), (b) shows a region template (edge region), and (c) shows an edge template.
FIG. 8A shows an example of edge information when the input image is FIG. 7B. This edge information has signs of + edge and -edge according to the density gradient. In the present embodiment, vertical edge information is created, but of course, horizontal edge information may be used in combination. That is, the edge information includes at least vertical edge information.

次に、ステップ4(S4)において、ステップ3(S3)で作成されたエッジ情報に基づいて、所定条件を満たす画素により囲まれた着目領域、すなわち、着目するエッジで挟まれたエッジ領域を図8(b)に示すように抽出する(図4のエッジ領域抽出手段13)。なお、この着目するエッジの符号の組み合わせは、背景温度により変更する。すなわち、図4のエッジ領域抽出手段13および差分領域抽出手段16において、撮像手段11により取得された熱画像情報の所定領域の平均温度を背景温度として抽出し、該背景温度に基づいて各領域抽出のための所定条件をそれぞれ変更する。そのために乗員が存在しないと思われる領域の平均温度を算出して、この平均温度が所定値Thよりも高い場合には、乗員の表面温度より背景温度が高温であると判断し、所定値Th以下の場合には乗員の表面温度より背景温度の方が低温であると判断する。そして、背景が低温の場合と高温の場合とでエッジの符号の組み合わせを入れ替えることで背景温度が変わっても乗員のエッジ情報が確実に抽出できるようにする。   Next, in step 4 (S4), based on the edge information created in step 3 (S3), a region of interest surrounded by pixels that satisfy a predetermined condition, that is, an edge region sandwiched between the edges of interest is illustrated. Extraction is performed as shown in FIG. 8B (edge region extracting means 13 in FIG. 4). Note that the combination of the signs of the edges of interest changes depending on the background temperature. That is, the edge region extraction unit 13 and the difference region extraction unit 16 in FIG. 4 extract the average temperature of a predetermined region of the thermal image information acquired by the imaging unit 11 as the background temperature, and extract each region based on the background temperature. The predetermined condition for each is changed. Therefore, an average temperature of a region where no occupant is supposed to be present is calculated, and when the average temperature is higher than a predetermined value Th, it is determined that the background temperature is higher than the surface temperature of the occupant, and the predetermined value Th In the following cases, the background temperature is judged to be lower than the passenger's surface temperature. Then, the edge information of the occupant can be surely extracted even if the background temperature changes by switching the combination of the edge codes depending on whether the background is low or high.

次に、ステップ5(S5)において、ステップ4(S4)で抽出したエッジ領域に基づいて、該エッジ領域に所定値を設定し、それ以外の領域には別の所定値を設定することにより、エッジテンプレートを作成する(図4のエッジテンプレート作成手段14)。例えば、抽出されたエッジ領域に相当する位置の値を例えば1に設定し、それ以外を0と設定することで、図8(c)に示すようなエッジテンプレートを作成する。このエッジテンプレートは、二次元情報内で乗員の頭部が存在すると思われる候補位置の情報がわかるものであればよく、存在すると思われる領域とそうでない領域の違いがわかれば1や0という値に限定されるものではない。   Next, in step 5 (S5), based on the edge region extracted in step 4 (S4), a predetermined value is set in the edge region, and another predetermined value is set in the other regions. An edge template is created (edge template creation means 14 in FIG. 4). For example, an edge template as shown in FIG. 8C is created by setting the value of the position corresponding to the extracted edge region to 1, for example, and setting the others to 0. This edge template only needs to be able to know the information of the candidate position where the occupant's head is supposed to exist in the two-dimensional information. If the difference between the area that seems to exist and the area that does not exist is known, the value is 1 or 0. It is not limited to.

次に、ステップ6(S6)において、撮像手段11により取得された前回の画像と今回の画像との差分をとることにより差分情報を作成する(図4の差分情報作成手段15)。すなわち、ステップ2(S2)で取り込まれた二次元熱画像情報に対して、動き情報の抽出処理を行う。これは、時間の異なる二つの熱画像情報の差を求める処理、つまり、差分処理により動きが発生した部分だけを抽出して差分情報とする処理である。記憶手段19に記憶されている前回の熱画像情報と、ステップ2(S2)で取り込まれた二次元熱画像情報の差分処理を行う。そして、IR検知素子の温度情報の出力バラツキ範囲が±Tdである場合には、+Td以上または−Td以下の温度変化がある部分を動き情報とする。すなわち、前回の処理から温度情報が所定量である+Td以上または−Td以下変化した位置を抽出する。図9は本実施の形態における差分テンプレートの作成例を示す図である。(a)は差分処理(差分情報)、(b)は領域テンプレート(差分領域)、(c)は差分テンプレートを示す。
このような処理により、例えば図7(b)に示したように運転席乗員30が頭部30a(首)を傾けた場合には、温度変化が大きな位置として図9(a)に示すような動き情報が得られる。この動き情報には、温度変化が大きかった画素の位置情報に加えて、画素の持つ値の符号により、その位置の温度が低温に変化したのか高温に変化したのかの温度変化情報が含まれている。このような動き情報を抽出して、次のステップに進む。
Next, in step 6 (S6), difference information is created by taking the difference between the previous image acquired by the imaging unit 11 and the current image (difference information creating unit 15 in FIG. 4). That is, motion information extraction processing is performed on the two-dimensional thermal image information captured in step 2 (S2). This is a process for obtaining a difference between two pieces of thermal image information at different times, that is, a process for extracting only a portion where a motion has occurred by the difference process to obtain difference information. Difference processing between the previous thermal image information stored in the storage unit 19 and the two-dimensional thermal image information captured in step 2 (S2) is performed. When the output variation range of the temperature information of the IR detection element is ± Td, a portion having a temperature change of + Td or more or −Td or less is set as motion information. That is, a position where the temperature information has changed by + Td or −Td which is a predetermined amount from the previous process is extracted. FIG. 9 is a diagram showing an example of creating a difference template in the present embodiment. (A) shows difference processing (difference information), (b) shows an area template (difference area), and (c) shows a difference template.
By such a process, for example, as shown in FIG. 7B, when the driver's seat occupant 30 tilts the head 30a (neck), the position where the temperature change is large is as shown in FIG. 9A. Movement information can be obtained. In addition to the position information of the pixel where the temperature change is large, this motion information includes temperature change information indicating whether the temperature at the position has changed to a low temperature or a high temperature, depending on the sign of the value of the pixel. Yes. Such motion information is extracted, and the process proceeds to the next step.

次に、ステップ7(S7)において、ステップ6(S6)で作成された差分情報に基づいて、着目する情報で挟まれた差分領域を抽出する(図4の差分領域抽出手段16)。すなわち、作成された差分情報の中から、所定条件を満たす画素により囲まれた差分領域を抽出する。例えば、図7(b)に示したように運転席乗員30の頭部30aが移動した場合、差分情報として抽出された頭部30aの両脇の温度変化は、片側の温度変化が高くなった場合には、その反対側の温度変化は低くなる。この特徴を利用して、頭部30aが存在する位置の候補として、図9(a)に示すような動き情報があった場合には、図9(b)に示すような差分領域を抽出する。この差分領域の抽出の際、ステップ7(S7)において、背景温度の方が低温であると判定されている場合には、x座標の小さな方から走査して高温の領域を抽出し、背景温度の方が高温であると判定されている場合には、x座標の小さな方から走査して低温の領域を抽出するものとする。   Next, in step 7 (S7), based on the difference information created in step 6 (S6), a difference area sandwiched between the information of interest is extracted (difference area extraction means 16 in FIG. 4). That is, a difference area surrounded by pixels satisfying a predetermined condition is extracted from the created difference information. For example, as shown in FIG. 7B, when the head 30a of the driver's seat occupant 30 moves, the temperature change on both sides of the head 30a extracted as the difference information has a higher temperature change on one side. In some cases, the temperature change on the opposite side is low. Using this feature, if there is motion information as shown in FIG. 9A as a candidate for the position where the head 30a exists, a difference area as shown in FIG. 9B is extracted. . At the time of extracting the difference area, if it is determined in step 7 (S7) that the background temperature is lower, a higher temperature area is extracted by scanning from the smaller x-coordinate. If it is determined that the temperature is higher, scanning is performed from the smaller x coordinate to extract a low temperature region.

次に、ステップ8(S8)において、ステップ7(S7)で抽出した差分領域に基づいて、該差分領域に所定値を設定し、それ以外の領域には別の所定値を設定することにより差分テンプレートを作成する(図4の差分テンプレート作成手段17)。例えば、抽出された領域に相当する位置の値を例えば1に設定し、それ以外を0と設定することで、図9(c)に示すような差分テンプレートを作成する。この差分テンプレートは、二次元情報内で乗員の頭部が存在すると思われる候補位置の情報がわかるものであればよく、存在すると思われる領域とそうでない領域の違いがわかれば1や0という値に限定されるものではない。   Next, in step 8 (S8), based on the difference area extracted in step 7 (S7), a predetermined value is set in the difference area, and another predetermined value is set in the other areas. A template is created (difference template creation means 17 in FIG. 4). For example, by setting the position value corresponding to the extracted area to 1, for example, and setting the others to 0, a difference template as shown in FIG. 9C is created. This difference template only needs to be able to know information on the candidate position where the occupant's head is supposed to exist in the two-dimensional information. If the difference between the area that is supposed to exist and the area that does not exist is known, the difference template has a value of 1 or 0. It is not limited to.

次に、ステップ9(S9)において、乗員の動き量に基づいて差分テンプレートの更新処理を行う(図4の差分テンプレート更新手段18)。図10(a)〜(c)は本実施の形態における差分テンプレートの更新例を示す図である。
この処理での基本的な考えは、ステップ6(S6)で抽出された動き情報の量が所定値Tmより大きな場合にはステップ8(S8)で抽出した差分テンプレートを新たな差分テンプレートとし、動き情報の量が所定値Tm以下の場合には記憶手段19に記憶されている前回の差分テンプレート(図10(a)に相当)に、ステップ8(S8)で抽出した今回の差分テンプレート(図10(b)に相当)を追加(両テンプレートのOR演算)して、新たな差分テンプレート(図10(c)に相当)とするものである。なお、本実施の形態では、動き情報の量に基づいた差分テンプレートの更新について記載したが、この処理に加えて、抽出された差分情報の位置に応じて差分テンプレートの更新方法を変更してもかまわない。すなわち、動き情報の位置によって前回の差分テンプレートに追加するかどうかを判定するようにしてもよい。このように差分テンプレートの更新は、ステップ6(S6)により作成される差分情報の量に応じて、ステップ8(S8)により作成された前回までの差分テンプレートに、今回の差分テンプレートの情報を追加する処理、または今回の差分テンプレートに全更新する処理のいずれかを選択して行う。そして、この更新された差分テンプレートを記憶手段19に記憶して次のステップに進む。
Next, in step 9 (S9), the difference template is updated based on the amount of movement of the occupant (difference template updating means 18 in FIG. 4). FIGS. 10A to 10C are diagrams showing an example of updating the difference template in the present embodiment.
The basic idea in this process is that if the amount of motion information extracted in step 6 (S6) is larger than a predetermined value Tm, the difference template extracted in step 8 (S8) is used as a new difference template, When the amount of information is less than or equal to the predetermined value Tm, the current difference template (FIG. 10) extracted in step 8 (S8) is added to the previous difference template (corresponding to FIG. 10 (a)) stored in the storage means 19. (Corresponding to (b)) is added (OR operation of both templates) to form a new difference template (corresponding to FIG. 10C). In this embodiment, the update of the difference template based on the amount of motion information is described. However, in addition to this process, the difference template update method may be changed according to the position of the extracted difference information. It doesn't matter. In other words, whether to add to the previous difference template may be determined based on the position of the motion information. In this way, the difference template is updated by adding the information of the current difference template to the previous difference template created in step 8 (S8) according to the amount of difference information created in step 6 (S6). This is performed by selecting either the processing to be performed or the processing for completely updating the current difference template. Then, the updated difference template is stored in the storage means 19 and the process proceeds to the next step.

次に、ステップ10(S10)において、ステップ5(S5)で作成されたエッジテンプレートとステップ9(S9)で作成された差分テンプレートの統合処理を行う(図4のテンプレート統合手段20)。すなわち、作成されたエッジテンプレートと更新された差分テンプレートとの共通領域を新たな着目領域として抽出し、該共通領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジ情報と差分情報に基づいた統合テンプレートを作成する。図11は本実施の形態におけるテンプレート統合処理例を示す図である。(a)はエッジテンプレート、(b)は差分テンプレート、(c)は統合テンプレートを示す。
例えば、エッジテンプレートが図11(a)に示すように抽出され、差分テンプレートが図11(b)に示すように抽出されている場合、両テンプレートの論理積演算を行うことにより、共通領域を図11(c)に示す乗員位置参照統合テンプレートとして抽出する(図5の共通領域抽出手段201)。
Next, in step 10 (S10), the edge template created in step 5 (S5) and the difference template created in step 9 (S9) are integrated (template integration means 20 in FIG. 4). In other words, a common area between the created edge template and the updated difference template is extracted as a new area of interest, a predetermined value is set in the common area, and another predetermined value is set in the other areas To create an integrated template based on the edge information and the difference information. FIG. 11 is a diagram showing an example of template integration processing in the present embodiment. (A) is an edge template, (b) is a difference template, and (c) is an integrated template.
For example, when an edge template is extracted as shown in FIG. 11A and a difference template is extracted as shown in FIG. 11B, a common area is shown by performing a logical product operation of both templates. It is extracted as an occupant position reference integrated template shown in FIG. 11C (common area extracting means 201 in FIG. 5).

次に、ステップ11(S11)において、ステップ10(S10)で作成された共通領域に個別のラベル番号を付ける乗員位置参照テンプレートのラベリング処理を行う(図5のラベル番号付け手段202)。図12(a)、(b)は本実施の形態におけるラベルの更新例を示す図である。
図11(c)に示した例では、抽出された領域が1つであるので問題ないが、例えば乗員が眼鏡をかけているような場合には、図12(a)に示すように額領域と顔の下部領域が分離してしまう。このような場合には、それぞれの領域に異なるラベル番号を付ける。
Next, in step 11 (S11), the occupant position reference template for labeling the common area created in step 10 (S10) is labeled (label numbering means 202 in FIG. 5). FIGS. 12A and 12B are diagrams showing an example of label update in the present embodiment.
In the example shown in FIG. 11 (c), there is no problem because the extracted area is one. For example, when the occupant is wearing glasses, the forehead area is shown in FIG. 12 (a). And the lower area of the face is separated. In such a case, a different label number is attached to each area.

次に、ステップ12(S12)において、ステップ11(S11)でラベル番号付けされた領域に対して、リラベリング処理を行う(図5のラベル番号更新手段203)。例えば、乗員が眼鏡をかけているような場合には、上述のごとく図12(a)に示したように額領域と顔の下部領域が分離してしまうが、本来この分離された領域は同一乗員の顔情報なので、同じものとして扱う方が望ましい。したがって、図12(b)に示すように、各共通領域の水平方向の成分が垂直方向に共通な部分がある領域は同一対象であると判断して、異なるラベル番号が付いている領域を同じラベル番号にする。このように、付けられたラベル番号に基づいて、各共通領域の水平方向の成分が垂直方向に共通な領域は同一対象であると判断し、同一のラベル番号となるようにラベル番号を更新する。以上の処理により、ラベル番号付けされた乗員位置参照テンプレートを作成して次のステップに進む。   Next, in step 12 (S12), a relabeling process is performed on the area numbered in step 11 (S11) (label number updating unit 203 in FIG. 5). For example, when the occupant is wearing glasses, the forehead region and the lower region of the face are separated as shown in FIG. 12A as described above. Since it is occupant face information, it is desirable to treat them as the same. Accordingly, as shown in FIG. 12 (b), it is determined that regions having a common part in the horizontal direction of each common region are the same target, and regions having different label numbers are the same. Use a label number. In this way, based on the assigned label number, it is determined that the regions in which the horizontal component of each common region is common in the vertical direction are the same target, and the label number is updated so that the same label number is obtained. . With the above processing, a label numbered occupant position reference template is created and the process proceeds to the next step.

次に、ステップ13(S13)において、ステップ10(S10)により取得された位置情報とステップ2(S2)により取得された画像からの温度情報に基づいて、乗員情報を算出して出力する。すなわち、ステップ12(S12)で作成された図11(c)に示す乗員位置参照統合テンプレートに基づいて、ステップ2(S2)で得られた二次元熱画像情報から温度情報を参照し、例えば乗員の有無および頭部位置、および顔の代表温度を乗員情報として抽出する(図4の乗員情報抽出手段21)。具体的には、乗員位置参照統合テンプレートを走査して、ラベル番号ごとに値が1となっている画素位置の温度を二次元熱画像情報から読み出し、ラベル番号ごとの平均温度を算出する。そして、再度乗員位置参照統合テンプレートを走査して、値が1となっている画素位置の温度をラベル番号ごとに二次元熱画像情報から読み出し、この平均値よりも高い温度情報を乗員情報抽出用情報とする。この処理で抽出された情報の平均値を求め、例えば動き情報が過去にあって、かつ、平均温度が所定範囲内である場合には乗員がいると判断し、そうでない場合は乗員がいないと判断する。さらに、乗員がいると判断された場合には、例えば乗員抽出用情報の分布の重心位置を乗員の頭部位置として抽出し、乗員抽出用情報の平均値を乗員の代表温度として抽出する。このような乗員情報を抽出して次のステップに進む。なお、乗員情報の抽出は、乗員の有無、乗員の位置、乗員の顔温度の少なくとも一つを抽出する。   Next, in step 13 (S13), occupant information is calculated and output based on the position information acquired in step 10 (S10) and the temperature information from the image acquired in step 2 (S2). That is, based on the occupant position reference integrated template shown in FIG. 11C created in step 12 (S12), temperature information is referred to from the two-dimensional thermal image information obtained in step 2 (S2). Presence / absence, head position, and representative face temperature are extracted as occupant information (occupant information extraction means 21 in FIG. 4). Specifically, the occupant position reference integrated template is scanned, the temperature at the pixel position having a value of 1 for each label number is read from the two-dimensional thermal image information, and the average temperature for each label number is calculated. Then, the occupant position reference integrated template is scanned again, the temperature of the pixel position having a value of 1 is read from the two-dimensional thermal image information for each label number, and temperature information higher than this average value is extracted for occupant information. Information. The average value of the information extracted in this process is obtained. For example, if the motion information is in the past and the average temperature is within a predetermined range, it is determined that there is an occupant. to decide. Further, when it is determined that there is an occupant, for example, the center of gravity position of the occupant extraction information distribution is extracted as the occupant head position, and the average value of the occupant extraction information is extracted as the representative temperature of the occupant. Such occupant information is extracted and the process proceeds to the next step. In the extraction of occupant information, at least one of the presence / absence of the occupant, the position of the occupant, and the face temperature of the occupant is extracted.

最後に、ステップ14(S14)において、ステップ13(S13)で抽出された乗員情報を、モニタ3、エアバッグ制御装置4、エアコン制御装置5等の後続の装置へ出力した後にステップ2(S2)に戻り、以下同様の処理を繰り返す。   Finally, in step 14 (S14), the occupant information extracted in step 13 (S13) is output to subsequent devices such as the monitor 3, the airbag control device 4, and the air conditioner control device 5, and then step 2 (S2). Then, the same processing is repeated thereafter.

以上説明したように本実施の形態の乗員検出装置および方法は、車室内の温度分布を表わす熱画像情報を含む画像を取得し、この画像を用いてエッジ情報を作成し、このエッジ情報のうち、所定条件を満たす画素により囲まれたエッジ領域に所定値を設定し、それ以外の領域には別の所定値を設定してエッジテンプレートを作成し、取得した前回の画像と今回の画像との差分をとって差分情報を作成し、この差分情報のうち、所定条件を満たす画素により囲まれた差分領域に所定値を設定し、それ以外の領域には別の所定値を設定して差分テンプレートを作成し、この差分テンプレートを更新し、エッジテンプレートと更新した差分テンプレートとの共通領域に所定値を設定し、それ以外の領域には別の所定値を設定してエッジ情報と差分情報に基づいた統合テンプレートを作成し、統合テンプレートにおける位置情報と画像からの温度情報に基づいて、乗員情報を算出して出力するようになっている。上記従来技術が時間の異なる2枚の原画像を用いて、エッジ画像を作成してからエッジ画像の差分画像を作成して位置検出を行うのに対して、本発明では、時間の異なる2枚の原画像を用いて、エッジ画像と原画像の差分画像をそれぞれ作成して、整合性判断を行ってから位置検出を行う。このように境界情報を抽出するエッジ処理と動き情報を抽出する差分処理との両方から、乗員が存在する領域を特定し、撮像した画像情報から乗員情報を検出するようにしているので、頭部以外の動きがあった場合にその動きに影響されることなく、乗員の有無を確実に検出することが可能である。また、動き情報が発生しない初期状態や短時間動き情報がない場合でも、その都度エッジ処理により位置が特定できるため、乗員の有無を確実に検出することが可能である。つまり、動き情報がない場合に前回の出力を保持するのではなく、毎回結果が得られる。そして、この乗員の有無の出力信号により、乗員の有無に基づいたエアバッグ展開のオン、オフの制御や空調吹出し口の制御を行うことが可能である。   As described above, the occupant detection apparatus and method according to the present embodiment acquires an image including thermal image information representing the temperature distribution in the passenger compartment, creates edge information using the image, and includes the edge information. A predetermined value is set in the edge region surrounded by pixels satisfying the predetermined condition, and another predetermined value is set in the other region to create an edge template, and the acquired previous image and current image A difference template is created by taking difference and setting a predetermined value in a difference area surrounded by pixels satisfying a predetermined condition in the difference information and setting another predetermined value in other areas. This difference template is updated, a predetermined value is set in the common area of the edge template and the updated difference template, and another predetermined value is set in the other areas to set the edge information and the difference information. Create an integrated template based on, based on the temperature information from the position information and the image in the integrated template, and outputs to calculate the occupant information. Whereas the conventional technique uses two original images at different times to create an edge image and then creates a differential image of the edge image to perform position detection, in the present invention, the two images at different times are used. The original image is used to create a difference image between the edge image and the original image, and after the consistency is determined, position detection is performed. In this way, the region where the occupant is present is specified from both the edge processing for extracting the boundary information and the difference processing for extracting the motion information, and the occupant information is detected from the captured image information. It is possible to reliably detect the presence or absence of an occupant without being affected by the movement other than. Further, even when there is no initial state where no motion information is generated or when there is no short-time motion information, the position can be specified by edge processing each time, so that the presence or absence of a passenger can be reliably detected. That is, instead of holding the previous output when there is no motion information, the result is obtained every time. Based on the presence / absence of an occupant output signal, it is possible to perform on / off control of the airbag deployment and control of the air-conditioning outlet based on the presence / absence of the occupant.

また、抽出された各領域において、垂直方向に見たときに重なる部分がある領域は同一対象の情報として扱うようにしているので、例えば眼鏡をかけた乗員の顔領域が上下で二つに分割されていたとしても同一の情報として抽出することが可能である。
また、乗員の頭部位置を算出して出力するようにしているので、乗員の頭部位置に基づいたエアバッグの展開力制御や空調の吹出し口および吹出し方向制御を行うことが可能である。
また、熱画像情報を取得して、この温度情報に基づいて乗員情報を抽出するようにしているので、乗員と荷物との判断を容易に行うことが可能である。
また、背景の温度分布に基づいて、乗員の動きを検出する温度変化状態の組み合わせや、境界検出時のエッジ符号の組み合わせを変更するようにしているので、車室内の温度が乗員の表面温度よりも高い場合や低い場合にかかわらず、乗員の位置や動きを安定して検出することが可能である。
さらに、乗員の代表温度を算出して出力するようにしているので、乗員の温感に基づいた空調の温度制御を行うことが可能である。
In addition, in each extracted area, an area that overlaps when viewed in the vertical direction is treated as the same target information, so the face area of the occupant wearing glasses, for example, is divided into two vertically Even if it is done, it can be extracted as the same information.
Further, since the occupant's head position is calculated and output, it is possible to perform airbag deployment force control and air conditioning outlet and outlet direction control based on the occupant's head position.
Further, since the thermal image information is acquired and the occupant information is extracted based on the temperature information, it is possible to easily determine the occupant and the luggage.
In addition, the temperature change in the passenger compartment is detected based on the background temperature distribution, and the combination of edge codes at the time of boundary detection is changed. Regardless of whether it is high or low, it is possible to stably detect the position and movement of the occupant.
Furthermore, since the representative temperature of the occupant is calculated and output, it is possible to control the temperature of the air conditioning based on the occupant's feeling of temperature.

上記のような効果があるので、対象の境界を抽出するエッジ処理と対象の動きを抽出する差分処理によって乗員の存在する領域を特定して、その領域に相当する位置の画像情報に基づいて乗員状態を抽出するようにすることにより、乗員の動きにかかわらず乗員の存在、位置、温度等の状態が検出可能な装置および方法を提供することができる。
なお、以上説明した実施の形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施の形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
Because of the effects as described above, an area where an occupant is present is specified by edge processing for extracting the boundary of the object and difference processing for extracting the motion of the object, and the occupant is based on image information at a position corresponding to the area. By extracting the state, it is possible to provide an apparatus and a method that can detect the state of the presence, position, temperature, etc. of the occupant regardless of the movement of the occupant.
The embodiment described above is described in order to facilitate understanding of the present invention, and is not described in order to limit the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.

本発明の実施の形態の乗員検出装置のハードウェアを示す構成図である。It is a block diagram which shows the hardware of the passenger | crew detection apparatus of embodiment of this invention. (a)は本発明の実施の形態におけるカメラの取り付け状態を示す側面図、(b)は上面図である。(A) is a side view which shows the attachment state of the camera in embodiment of this invention, (b) is a top view. 本発明の実施の形態における撮像領域を示す図である。It is a figure which shows the imaging area in embodiment of this invention. 本発明の実施の形態の乗員検出装置を機能的に表現した機能ブロック図である。It is a functional block diagram functionally expressing the occupant detection device of the embodiment of the present invention. 図4のテンプレート統合手段の内容を示す機能ブロック図である。It is a functional block diagram which shows the content of the template integration means of FIG. 本発明の実施の形態の乗員検出装置および方法における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the passenger | crew detection apparatus and method of embodiment of this invention. 本発明の実施の形態における乗員の動きについて説明するための図で、(a)は時刻T−1における車室内の温度画像、(b)は時刻Tで頭を傾けた場合を示す図である。It is a figure for demonstrating a passenger | crew's movement in embodiment of this invention, (a) is a temperature image in a vehicle interior in the time T-1, (b) is a figure which shows the case where the head is inclined at the time T. . 本発明の実施の形態におけるエッジテンプレートの作成例を示す図で、(a)はエッジ処理、(b)は領域テンプレート、(c)はエッジテンプレートを示す図である。It is a figure which shows the creation example of the edge template in embodiment of this invention, (a) is an edge process, (b) is an area | region template, (c) is a figure which shows an edge template. 本発明の実施の形態における差分テンプレートの作成例を示す図で、(a)は差分処理、(b)は領域テンプレート、(c)は差分テンプレートを示す図である。It is a figure which shows the example of creation of the difference template in embodiment of this invention, (a) is a difference process, (b) is an area | region template, (c) is a figure which shows a difference template. (a)〜(c)は本発明の実施の形態における差分テンプレートの更新例を示す図である。(A)-(c) is a figure which shows the example of an update of the difference template in embodiment of this invention. 本発明の実施の形態におけるテンプレート統合処理例を示す図で、(a)はエッジテンプレート、(b)は差分テンプレート、(c)は統合テンプレートを示す図である。It is a figure which shows the template integration process example in embodiment of this invention, (a) is an edge template, (b) is a difference template, (c) is a figure which shows an integrated template. (a)、(b)は本発明の実施の形態におけるラベルの更新例を示す図である。(A), (b) is a figure which shows the example of a label update in embodiment of this invention.

符号の説明Explanation of symbols

1…IRカメラ 2…マイクロコンピュータ
3…モニタ 4…エアバッグ制御装置
5…エアコン制御装置
11…撮像手段 12…エッジ情報作成手段
13…エッジ領域抽出手段 14…エッジテンプレート作成手段
15…差分情報作成手段 16…差分領域抽出手段
17…差分テンプレート作成手段 18…差分テンプレート更新手段
19…記憶手段 20…テンプレート統合手段
21…乗員情報抽出手段
30…運転席乗員 30a…運転席乗員の頭部
31…サイドガラス 32…リアガラス
33…天井
201…共通領域抽出手段 202…ラベル番号付け手段
203…ラベル番号更新手段
DESCRIPTION OF SYMBOLS 1 ... IR camera 2 ... Microcomputer 3 ... Monitor 4 ... Airbag control apparatus 5 ... Air-conditioner control apparatus 11 ... Imaging means 12 ... Edge information creation means 13 ... Edge area extraction means 14 ... Edge template creation means 15 ... Difference information creation means 16 ... Difference area extraction means 17 ... Difference template creation means 18 ... Difference template update means 19 ... Storage means 20 ... Template integration means 21 ... Passenger information extraction means 30 ... Driver's seat occupant 30a ... Driver's seat occupant's head 31 ... Side glass 32 ... rear glass 33 ... ceiling 201 ... common area extraction means 202 ... label numbering means 203 ... label number updating means

Claims (9)

車室内に設置され、車室内の乗員情報を検出する乗員検出装置において、
車室内の温度分布を表わす熱画像情報を含む画像を取得する撮像手段と、
前記撮像手段により取得された画像を用いて、エッジ情報を作成するエッジ情報作成手段と、
前記エッジ情報作成手段により作成されたエッジ情報の中から、所定条件を満たす画素により囲まれたエッジ領域を抽出するエッジ領域抽出手段と、
前記エッジ領域抽出手段により抽出されたエッジ領域に基づいて、該エッジ領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジテンプレートを作成するエッジテンプレート作成手段と、
前記撮像手段により取得された前回の画像と今回の画像との差分をとることにより差分情報を作成する差分情報作成手段と、
前記差分情報作成手段により作成された差分情報の中から、所定条件を満たす画素により囲まれた差分領域を抽出する差分領域抽出手段と、
前記差分領域抽出手段により抽出された差分領域に基づいて、該差分領域に所定値を設定し、それ以外の領域には別の所定値を設定することにより差分テンプレートを作成する差分テンプレート作成手段と、
前記差分テンプレートを更新する差分テンプレート更新手段と、
前記撮像手段により取得された画像および前記差分テンプレート更新手段により更新された差分テンプレートを記憶する記憶手段と、
前記エッジテンプレート作成手段により作成されたエッジテンプレートと、前記差分テンプレート更新手段により更新された差分テンプレートとの共通領域を抽出し、該共通領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジ情報と差分情報に基づいた統合テンプレートを作成するテンプレート統合手段と、
前記テンプレート統合手段により取得された位置情報と前記撮像手段により取得された画像からの温度情報に基づいて、乗員情報を算出して出力する乗員情報抽出手段と、
を備えたことを特徴とする乗員検出装置。
In an occupant detection device that is installed in the passenger compartment and detects occupant information in the passenger compartment,
Imaging means for acquiring an image including thermal image information representing a temperature distribution in the passenger compartment;
Edge information creating means for creating edge information using an image acquired by the imaging means;
Edge region extraction means for extracting an edge region surrounded by pixels satisfying a predetermined condition from the edge information created by the edge information creation means;
Edge template creation means for creating an edge template by setting a predetermined value for the edge area based on the edge area extracted by the edge area extraction means and setting another predetermined value for the other area; ,
Difference information creating means for creating difference information by taking the difference between the previous image acquired by the imaging means and the current image;
A difference area extracting means for extracting a difference area surrounded by pixels satisfying a predetermined condition from the difference information created by the difference information creating means;
A difference template creating means for creating a difference template by setting a predetermined value in the difference area based on the difference area extracted by the difference area extracting means and setting another predetermined value in the other area; ,
Difference template update means for updating the difference template;
Storage means for storing the image acquired by the imaging means and the difference template updated by the difference template update means;
A common area between the edge template created by the edge template creation means and the difference template updated by the difference template update means is extracted, and a predetermined value is set in the common area. Template integration means for creating an integrated template based on edge information and difference information by setting a predetermined value;
Occupant information extraction means for calculating and outputting occupant information based on position information acquired by the template integration means and temperature information from the image acquired by the imaging means;
An occupant detection device comprising:
前記エッジ情報は、少なくとも縦エッジ情報を含むことを特徴とする請求項1記載の乗員検出装置。   The occupant detection device according to claim 1, wherein the edge information includes at least vertical edge information. 前記エッジ領域抽出手段および前記差分領域抽出手段において、
前記撮像手段により取得された熱画像情報の所定領域の平均温度を背景温度として抽出し、該背景温度に基づいて各領域抽出のための所定条件をそれぞれ変更することを特徴とする請求項1または2記載の乗員検出装置。
In the edge area extraction means and the difference area extraction means,
The average temperature of a predetermined area of the thermal image information acquired by the imaging means is extracted as a background temperature, and the predetermined condition for extracting each area is changed based on the background temperature, respectively. 2. The occupant detection device according to 2.
前記差分テンプレート更新手段は、
前記差分情報作成手段により作成される差分情報の量に応じて、前記差分テンプレート作成手段により作成された前回までの差分テンプレートに今回の差分テンプレートの情報を追加する処理、
または今回の差分テンプレートに全更新する処理
のいずれかを選択して、差分テンプレートの更新を行うことを特徴とする請求項1ないし3のいずれかに記載の乗員検出装置。
The difference template update means includes:
A process of adding information on the current difference template to the previous difference template created by the difference template creation unit according to the amount of difference information created by the difference information creation unit,
4. The occupant detection apparatus according to claim 1, wherein the difference template is updated by selecting any of the processes for updating all of the current difference template.
前記テンプレート統合手段は、
前記共通領域に個別のラベル番号を付けるラベル番号付け手段と、
前記ラベル番号付け手段により付けられたラベル番号に基づいて、各共通領域の水平方向の成分が垂直方向に共通な領域は同一対象であると判断し、同一のラベル番号となるようにラベル番号を更新するラベル更新手段とを有し、
前記乗員情報抽出手段は、
前記撮像手段により取得された画像からの温度情報を参照する際に、同一のラベル番号が付けられた位置を一つの対象情報として処理することを特徴とする請求項1ないし4のいずれかに記載の乗員検出装置。
The template integration means includes
Label numbering means for assigning individual label numbers to the common area;
Based on the label number assigned by the label numbering means, the horizontal component of each common area is determined to be the same object in the vertical direction, and the label number is set so as to be the same label number. Label updating means for updating,
The occupant information extracting means includes
5. When referring to temperature information from an image acquired by the imaging means, a position with the same label number is processed as one piece of target information. Occupant detection device.
前記乗員情報抽出手段は、
乗員の有無を抽出することを特徴とする請求項1ないし請求項5のいずれかに記載の乗員検出装置。
The occupant information extracting means includes
6. The occupant detection device according to claim 1, wherein presence / absence of an occupant is extracted.
前記乗員情報抽出手段は、
乗員の位置を抽出することを特徴とする請求項1ないし請求項6のいずれかに記載の乗員検出装置。
The occupant information extracting means includes
The occupant detection device according to any one of claims 1 to 6, wherein a position of the occupant is extracted.
前記乗員情報抽出手段は、
乗員の顔温度を抽出することを特徴とする請求項1ないし請求項7のいずれかに記載の乗員検出装置。
The occupant information extracting means includes
The occupant detection device according to any one of claims 1 to 7, wherein the occupant face temperature is extracted.
車室内の乗員情報を検出する乗員検出方法において、
車室内の温度分布を表わす熱画像情報を含む画像を取得する撮像工程と、
前記撮像工程により取得された画像を用いて、エッジ情報を作成するエッジ情報作成工程と、
前記エッジ情報作成工程により作成されたエッジ情報の中から、所定条件を満たす画素により囲まれたエッジ領域を抽出するエッジ領域抽出工程と、
前記エッジ領域抽出工程により抽出されたエッジ領域に基づいて、該エッジ領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジテンプレートを作成するエッジテンプレート作成工程と、
前記撮像工程により取得された前回の画像と今回の画像との差分をとることにより差分情報を作成する差分情報作成工程と、
前記差分情報作成工程により作成された差分情報の中から、所定条件を満たす画素により囲まれた差分領域を抽出する差分領域抽出工程と、
前記差分領域抽出工程により抽出された差分領域に基づいて、該差分領域に所定値を設定し、それ以外の領域には別の所定値を設定することにより差分テンプレートを作成する差分テンプレート作成工程と、
前記差分テンプレートを更新する差分テンプレート更新工程と、
前記エッジテンプレート作成工程により作成されたエッジテンプレートと、前記差分テンプレート更新工程により更新された差分テンプレートとの共通領域を抽出し、該共通領域に所定値を設定し、それ以外の領域には別の所定値を設定することによりエッジ情報と差分情報に基づいた統合テンプレートを作成するテンプレート統合工程と、
前記テンプレート統合工程により取得された位置情報と前記撮像工程により取得された画像からの温度情報に基づいて、乗員情報を算出して出力する乗員情報抽出工程とを有することを特徴とする乗員検出方法。
In the passenger detection method for detecting passenger information in the passenger compartment,
An imaging step of acquiring an image including thermal image information representing a temperature distribution in the passenger compartment;
Using the image acquired by the imaging step, an edge information creation step for creating edge information;
An edge region extraction step for extracting an edge region surrounded by pixels satisfying a predetermined condition from the edge information created by the edge information creation step;
An edge template creation step of creating an edge template by setting a predetermined value in the edge region based on the edge region extracted in the edge region extraction step and setting another predetermined value in the other region; ,
A difference information creating step of creating difference information by taking the difference between the previous image acquired by the imaging step and the current image;
From the difference information created by the difference information creation step, a difference region extraction step for extracting a difference region surrounded by pixels that satisfy a predetermined condition;
A difference template creating step of creating a difference template by setting a predetermined value in the difference area and setting another predetermined value in the other area based on the difference area extracted by the difference area extracting step; ,
A difference template update step for updating the difference template;
A common area between the edge template created by the edge template creation process and the difference template updated by the difference template update process is extracted, and a predetermined value is set in the common area. A template integration step of creating an integrated template based on edge information and difference information by setting a predetermined value;
An occupant information extraction step of calculating and outputting occupant information based on the position information acquired by the template integration step and the temperature information from the image acquired by the imaging step. .
JP2004117543A 2004-04-13 2004-04-13 Occupant detection apparatus and method Pending JP2005301719A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004117543A JP2005301719A (en) 2004-04-13 2004-04-13 Occupant detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004117543A JP2005301719A (en) 2004-04-13 2004-04-13 Occupant detection apparatus and method

Publications (1)

Publication Number Publication Date
JP2005301719A true JP2005301719A (en) 2005-10-27

Family

ID=35333167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004117543A Pending JP2005301719A (en) 2004-04-13 2004-04-13 Occupant detection apparatus and method

Country Status (1)

Country Link
JP (1) JP2005301719A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11364867B2 (en) 2017-08-16 2022-06-21 Audi Ag Method for operating an occupant protection system of a vehicle, and occupant protection system for a vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06117836A (en) * 1992-08-21 1994-04-28 Matsushita Electric Ind Co Ltd Image processing apparatus, controller of air conditioner, and applied equipment using the apparatus
JPH0894400A (en) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd Image processor and applied apparatus using the same
JPH10315906A (en) * 1997-05-21 1998-12-02 Zexel Corp Occupant recognition method, occupant recognition device, air bag control method and air bag device
JP2002352239A (en) * 2001-05-29 2002-12-06 Matsushita Electric Works Ltd Image processing method and image processor using the same
JP2004078297A (en) * 2002-08-09 2004-03-11 Takenaka Komuten Co Ltd Information processor, information processing method and environment control device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06117836A (en) * 1992-08-21 1994-04-28 Matsushita Electric Ind Co Ltd Image processing apparatus, controller of air conditioner, and applied equipment using the apparatus
JPH0894400A (en) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd Image processor and applied apparatus using the same
JPH10315906A (en) * 1997-05-21 1998-12-02 Zexel Corp Occupant recognition method, occupant recognition device, air bag control method and air bag device
JP2002352239A (en) * 2001-05-29 2002-12-06 Matsushita Electric Works Ltd Image processing method and image processor using the same
JP2004078297A (en) * 2002-08-09 2004-03-11 Takenaka Komuten Co Ltd Information processor, information processing method and environment control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11364867B2 (en) 2017-08-16 2022-06-21 Audi Ag Method for operating an occupant protection system of a vehicle, and occupant protection system for a vehicle

Similar Documents

Publication Publication Date Title
JP4031122B2 (en) Object detection device using difference image
JP4692344B2 (en) Image recognition device
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
US11132534B2 (en) Monitoring system
JP2018173756A (en) Detection device, detection method, and detection program
JP2022530605A (en) Child state detection method and device, electronic device, storage medium
JP2004067031A (en) Operator determining device and on-vehicle device using the same
JPH1115980A (en) Device for detecting presence of object in automobile
US9826166B2 (en) Vehicular surrounding-monitoring control apparatus
JP2004133944A (en) Method for separating segmented image and segmentation system therefor
WO2005027047A3 (en) System or method for identifying a region-of-interest in an image
EP3456574A1 (en) Method and system for displaying virtual reality information in a vehicle
Martin et al. Real time driver body pose estimation for novel assistance systems
JP2018147329A (en) Image processing device, image processing system, and image processing method
JP2005301719A (en) Occupant detection apparatus and method
KR101976498B1 (en) System and method for gesture recognition of vehicle
JP3906845B2 (en) Occupant detection apparatus and method
JP4615536B2 (en) Display device
JP2009113599A (en) On-vehicle input device
JP2023009149A (en) Gesture detection device, gesture detection method, and program
JP5862261B2 (en) DETECTING DEVICE, DETECTING METHOD, AND VEHICLE
JP5804638B2 (en) Object discrimination method
JP2005071041A (en) Device and system for detecting visual object of driver
JP4765363B2 (en) Occupant detection device and occupant detection method
JP2022052193A (en) Image processing device and image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070206