JP3503399B2 - Presence / absence of car occupants, posture detection method - Google Patents

Presence / absence of car occupants, posture detection method

Info

Publication number
JP3503399B2
JP3503399B2 JP05818097A JP5818097A JP3503399B2 JP 3503399 B2 JP3503399 B2 JP 3503399B2 JP 05818097 A JP05818097 A JP 05818097A JP 5818097 A JP5818097 A JP 5818097A JP 3503399 B2 JP3503399 B2 JP 3503399B2
Authority
JP
Japan
Prior art keywords
seat
distance
occupant
distance distribution
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05818097A
Other languages
Japanese (ja)
Other versions
JPH10250450A (en
Inventor
太一 谷川
秀幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Holdings Ltd filed Critical Fuji Electric Holdings Ltd
Priority to JP05818097A priority Critical patent/JP3503399B2/en
Publication of JPH10250450A publication Critical patent/JPH10250450A/en
Application granted granted Critical
Publication of JP3503399B2 publication Critical patent/JP3503399B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】この発明は、複数の光センサ
素子からなる直線状の光センサアレイを用いて自動車乗
員の有無,姿勢を検出する検出方法、特にエアバッグの
展開制御のために用いて好適な自動車乗員の有無,姿勢
検出方法に関する。 【0002】 【従来の技術】エアバッグ装着率は、ここ数年で増加の
傾向にあり、車種によらずエアバッグは標準装備となり
つつある。しかし、子供が座席の前方に立っていたり、
小柄な女性が座っている場合は、死傷事故の原因となる
ことが報告されている。そのため、このような死傷事故
を回避するためのエアバッグの展開制御が種々提案され
ている。そのうち、自動車内の天井位置にセンサを設け
てセンサから乗員までの距離を測定(測距)し、その距
離分布から乗員の有無,姿勢を検出する従来方法につい
て、以下に説明する。 【0003】 図5はこのような従来例を説明するため
の概要図で、1は乗員センサ、2は乗員、3は自動車、
4は座席をそれぞれ示す。これは、乗員センサ1に乗員
2の像を結像させるもので、ここでは例えば乗員2に対
して4つの直線状の検査領域(視野)R1,R2,R
3,R4を設定して各領域毎に複数部位の乗員センサ出
力を得、この出力を図示されない処理装置にて演算処理
し、乗員の各部位の測距を行ない、処理装置で予め設定
されている座標距離(乗員が居ない場合の乗員センサか
らの距離)との差分をとることで、乗員の有無だけでな
く、その姿勢を判断するものである。 【0004】 図6に乗員センサの1例を示す。乗員セ
ンサ1はここでは、光センサアレイ対を4対設けて作成
される多段受光IC10と、結像レンズ21,22とを
一体化して構成されている。光センサアレイ対は何対と
しても良いが、ここでは4つの検査領域または視野R
1,R2,R3,R4を設定するため、4段構成となっ
ている。なお、図6の符号5は補助光源、符号Vはセン
サの視野中心方向を示す。 【0005】まず、測距原理について、図7を参照して
説明する。いま、結像レンズ21,22の中心を原点O
として横軸X,縦軸Yを設定し、結像位置L1 ,R1
座標をそれぞれ(−aL −B/2,−f),(aR +B
/2,−f)とする。また、結像レンズ21の中心点O
L の座標は(−B/2,0),結像レンズ22の中心点
R の座標は(B/2,0)であり、対象物(被写体)
の点Mの座標を(−x,y)とすれば、点MからX軸に
下ろした垂線とX軸との交点Nの座標は(−x,0)、
点OL から光センサアレイ12に下ろした垂線の位置L
0 の座標は(−B/2,f)、点OR から光センサアレ
イ11に下ろした垂線の位置R0 の座標は(B/2,
f)である。 【0006】ここで、aL は点L0 と点L1 との間の距
離を表わし、aR は点R0 と点R1との間の距離を表わ
す。このとき、△MOL Nと△OL 0 1 ,△MOR
Nと△OR 1 0 はそれぞれ相似であることから、 (−x+B/2)f=aL ・y …(1) (x+B/2)f=aR ・y …(2) が成立する。(1),(2)式からxを消去すると、 y=B・f/(aL +aR ) …(3) となり、左の光センサアレイ12の結像位置L1 と点L
0 との距離aL と、右の光センサアレイ11の結像位置
1 とR0 との距離aR が分かれば、上記(3)式から
対象物までの距離yを求められることになる。 【0007】次に、座席像の設定方法について図8のフ
ローチャートを参照して説明する。なお、この設定は出
荷時に一度だけ実施される。すなわち、図8のステップ
S1は、座席背もたれの傾き(座席傾きΘ)の初期化を
実施する。この座席傾きを、図9にΘで示す。ステップ
S2は座席最先端面の位置(座席位置)の初期化を実施
する。座席位置を図9では符号DSで示す。ステップS
3では、或る座席位置,傾きでの座席像を測距し、ステ
ップS4では座席像の距離分布をセンサのデータ記憶領
域に記憶させる。図10に座席像の距離分布例を示す。
ステップS5,S6ではステップS3,S4の処理を複
数回実行して、座席位置,傾き毎の座席像の距離分布パ
ターンをそれぞれ作成し、記憶しておく。このフローチ
ャートに従い、座席をΘ=Θmin,Ds=minの位
置から始め、Ds値,Θ値を順次変えて座席距離分布を
取得することで、全座席距離分布データを取得する。 【0008】 ここで、図10のような離散的な距離分
布を得る概念について、以下に説明する。図11に示す
ようなn個の光センサ素子からなる左,右の光センサア
レイ11,12の量子化データをそれぞれA1〜An,B
1〜Bnとする。センサ正面から所定の角度(図7で、Y
軸と対象物座標Mと原点Oとを結ぶ軸とのなす角)にあ
る対象物までの距離指標(aL+aR)を求めるには、上
記データにつき、所定大きさの観測領域(ウインドウ)
1〜Wm+1を設定して、1センサ単位(1ビットずつ)
ずつ交互にずらした(m+1)組の部分集合C0〜Cm
考え、この部分集合毎に量子化データの差の絶対値の和
からなる評価関数f(C0)〜f(Cm)を計算し、この
評価関数が最少となる組み合わせCkを求めることで、
添え字kの値から左右の像のずれ具合が分かり、(aL
+aR)に比例する距離指標が得られることが知られて
いる。そこで、このような処理を例えば1ビットずつ順
次ずらして行きながら、1〜n個の視野について図12
のように行なえば、n個の離散的な距離データを得るこ
とができる。 【0009】図13は乗員判別処理を示し、測定した距
離分布から乗員情報を取り出すため、図8の如き処理で
得られた空の座席情報との差をとる処理を実行する。す
なわち、ステップS7では、例えば図14に示すような
乗員像を測距する。そのときの乗員像分布例を図15に
示す。ステップS8では図8で説明したような処理の結
果記憶された、例えば図10のような座席像の距離分布
をデータ記憶領域から読み出す。ステップS9では乗員
像距離分布と座席像距離分布との差を求め、差分の距離
分布を作成する。差分の距離分布例を図16に示す。こ
こでは、しきい値TH以下の距離値を示す測定点(測距
点)の個数をカウントする。このとき、図16からも明
らかなように、距離値は離散的な値をとることから、上
記のようなカウントができることが分かる。 【0010】図13のステップS10では、視野領域内
の全測距点の個数に対して、上記のしきい値以下の測距
点の占める割合Aを算出する。なお、ステップS8から
ステップS10の処理については、全座席像個数分だけ
行なわれる。そして、ステップS11で上記割合Aが最
小となる場合を選び、使用すべき座席像データを決定す
るわけである。すなわち、測定した距離分布データと、
記憶している空の座席距離分布データとの差を算出し、
最も差の小さいものを、その測定点における座席の距離
分布データとして選択するものである。 【0011】 【発明が解決しょうとする課題】上述のように、従来は
座席位置,傾きを変化させて直線状視野領域内の距離分
布の全パターンを予め記憶するための、膨大なデータ記
憶領域が必要となり、座席距離分布データを決定するに
当たってどの座席像距離分布データを使用するのかの決
定に多くの処理が必要になるという問題がある。したが
って、この発明の課題は、データ記憶領域の使用量を減
少させ、座席像距離分布データを簡単に求めることで、
処理時間を短縮することにある。 【0012】 【課題を解決するための手段】このような課題を解決す
べく、この発明では、複数の光センサ素子からなる直線
状の光センサアレイを複数対設けて自動車乗員の像を結
増させ、直線状視野領域内の距離分布を測定して、前記
距離分布と乗員の存在しない座席の距離分布との差から
自動車乗員の有無,姿勢を検出するに当たり、前記複数
対の光センサアレイを座席斜め前方上部に、各光センサ
アレイに対応する直線状視野の少なくとも2つが乗員を
水平方向に横切るように、かつ、座席背もたれ部を含む
ように配置し、前記直線状視野に対応する2つの距離分
布において距離値の変化量が最大となる部分を探し、そ
の最大変化を与える部分のうち、それぞれ距離値の小さ
い方を選択した2つの距離値を求め、該2つの距離値に対
応する前記座席上の2つの座標を求め、該2つの座標から
定まる直線の傾きから前記座席の傾きを求め、前記直線
の車体床面との交点座標から座席位置を求めて任意の座
席位置,傾きにおける前記直線状視野に対応する座席の
距離分布を算出可能にしたことを特徴とする。 【0013】すなわち、自動車座席の形状は比較的簡単
なため、座席形状を簡単な平面の組み合わせとして近似
できることを利用する。つまり、座席像距離分布データ
を作成するのに、座席の位置,傾きから数個の方程式を
解くだけで済むようにし、処理時間を短縮させる。ま
た、この方程式を解くに当たっては数個の定数をデータ
記憶領域に記憶させておくだけでよいので、メモリ容量
をほとんど使用する必要がなく、データ記憶領域使用量
を減少させることが可能となる。 【0014】 【発明の実施の形態】 図1はこの発明の実施の形態を
説明するためのフローチャート、図2は図1の理解を容
易にするための説明図である。乗員センサを、ここで
は図2に示すように座席斜め前方上部(S)に取り付け
て、常に座席背もたれ端部(P1,Q1)を観測し、座
標距離分布データを作成できるようにしている。また、
背もたれ部にはここでは2つの直線状視野(R1,R
2)を設定する。この2つの視野R1,R2に対応する
センサ対を図1では、それぞれセンサ1,センサ2とし
ている。 【0015】ステップS7では図13でも説明したよう
に、図15のような距離分布が得られるので、ステップ
S12では座席端部距離を求める。この座席端部距離は
図2に示すセンサ1の取り付け座標位置Sから点P1,
Q1までの距離を示し、座席端部は図2に直線SLP1
として示される。ここで、座席端部距離を求めるには、
図15で示す距離値の変化量が最大となる部分を探し、
その最大変化を与える部分のうち、距離値の小さい方と
する。これは、乗員センサ1の取り付け位置がここでは
座席の左側斜め前方上部にあるからである。 【0016】ステップS13では、ステップS12で求
められた各座席距離を、図3に示すようなセンサの仰角
情報θ1と、図15で示す座席端部距離の結像している
視野内距離の位置情報とから、点P1,Q1の座標を求
める。図3の符号ωはセンサ回転角、Vはセンサ中心方
向を示す。ステップS14では、この点P1,Q1の座
標から直線の式SLP1が算出され、ステップS15で
は、この直線の傾きから座席の傾き角度Θを求める。ス
テップ16では、直線SLP1と車体床面の方程式を解
き、車体床面の交点座標Rを算出する。図2または図9
で示すように座席シート長DLは定数なので、ステップ
17ではこの値から座席位置DSを簡単に求めることが
できる。 【0017】ステップS18では、直線SLP1とSL
P2が平行であることと、定数である座席背もたれ部の
厚みDとから直線SLP2を求め、ステップS19で
は、直線SLP1とSLP3が平行であることと、定数
である座席背もたれ部の幅Wとから直線SLP3を求め
る。ステップS20では、ステップS18,S19で求
めた直線SLP2,SLP3と、センサ1,センサ2の
視野平面である平面1,2との方程式を解くことで、点
P2,Q2,P3,Q3を求める。その際、直線SP
2,SQ2,SP3,SQ3の距離値から、センサ1の
視野内距離のどの位置に結像しているかが求まる。よっ
て、ステップS21では、これらの情報からセンサ1,
センサ2の座席像距離分布を作成することができる。図
4にその座席像距離分布例を示す。なお、視野R3,R
4については、座席位置,傾きによらず同一距離分布を
示すよう、センサの取り付け態様を予め定めている。 【0018】以上のように、この発明では、簡単な方程
式を数回解くことで、簡単に座席像距離分布が作成でき
るので処理時間の短縮が可能となり、センサのデータ記
憶領域には座席とセンサに関する数個の情報を記憶させ
ておくだけで良く、データ記憶領域使用量を大幅に削減
できることになる。 【0019】 【発明の効果】この発明によれば、乗員の有無,姿勢を
認識するために必要な座席データの作成の際に、簡単な
座席像距離分布作成アルゴリズムを適用するだけで良い
ため処理時間を短縮でき、記憶するデータ数は座席とセ
ンサに関する数個の情報だけで良いため、データ記憶領
域使用量を大幅に削減することができる、などの利点が
得られる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a detection method for detecting the presence / absence and posture of an occupant of an automobile using a linear optical sensor array composed of a plurality of optical sensor elements. The present invention relates to a method for detecting presence / absence and posture of a vehicle occupant suitable for use in controlling deployment of an airbag. 2. Description of the Related Art The mounting rate of airbags has been increasing in recent years, and airbags are becoming standard equipment regardless of the type of vehicle. However, if the child is standing in front of the seat,
It has been reported that sitting a small woman can cause casualties. Therefore, various deployment control of an airbag for avoiding such a casualty accident has been proposed. A conventional method will be described below in which a sensor is provided at a ceiling position in an automobile, a distance from the sensor to an occupant is measured (distance measurement), and the presence or absence and posture of the occupant are detected from the distance distribution. FIG. 5 is a schematic diagram for explaining such a conventional example, in which 1 is an occupant sensor, 2 is an occupant, 3 is an automobile,
Numeral 4 indicates a seat. This is to form an image of the occupant 2 on the occupant sensor 1, and here, for example, four linear inspection areas (fields of view) R1, R2, R
3 and R4 are set to obtain the occupant sensor outputs of a plurality of parts for each area, and the outputs are subjected to arithmetic processing by a processing device (not shown) to measure the distance of each part of the occupant. By taking the difference from the present coordinate distance (the distance from the occupant sensor when the occupant is not present), not only the presence or absence of the occupant but also the posture thereof is determined. FIG. 6 shows an example of an occupant sensor. Here, the occupant sensor 1 is configured by integrating a multi-stage light receiving IC 10 formed by providing four pairs of optical sensor arrays with imaging lenses 21 and 22. Any number of optical sensor array pairs may be used, but here, four inspection regions or fields of view R
In order to set 1, R2, R3, and R4, a four-stage configuration is used. Note that reference numeral 5 in FIG. 6 indicates an auxiliary light source, and reference numeral V indicates the direction of the center of the visual field of the sensor. First, the principle of distance measurement will be described with reference to FIG. Now, the center of the imaging lenses 21 and 22 is set at the origin O
, The horizontal axis X and the vertical axis Y are set, and the coordinates of the imaging positions L 1 and R 1 are respectively (−a L −B / 2, −f) and (a R + B
/ 2, -f). Also, the center point O of the imaging lens 21
L is the coordinate (-B / 2, 0), the coordinates of the center point O R of the imaging lens 22 is a (B / 2, 0), the object (subject)
Assuming that the coordinates of the point M are (−x, y), the coordinates of the intersection N between the X axis and the perpendicular drawn from the point M to the X axis are (−x, 0),
The position L of a perpendicular line lowered from the point OL to the optical sensor array 12
0 coordinates (-B / 2, f), the coordinate position R 0 of perpendicular dropped from the point O R to the optical sensor array 11 (B / 2,
f). Here, a L represents the distance between points L 0 and L 1, and a R represents the distance between points R 0 and R 1 . At this time, △ MO L N and △ O L L 0 L 1 , △ MO R
Since N and △ O R R 1 R 0 are similar to each other, (−x + B / 2) f = a L · y (1) (x + B / 2) f = a R · y (2) I do. When x is eliminated from the equations (1) and (2), y = B · f / (a L + a R ) (3), and the image forming position L 1 and the point L of the left optical sensor array 12 are obtained.
If the distance a L to 0 and the distance a R between the imaging positions R 1 and R 0 of the right optical sensor array 11 are known, the distance y to the object can be obtained from the above equation (3). . Next, a method of setting a seat image will be described with reference to a flowchart of FIG. This setting is performed only once at the time of shipment. That is, in step S1 in FIG. 8, the tilt of the seat back (the seat tilt Θ) is initialized. This seat inclination is indicated by Θ in FIG. In step S2, the position of the frontmost surface of the seat (seat position) is initialized. The seat position is indicated by the reference symbol DS in FIG. Step S
At 3, the distance of the seat image at a certain seat position and inclination is measured, and at step S4, the distance distribution of the seat image is stored in the data storage area of the sensor. FIG. 10 shows an example of the distance distribution of the seat image.
In steps S5 and S6, the processes in steps S3 and S4 are executed a plurality of times, and a distance distribution pattern of the seat image for each seat position and inclination is created and stored. According to this flowchart, the seat is started from the position of Θ = Θmin, Ds = min, and the Ds value and Θ value are sequentially changed to obtain the seat distance distribution, thereby obtaining the entire seat distance distribution data. Here, a concept of obtaining a discrete distance distribution as shown in FIG. 10 will be described below. Figure 11 left of n optical sensor element as shown in the right light sensor, respectively A 1 to A n quantized data arrays 11, 12, B
1 to Bn . A predetermined angle from the front of the sensor (Y in FIG. 7)
In order to obtain a distance index (a L + a R ) to an object at an axis (an angle formed by an axis connecting the object coordinates M and the origin O), an observation area (window) of a predetermined size is used for the above data.
Set the W 1 to W-m + 1, 1 sensor unit (one bit)
Considering (m + 1) sets of subsets C 0 to C m, which are alternately shifted, the evaluation functions f (C 0 ) to f (C m ) each consisting of the sum of the absolute values of the differences of the quantized data By calculating the combination C k that minimizes the evaluation function,
From the value of the subscript k, the degree of deviation between the left and right images can be determined, and (a L
It is known that a distance index proportional to + a R ) can be obtained. Therefore, for example, while sequentially shifting such processing by one bit at a time, for 1 to n visual fields, FIG.
In this case, n discrete distance data can be obtained. FIG. 13 shows an occupant discriminating process. In order to extract occupant information from the measured distance distribution, a process for obtaining a difference from the empty seat information obtained by the process shown in FIG. 8 is executed. That is, in step S7, the occupant image as shown in FIG. 14, for example, is measured. FIG. 15 shows an example of the occupant image distribution at that time. In step S8, the distance distribution of the seat image, for example, as shown in FIG. 10, which is stored as a result of the processing described with reference to FIG. 8, is read from the data storage area. In step S9, a difference between the occupant image distance distribution and the seat image distance distribution is determined, and a difference distance distribution is created. FIG. 16 shows an example of the difference distance distribution. Here, the number of measurement points (distance measurement points) indicating a distance value equal to or smaller than the threshold value TH is counted. At this time, as is clear from FIG. 16, the distance value takes a discrete value, which indicates that the above-described counting can be performed. In step S10 of FIG. 13, the ratio A of the distance measuring points equal to or less than the above threshold value to the total number of distance measuring points in the visual field area is calculated. The processes in steps S8 to S10 are performed for all seat images. In step S11, a case where the ratio A is minimum is selected, and seat image data to be used is determined. That is, the measured distance distribution data,
Calculate the difference from the stored empty seat distance distribution data,
The one with the smallest difference is selected as the distance distribution data of the seat at the measurement point. [0011] As described above, conventionally, an enormous data storage area for previously storing all the patterns of the distance distribution in the linear visual field area by changing the seat position and the inclination. Is required, and a lot of processing is required to determine which seat image distance distribution data to use in determining the seat distance distribution data. Therefore, an object of the present invention is to reduce the use amount of the data storage area and easily obtain the seat image distance distribution data.
The object is to reduce the processing time. In order to solve such a problem, according to the present invention, a plurality of pairs of linear optical sensor arrays each composed of a plurality of optical sensor elements are provided to increase the image of a vehicle occupant. is, by measuring the distance distribution of the linear field region, wherein
In detecting the presence / absence and posture of the vehicle occupant from the difference between the distance distribution and the distance distribution of the seat where no occupant is present , the plurality of pairs of optical sensor arrays are arranged diagonally in front of the seat and correspond to each optical sensor array. At least two of the linear views
It is arranged so as to traverse in the horizontal direction and to include the seat back portion, and two distances corresponding to the linear visual field are provided.
Find the part of the cloth where the change in distance value is the largest, and
Of the parts that give the maximum change in
The two distance values that have been selected are determined, and the two
The corresponding two coordinates on the seat, and from the two coordinates
Obtain the inclination of the seat from the inclination of the straight line determined,
The seat position is determined from the coordinates of the intersection with the vehicle body floor surface, and the distance distribution of the seat corresponding to the linear visual field at an arbitrary seat position and inclination can be calculated. That is, since the shape of an automobile seat is relatively simple, the fact that the seat shape can be approximated as a combination of simple planes is used. In other words, it is only necessary to solve several equations from the position and inclination of the seat to create the seat image distance distribution data, thereby reducing the processing time. In solving this equation, only a few constants need to be stored in the data storage area, so that it is not necessary to use almost any memory capacity, and it is possible to reduce the data storage area usage. FIG. 1 is a flowchart for explaining an embodiment of the present invention, and FIG. 2 is an explanatory diagram for facilitating understanding of FIG. Here, the occupant sensor 1 is attached to the upper part (S) of the seat diagonally forward as shown in FIG. 2, so that the end (P1, Q1) of the seat back can be always observed and coordinate distance distribution data can be created. Also,
In this case, two straight visual fields (R1, R
Set 2). In FIG. 1, the sensor pairs corresponding to the two visual fields R1 and R2 are referred to as a sensor 1 and a sensor 2, respectively. In step S7, as described with reference to FIG. 13, a distance distribution as shown in FIG. 15 is obtained. Therefore, in step S12, the seat end distance is obtained. The distance between the seat ends is from the mounting coordinate position S of the sensor 1 shown in FIG.
The distance to Q1 is shown, and the end of the seat is shown by a straight line SLP1 in FIG.
As shown. Here, to find the seat edge distance,
Find the part where the amount of change in the distance value shown in FIG.
Among the parts giving the maximum change, the smaller distance value is used. This is because the mounting position of the occupant sensor 1 is located at the upper left side of the seat. In step S13, the respective seat distances obtained in step S12 are converted into the elevation angle information θ1 of the sensor as shown in FIG. 3 and the position of the imaged distance in the field of view of the seat end distance shown in FIG. From the information, the coordinates of the points P1 and Q1 are obtained. The symbol ω in FIG. 3 indicates the sensor rotation angle, and V indicates the sensor center direction. In step S14, a straight line equation SLP1 is calculated from the coordinates of the points P1 and Q1, and in step S15, the inclination angle 傾 き of the seat is obtained from the inclination of the straight line. In step 16, the equation of the straight line SLP1 and the vehicle body floor is solved, and the intersection coordinates R of the vehicle body floor are calculated. FIG. 2 or FIG.
Since the seat seat length DL is a constant as shown by, the seat position DS can be easily obtained from this value in step 17. In step S18, the straight lines SLP1 and SL
A straight line SLP2 is obtained from the fact that P2 is parallel and the thickness D of the seat back portion, which is a constant. A straight line SLP3 is obtained. In step S20, the points P2, Q2, P3, and Q3 are obtained by solving equations of the straight lines SLP2 and SLP3 obtained in steps S18 and S19 and the planes 1 and 2, which are the viewing planes of the sensors 1 and 2. At that time, a straight line SP
From the distance values of SQ2, SQ2, SP3, and SQ3, it is determined at which position in the visual field distance of the sensor 1 the image is formed. Therefore, in step S21, the sensor 1, the sensor 1,
The seat image distance distribution of the sensor 2 can be created. FIG. 4 shows an example of the seat image distance distribution. Note that the fields of view R3, R
Regarding No. 4, the mounting mode of the sensor is determined in advance so as to show the same distance distribution regardless of the seat position and the inclination. As described above, according to the present invention, the seat image distance distribution can be easily created by solving a simple equation several times, so that the processing time can be reduced, and the seat and the sensor are stored in the data storage area of the sensor. It is only necessary to store a few pieces of information on the data storage area, and the amount of data storage area used can be greatly reduced. According to the present invention, when creating seat data necessary for recognizing the presence / absence and posture of an occupant, it is sufficient to apply a simple seat image distance distribution creating algorithm. Since the time can be reduced and the number of pieces of data to be stored is only a few pieces of information about the seat and the sensor, advantages such as a significant reduction in data storage area usage can be obtained.

【図面の簡単な説明】 【図1】この発明の実施の形態を説明するためのフロー
チャートである。 【図2】図1の説明を容易にするための説明図である。 【図3】センサの仰角,回転角および中心方向の説明図
である。 【図4】図1の処理で作成される座席像距離分布例を示
す説明図である。 【図5】従来例を示す概要図である。 【図6】図5で用いるセンサと視野の関係を説明する説
明図である。 【図7】測距原理説明図である。 【図8】従来の座席像距離分布の作成処理を示すフロー
チャートである。 【図9】座席に関する諸定数の説明図である。 【図10】図8の処理で得られる座席像距離分布例の説
明図である。 【図11】測距原理における相関演算説明図である。 【図12】多点の測距原理説明図である。 【図13】従来の座席像距離分布の設定(決定)処理を
示すフローチャートである。 【図14】乗員が居る場合の座席に関する諸定数の説明
図である。 【図15】乗員の各視野ごとの距離分布例説明図であ
る。 【図16】乗員像と座席像との差分の距離分布説明図で
ある。 【符号の説明】 1…乗員センサ、2…乗員、3…自動車、4…座席、5
…補助光源、10…多段受光IC、11,12…光セン
サアレイ、21,22…結像レンズ。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a flowchart for explaining an embodiment of the present invention. FIG. 2 is an explanatory diagram for facilitating the description of FIG. 1; FIG. 3 is an explanatory diagram of an elevation angle, a rotation angle, and a center direction of a sensor. FIG. 4 is an explanatory diagram showing an example of a seat image distance distribution created by the processing of FIG. 1; FIG. 5 is a schematic diagram showing a conventional example. FIG. 6 is an explanatory diagram illustrating a relationship between a sensor and a visual field used in FIG. 5; FIG. 7 is an explanatory view of a distance measuring principle. FIG. 8 is a flowchart showing a conventional process of creating a seat image distance distribution. FIG. 9 is an explanatory diagram of various constants relating to a seat. FIG. 10 is an explanatory diagram of an example of a seat image distance distribution obtained by the processing of FIG. 8; FIG. 11 is an explanatory diagram of a correlation calculation based on the principle of distance measurement. FIG. 12 is a diagram illustrating the principle of multi-point distance measurement. FIG. 13 is a flowchart showing a conventional process of setting (determining) a seat image distance distribution. FIG. 14 is an explanatory diagram of various constants relating to a seat when an occupant is present. FIG. 15 is an explanatory diagram of an example of a distance distribution for each field of view of an occupant. FIG. 16 is an explanatory diagram of a distance distribution of a difference between an occupant image and a seat image. [Description of Signs] 1 ... occupant sensor, 2 ... occupant, 3 ... automobile, 4 ... seat, 5
... Auxiliary light source, 10 ... Multistage light receiving IC, 11, 12 ... Optical sensor array, 21,22 ... Imaging lens.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平10−119715(JP,A) 特開 平10−35406(JP,A) 特開 平7−196006(JP,A) 特開 平8−169289(JP,A) 特表 平9−501120(JP,A) (58)調査した分野(Int.Cl.7,DB名) B60N 5/00 B60R 21/32 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-10-119715 (JP, A) JP-A-10-35406 (JP, A) JP-A-7-196006 (JP, A) JP-A 8- 169289 (JP, A) Table 9-501120 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) B60N 5/00 B60R 21/32

Claims (1)

(57)【特許請求の範囲】 【請求項1】複数の光センサ素子からなる直線状の光セ
ンサアレイを複数対設けて自動車乗員の像を結増させ、
直線状視野領域内の距離分布を測定して、前記距離分布
と乗員の存在しない座席の距離分布との差から自動車乗
員の有無,姿勢を検出するに当たり、 前記複数対の光センサアレイを座席斜め前方上部に、各
光センサアレイに対応する直線状視野の少なくとも2つ
が乗員を水平方向に横切るように、かつ、座席背もたれ
部を含むように配置し、前記直線状視野に対応する2つ
の距離分布において距離値の変化量が最大となる部分を
探し、その最大変化を与える部分のうち、それぞれ距離
値の小さい方を選択した2つの距離値を求め、該2つの距
離値に対応する前記座席上の2つの座標を求め、該2つの
座標から定まる直線の傾きから前記座席の傾きを求め、
前記直線の車体床面との交点座標から座席位置を求めて
任意の座席位置,傾きにおける前記直線状視野に対応す
る座席の距離分布を算出可能にしたことを特徴とする自
動車乗員の有無,姿勢検出方法。
(57) [Claims 1] A plurality of pairs of linear optical sensor arrays composed of a plurality of optical sensor elements are provided to increase the image of a vehicle occupant;
By measuring the distance distribution in the linear visual field area, the distance distribution
In detecting the presence / absence and posture of the vehicle occupant based on the difference between the distance distribution of the seat and the occupant-free seat , the plurality of pairs of the optical sensor arrays are arranged diagonally on the upper front of the seat and at least a linear visual field corresponding to each optical sensor array. Two so as to cross the occupant in the horizontal direction and include a seat back portion, and two corresponding to the linear view.
In the distance distribution of
Search and the distance that gives the maximum change
Obtain the two distance values for which the smaller value is selected, and calculate the two distance values.
Find two coordinates on the seat corresponding to the separation value,
Obtain the inclination of the seat from the inclination of the straight line determined from the coordinates,
A seat position is determined from coordinates of the intersection of the straight line with the vehicle body floor surface .
A method for detecting the presence / absence and posture of an occupant of a vehicle , wherein the distance distribution of the seats can be calculated.
JP05818097A 1997-03-13 1997-03-13 Presence / absence of car occupants, posture detection method Expired - Fee Related JP3503399B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05818097A JP3503399B2 (en) 1997-03-13 1997-03-13 Presence / absence of car occupants, posture detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05818097A JP3503399B2 (en) 1997-03-13 1997-03-13 Presence / absence of car occupants, posture detection method

Publications (2)

Publication Number Publication Date
JPH10250450A JPH10250450A (en) 1998-09-22
JP3503399B2 true JP3503399B2 (en) 2004-03-02

Family

ID=13076819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05818097A Expired - Fee Related JP3503399B2 (en) 1997-03-13 1997-03-13 Presence / absence of car occupants, posture detection method

Country Status (1)

Country Link
JP (1) JP3503399B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3532772B2 (en) 1998-09-25 2004-05-31 本田技研工業株式会社 Occupant state detection device
AU1410600A (en) 1998-11-27 2000-06-19 Hamamatsu Photonics K.K. Driver sensor and apparatus for controlling air bag

Also Published As

Publication number Publication date
JPH10250450A (en) 1998-09-22

Similar Documents

Publication Publication Date Title
US7363123B2 (en) Apparatus for detecting passenger occupancy of vehicle
US6116640A (en) Apparatus for detecting occupant's posture
EP1005234B1 (en) Three-dimensional scope system for vehicles with a single camera
EP1828979B1 (en) Method for determining the position of an object from a digital image
WO2014002849A1 (en) Three-dimensional measurement method, apparatus, and system, and image processing device
US20070289799A1 (en) Vehicle occupant detecting system
US20090226035A1 (en) Three-Dimensional Object Detecting Device
US20030007680A1 (en) Three-dimensional information processing apparatus and method
US20090070077A1 (en) Three-dimensional model data generating method, and three dimensional model data generating apparatus
US20020029127A1 (en) Method and apparatus for measuring 3-D information
WO2014002725A1 (en) 3d measurement method, device, and system, and image processing device
KR20020029128A (en) Method and device for controlling the operation of an occupant-protection device allocated to a seat, in particular, in a motor vehicle
KR100686564B1 (en) Apparatus for detecting occupant's posture
KR100527466B1 (en) Method and apparatus for determining head position of vehicle driver
JP3503399B2 (en) Presence / absence of car occupants, posture detection method
US5291424A (en) Distance detecting apparatus
US7492923B2 (en) Method and device for detecting the occupancy state of a seat
US7245741B1 (en) Method and device for determining whether the interior of a vehicle is occupied
US6683977B1 (en) Method of taking three-dimensional measurements of object surfaces
US7003384B2 (en) Method and apparatus for self-diagnostics of a vision system
JP3826245B2 (en) Crew attitude determination device
JP3344551B2 (en) Crew posture determination device
JPH09210649A (en) Three dimensional measurement device
US5923773A (en) Measured value processing method, a shape reconstructing method, and a shape reconstructing apparatus
JP3047017B2 (en) Image processing method

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031201

LAPS Cancellation because of no payment of annual fees