JPH0468500A - Vehicle driver monitoring device - Google Patents

Vehicle driver monitoring device

Info

Publication number
JPH0468500A
JPH0468500A JP2182355A JP18235590A JPH0468500A JP H0468500 A JPH0468500 A JP H0468500A JP 2182355 A JP2182355 A JP 2182355A JP 18235590 A JP18235590 A JP 18235590A JP H0468500 A JPH0468500 A JP H0468500A
Authority
JP
Japan
Prior art keywords
vehicle driver
vehicle
driver
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2182355A
Other languages
Japanese (ja)
Other versions
JP2546415B2 (en
Inventor
Setsuo Tokoro
節夫 所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2182355A priority Critical patent/JP2546415B2/en
Publication of JPH0468500A publication Critical patent/JPH0468500A/en
Application granted granted Critical
Publication of JP2546415B2 publication Critical patent/JP2546415B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To securely detect the direction of the face or the state of eyes at high speed for a lot of undefined vehicle drivers by inputting the vehicle driver picture of a face part position calculated by a position calculating means and monitoring the direction of the face or the state of eyes of the vehicle driver by using a neural network. CONSTITUTION:As an image pickup control means for driving a TV camera 10, a CPU 4 is provided and based on detection signals from respective sensors 1-3, a timer is suitably operated. Then, the presence / absence of the vehicle driver is detected and when the presence / absence of the vehicle driver is detected, the face part position of the vehicle driver is calculated according to difference between a background picture, which is obtained by driving an image pickup means 10, and the picture of the vehicle driver. The face part picture of the vehicle driver is processed by a previously learnt neural network 16, and the direction of the face and the state of the eyes are detected. Thus, for a lot of undefined vehicle drivers, the direction of the face or the state of the eyes can be securely detected at high speed.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者監視装置、特にニューラルネットワ
ークを用いて車両運転者の顔の向きや目の状態を監視す
る装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a vehicle driver monitoring device, and more particularly to a device for monitoring the facial orientation and eye condition of a vehicle driver using a neural network.

[従来の技術] 従来より、自動車等の車両の安全走行を確保するための
種々の支援システムが提案されている。
[Background Art] Various support systems have been proposed to ensure safe driving of vehicles such as automobiles.

このような支援システムは、主に車両運転者の居眠り状
態や脇見状態を検出して運転者に警報を与え、安全走行
を可能とするものである。
Such support systems mainly detect when a vehicle driver is falling asleep or looking inattentive, and give a warning to the driver to enable safe driving.

このような安全走行のだめの支援システムとしては、例
えば特開昭63−222940号公報に開示された自動
車安全走行支援方式がある。この支援方式においては、
運転者の目を監視する監視装置を設け、この監視装置か
らの情報により運転者の目の方向が正しい前方を向いて
いるか、また目の開き程度が所定値以上かどうかが判断
される。
As an example of such a support system for safe driving, there is a vehicle safe driving support system disclosed in Japanese Patent Application Laid-Open No. 63-222940. In this support method,
A monitoring device is provided to monitor the driver's eyes, and information from the monitoring device is used to determine whether the driver's eyes are pointing in the correct forward direction and whether the eye opening degree is equal to or greater than a predetermined value.

この判断は、目の方向が前方方向中心線から一定以上離
れているか否か、また目の視野が所定範囲内か否かをC
PUによって判断することにより行われる。そして、脇
見運転や居眠り運転が発生していると判断された時には
、警報や自動ブレーキを緩かにかけるものである。
This judgment is based on whether the direction of the eyes is more than a certain distance from the center line in the forward direction and whether the visual field of the eyes is within a predetermined range.
This is done by making a determination by the PU. When it is determined that inattentive driving or drowsy driving is occurring, a warning or automatic brakes are gently applied.

あるいは、特に居眠り運転を検出するためのシステムと
して、特開昭60−178596号公報に開示された居
眠り運転防止装置が知られている。
Alternatively, as a system specifically for detecting drowsy driving, a drowsy driving prevention device disclosed in Japanese Patent Laid-Open No. 178596/1983 is known.

この装置においては、車両運転者の状態位置を検出する
検出手段を設け、検出された状態位置の周期的な変動か
ら居眠り運転を検知し運転者に警報を発するものである
This device is provided with a detection means for detecting the state position of the vehicle driver, detects drowsy driving from periodic fluctuations in the detected state position, and issues a warning to the driver.

[発明が解決しようとする課題] しかしながら、特開昭63−222940号公報に開示
された自動車安全走行支援方式においては、運転者の目
の状態のみを監視して脇見運転や居眠り運転を検出する
ものであり、特徴部分、すなわち眼球部分を正確に抽出
しなければならず、計71111が容易でないという問
題があった。また、運転者は車両運転中宮に前方のみを
注視しているとは限らず、顔の向きを適宜左右いずれか
の方向に向けて運転することがしばしばあり、このよう
な場合には正確に視野を測定することが困難であるとい
う問題もあった。
[Problems to be Solved by the Invention] However, in the automobile safe driving support system disclosed in Japanese Patent Application Laid-Open No. 63-222940, inattentive driving or drowsy driving is detected by monitoring only the state of the driver's eyes. Therefore, it is necessary to accurately extract the characteristic part, that is, the eyeball part, and there is a problem in that it is not easy to extract the characteristic part, that is, the eyeball part. Additionally, when driving a vehicle, the driver does not always focus only on the front, but often turns his or her face to either the left or right as appropriate, and in such cases, it is difficult to accurately see the field of view. Another problem was that it was difficult to measure.

勿論、このような問題を解決すべく計Δ−jすべき特徴
部分に予め光学的マーカを貼付することも提案されてい
るが(テレビジョン学会技報、Vol、12、No、2
4、pp13−18)、実際の車両運転時にこのような
光学的マーカを貼イNjすることは実用的でない。ある
いは、顔の向きを検出するために目頭と唇の端点を基準
点とし、顔の構造の面対称性に着目して顔の向きを検出
する方法も考えられているが(情報処理学会、5C−2
、pp162−163)、車両運転者は不特定多数であ
り、全ての運転者に適用できない問題がある。
Of course, in order to solve this problem, it has been proposed to attach optical markers in advance to the characteristic parts that should be Δ-j (Television Society Technical Report, Vol. 12, No. 2).
4, pp. 13-18), it is not practical to apply such an optical marker during actual vehicle operation. Alternatively, a method has been considered in which the inner corners of the eyes and the end points of the lips are used as reference points to detect the direction of the face, and the direction is detected by focusing on the plane symmetry of the facial structure (Information Processing Society of Japan, 5C -2
, pp162-163), the number of vehicle drivers is unspecified, and there is a problem that the method cannot be applied to all drivers.

また、特開昭60−178596号公報に開示された居
眠り運転防止装置においては、居眠り運転発生時に生じ
る運転者の特有のパターン、すなわち位置の周期的な変
動を検出して居眠り運転と判断するものであり、必ずし
も居眠り運転発生時にこのような特有のパターンが出現
するとは限らず、正確に検出することができないという
問題があった。
In addition, the drowsy driving prevention device disclosed in Japanese Patent Application Laid-open No. 178596/1983 detects a pattern unique to the driver that occurs when drowsiness occurs, that is, periodic fluctuations in position, and determines drowsiness while driving. However, there is a problem in that such a unique pattern does not necessarily appear when drowsy driving occurs, and it cannot be detected accurately.

そこで、本願出願人は先に特願平2−51332号にて
以下のような車両運転者監視装置を提案した。この車両
運転者監視装置においては、車両運転者の顔部を撮影す
る撮像手段と、この撮像手段からの顔部画像情報をニュ
ーラルネットワークを用いて処理することにより車両運
転者の顔の方向及び目の状態を検出するものである。
Therefore, the applicant of the present application previously proposed the following vehicle driver monitoring device in Japanese Patent Application No. 2-51332. This vehicle driver monitoring device includes an imaging means for photographing the face of the vehicle driver, and a neural network that processes facial image information from the imaging means to determine the direction of the vehicle driver's face and the direction of the eyes of the vehicle driver. This is to detect the state of.

しかしながら、撮像手段にて得られた画像からニューラ
ルネットワークに入力すべき画像情報を抽出するために
行われるべき画像切り出しが困難でその処理に長時間を
要してしまうという課題があった。
However, there is a problem in that it is difficult to cut out an image to extract image information to be input into a neural network from an image obtained by the imaging means, and the processing takes a long time.

本発明は上記従来技術の有する課題に鑑みなされたもの
であり、その目的は不特定多数の車両運転者の顔の向き
や目の状態を高速かつ確実に検出することが可能な改良
された車両運転者監視装置を提供することにある。
The present invention has been made in view of the above-mentioned problems of the prior art, and its purpose is to provide an improved vehicle capable of quickly and reliably detecting the facial orientation and eye conditions of an unspecified number of vehicle drivers. An object of the present invention is to provide a driver monitoring device.

[課題を解決するための手段] 上記目的を達成するために、本発明に係る車両運転者監
視装置は、車両内の所定位置に設けられた撮像手段と、
車両運転者の有無を検出する検出手段と、この検出手段
にて車両運転者が無と検出された時及び車両運転者が有
と検出された時に前記撮像手段を駆動してそれぞれ背景
画像及び車両運転者画像を得る撮像制御手段と、得られ
た背景画像と車両運転者画像との相違から車両運転者の
顔部位置を算出する位置算出手段と、この位置算出手段
にて算出された顔部位置の車両運転者画像を人力し、入
力の加重和に応じて出力するニューラルユニット群から
なる層を多層接続してなるニューラルネットワークを用
いて車両運転者の顔の方向及び目の状態を検出する状態
検出手段とを具備することを特徴としている。
[Means for Solving the Problems] In order to achieve the above object, a vehicle driver monitoring device according to the present invention includes an imaging means provided at a predetermined position within the vehicle;
a detection means for detecting the presence or absence of a vehicle driver; and when the detection means detects that there is no vehicle driver and when the vehicle driver is detected as present, the imaging means is driven to capture a background image and a vehicle, respectively. an imaging control means for obtaining an image of the driver; a position calculation means for calculating the position of the face of the vehicle driver from a difference between the obtained background image and the image of the vehicle driver; and a face calculated by the position calculation means. Detects the direction of the vehicle driver's face and the state of the eyes using a neural network that connects multiple layers of neural units that manually generate an image of the vehicle driver's position and output according to the weighted sum of inputs. It is characterized by comprising a state detection means.

[作用] 本発明の車両運転者監視装置はこのような構成を有して
おり、検出手段にて車両運転者の有無が検出される。
[Operation] The vehicle driver monitoring device of the present invention has such a configuration, and the presence or absence of the vehicle driver is detected by the detection means.

そして、車両運転者が無と検出された時に撮像制御手段
が車両内の所定位置に設けられた撮像手段を駆動して撮
影し、車両運転者の存在しない背景画像を得る。
Then, when the presence of the vehicle driver is detected, the imaging control means drives the imaging means provided at a predetermined position within the vehicle to take a photograph, thereby obtaining a background image in which the vehicle driver is not present.

また、検出手段にて車両運転者が有りと検出された時に
撮像制御手段が撮像手段を駆動して撮影し、車両運転者
画像を得る。
Further, when the detection means detects that the vehicle driver is present, the imaging control means drives the imaging means to take a photograph to obtain an image of the vehicle driver.

このようにして得られた背景画像と車両運転者画像との
相違を求めることにより、車両運転者のみの画像が得ら
れることとなり、この車両運転者のみの画像からその顔
部位置を算出することが容易となる。
By determining the difference between the background image obtained in this way and the vehicle driver image, an image of only the vehicle driver can be obtained, and the position of the face can be calculated from this image of only the vehicle driver. becomes easier.

そして、車両運転者の顔部画像は予め学習されたニュー
ラルネットワークによって処理され、顔の方向及び目の
状態が検出される。
The facial image of the vehicle driver is then processed by a pre-trained neural network to detect the direction of the face and the state of the eyes.

ニューラルネットワークは所定のアルゴリズムを考慮す
る必要がなく、多数のパラメータを高速処理することが
できるので、本発明のように短時間に多数の画像情報を
処理する必要がある場合に特に好適であり、また学習に
より種々の画像パターンに対応できる泥化能力を有する
ため、不特定多数の運転者にも対応できる。
Since neural networks do not require consideration of predetermined algorithms and can process a large number of parameters at high speed, they are particularly suitable when it is necessary to process a large amount of image information in a short period of time, as in the present invention. In addition, it has the ability to adapt to various image patterns through learning, so it can accommodate a large number of unspecified drivers.

そして、ニューラルネットワークを用いて検出された運
転者の顔の向き及び目の状態により脇見運転あるいは居
眠り運転の発生を検出することが可能となり、安全走行
を行うための有効な情報が得られることとなる。
Then, it becomes possible to detect the occurrence of distracted driving or drowsy driving based on the direction of the driver's face and the state of the eyes detected using a neural network, and it is possible to obtain effective information for safe driving. Become.

[実施例] 以下、図面を用いながら本発明に係る車両運転者監視装
置の好適な実施例を説明する。
[Embodiments] Hereinafter, preferred embodiments of the vehicle driver monitoring device according to the present invention will be described with reference to the drawings.

第1実施例 第1図は本発明の第1実施例の構成ブロック図である。First example FIG. 1 is a block diagram of a first embodiment of the present invention.

撮像手段としてのTV左カメラoは車両内の所定位置、
例えばフロントパネル近傍に設置される。このTV右カ
メラ0は例えばCCD(Charge Coupled
 Device)固体撮像素子で構成される。
The TV left camera o as an imaging means is located at a predetermined position in the vehicle,
For example, it is installed near the front panel. This TV right camera 0 is, for example, a CCD (Charge Coupled
Device) Consists of a solid-state image sensor.

なお、このTV右カメラ0にて明瞭な画像を得るために
、車両の所定位置に照明装置を設けて運転者の顔に照明
を当ててもよい。また、このTV右カメラ0には、この
照明装置からの照射光のみが入射するようにフィルタを
かけてもよい。
In order to obtain a clear image with this TV right camera 0, a lighting device may be provided at a predetermined position of the vehicle to illuminate the driver's face. Furthermore, a filter may be applied to this TV right camera 0 so that only the irradiated light from this illumination device is incident.

そして、このTV右カメラ0を駆動するための撮像制御
手段としてCP IL4が設けられている。
A CP IL4 is provided as an imaging control means for driving this TV right camera 0.

このCPU4には第1図に示されるように運転シート圧
力を検出する圧力センサ1、運転席側のドアの開閉を検
知するドアセンサ2及びイグニッションスイッチのON
、OFFを検出するイグニッションセンサ3からの各検
出信号が入力され、これら各センサからの検出信号に基
づき適宜タイマーを作動させ、車両運転者の有無を検出
する構成となっている。
As shown in FIG. 1, this CPU 4 includes a pressure sensor 1 that detects the driver's seat pressure, a door sensor 2 that detects the opening/closing of the door on the driver's seat side, and an ignition switch that turns on the ignition switch.
, each detection signal from the ignition sensor 3 that detects OFF is input, and based on the detection signals from these sensors, a timer is activated as appropriate to detect the presence or absence of a vehicle driver.

以下、第2図を用いてこのCPU4の動作を詳細に説明
する。
The operation of this CPU 4 will be explained in detail below using FIG. 2.

第2図は本実施例におけるCPU4の動作フローチャー
トを示したものである。まず、ステップ100にてドア
センサ2からの検出信号により運転席側のドアが開いて
いるか否かが判定される(SWI?)。そして、このス
テップ100にてYES、すなわち運転席側のドアが開
いていると判定された場合には次のステップ102に移
行する。
FIG. 2 shows an operation flowchart of the CPU 4 in this embodiment. First, in step 100, it is determined based on the detection signal from the door sensor 2 whether the driver's seat side door is open (SWI?). If the result of step 100 is YES, that is, if it is determined that the door on the driver's seat side is open, the process proceeds to step 102.

このステップ102では圧力センサ1からの検出信号に
よりタイマーを作動させ、車両運転者が降車してから所
定時間、例えば1時間経過しているか否かが判断される
(SW2?)。このステップ102にてYES、すなわ
ち車両運転者が降車してから所定時間経過していると判
断された時には、次のステップ104に移行し、TV右
カメラ0に駆動信号を送って背景画像P。を撮影する。
In this step 102, a timer is activated based on the detection signal from the pressure sensor 1, and it is determined whether a predetermined period of time, for example, one hour has elapsed since the vehicle driver got off the vehicle (SW2?). If YES in this step 102, that is, it is determined that a predetermined period of time has elapsed since the vehicle driver got off the vehicle, the process moves to the next step 104, and a drive signal is sent to the TV right camera 0 to display the background image P. to photograph.

なお、前述のステップ10o1ステツプ102でいずれ
もYESと判断される状況は、以下の状況に対応するも
のである。すなわち、車両運転者が降車してから十分な
時間が経過し、がっ運転席側のドアが開いているという
ことは、車両運転者が乗車しようとして運転席側のドア
を開けている状況に対応している。そして、この時車両
運転者は未だシートに座っておらず、従ってCPU4が
らの駆動信号によりTV右カメラ0が運転シート近傍を
撮影すると、車両運転者が存在しない状態での背景画像
P。を撮影することとなる。
Note that the situations where YES is determined in both steps 10o1 and 102 described above correspond to the following situations. In other words, if a sufficient amount of time has passed since the vehicle driver exited the vehicle and the driver's side door is open, it means that the vehicle driver is opening the driver's side door to get into the vehicle. Compatible. At this time, the vehicle driver is not yet seated in the seat, so when the TV right camera 0 photographs the vicinity of the driver's seat based on the drive signal from the CPU 4, a background image P is obtained in a state where the vehicle driver is not present. will be photographed.

そして、このようにして撮影された背景画像Poは第1
図に示されるように二値化回路12にて各画素毎にOま
たは1に二値化されて記憶装置5に記憶される。
The background image Po photographed in this way is the first
As shown in the figure, each pixel is binarized into O or 1 by the binarization circuit 12 and stored in the storage device 5.

一方、ステップ100にてNOlすなわちドアセンサ2
からの検出信号により運転席側のドアが開いていないと
判定されたとき、又はステップ102にてNo、すなわ
ち車両運転者が降車してから所定時間が経過していない
と判断されたときにはいずれもステップ106に移行す
る。
On the other hand, in step 100 NOl, that is, the door sensor 2
When it is determined that the driver's side door is not open based on the detection signal from The process moves to step 106.

このステップ106では圧力センサ1からの検出信号に
基づき車両運転者がシートに座っているか否かが判断さ
れる(SW5?)。そして、このステップ106にてY
ES、すなわち車両運転者がシートに座っていると判断
された場合には次のステップ108に移行し、車両運転
者が実際に車両を運転中か否かが判断される。すなわち
、このステップ108ではイグニッションセンサ3から
の検出信号に基づきタイマーを作動させ、イグニッショ
ンON後所定時間、例えば30分経過しているか否かが
判定され(SW3?)、YESすなわちイグニッション
ON後所定時間が経過していると判定された場合には車
両運転者が実際に車両を運転中であるとみなし、次のス
テップ11.0に移行する。
In this step 106, it is determined whether the vehicle driver is sitting on the seat based on the detection signal from the pressure sensor 1 (SW5?). Then, in this step 106, Y
If ES, that is, it is determined that the vehicle driver is sitting in the seat, the process moves to the next step 108, and it is determined whether or not the vehicle driver is actually driving the vehicle. That is, in this step 108, a timer is activated based on the detection signal from the ignition sensor 3, and it is determined whether a predetermined time, for example, 30 minutes has elapsed since the ignition was turned on (SW3?), and YES, that is, the predetermined time after the ignition was turned on. If it is determined that the vehicle driver has elapsed, it is assumed that the vehicle driver is actually driving the vehicle, and the process moves to the next step 11.0.

このステップ110では後述する車両運転者画像の撮影
の可否が判断される。すなわち、このステップ110で
は前述のステップ104にて背景画像P。が撮影されて
から所定時間内か否か判定される(SW47)。背景画
像Poが撮影されてからまだ十分な時間が経っていない
、すなわち今回の撮影が第1回目の撮影であると判断さ
れた場合には次のステップ112に移行し、ステップ1
04と同様にCPU4からの駆動信号によりTV左カメ
ラ0が画像P1を撮影する。なお、このステップ112
での撮影はステップ104で撮影された背景画像P。に
加え、車両運転者がシートに座った状態での車両運転者
画像が撮影されることとなる。
In step 110, it is determined whether or not a vehicle driver image, which will be described later, can be photographed. That is, in this step 110, the background image P is used in step 104 described above. It is determined whether a predetermined time has elapsed since the photograph was taken (SW47). If it is determined that sufficient time has not yet passed since the background image Po was photographed, that is, the current photographing is the first photographing, the process moves to the next step 112, and step 1
Similarly to 04, the TV left camera 0 photographs the image P1 in response to a drive signal from the CPU 4. Note that this step 112
The background image P photographed in step 104 is photographed in step 104 . In addition to this, an image of the vehicle driver will be taken while the vehicle driver is sitting on the seat.

そして、このように車両運転者画像P1が撮影された後
、次のステップ114に移行して画像差分 △P−P、−P。
After the vehicle driver image P1 is photographed in this way, the process moves to the next step 114 and the image differences ΔP-P, -P are obtained.

が計算される。is calculated.

この差分は次のような物理的意味を有している。This difference has the following physical meaning.

すなわち、第4図(A)に示されるように車両運転者の
存在しない背景画像P。と第4図(B)に示されるよう
にこの背景画像P。に加え車両運転者が存在する場合の
車両運転者画像P1との差分をとると、第4図(C)に
示されるように車両運転者のみが存在する画像△Pが得
られることとなる。
That is, as shown in FIG. 4(A), a background image P in which a vehicle driver does not exist. and this background image P as shown in FIG. 4(B). By taking the difference from the vehicle driver image P1 when the vehicle driver is present in addition to the above image, an image ΔP in which only the vehicle driver is present is obtained as shown in FIG. 4(C).

このようにステップ114で画像差分△Pが算出された
後、次のステップ116に移行して車両運転者の頭の位
置が特定される。
After the image difference ΔP is calculated in step 114 in this way, the process moves to the next step 116, where the position of the vehicle driver's head is specified.

頭の位置の特定は次のような処理により達成される。す
なわち、前述のステップ114にて得られた画像差分△
Pの絶対値を算出し、この絶対値△Pの二次元プロファ
イルを算出する。例えば、第4図(C)において図示の
ごとくX方向、y方向をとった場合、絶対値△Pのy方
向のプロファイルにおいて、 △P−0 となるのは車両運転者の頭頂部位に対応し、この位置を
y。とする。
Identification of the head position is achieved by the following process. That is, the image difference Δ obtained in step 114 described above
The absolute value of P is calculated, and a two-dimensional profile of this absolute value ΔP is calculated. For example, if the X and Y directions are taken as shown in Fig. 4(C), in the profile of the absolute value △P in the y direction, △P-0 corresponds to the top of the vehicle driver's head. , this position is y. shall be.

一方、X方向の絶対値△Pのプロファイルはほぼ対称形
となり、この対称形の中心位置をXoとする。そして、
このようにして定めた座標(xOlyO)は車両運転者
の中心頭頂に対応し、これを基準座標として頭の位置が
特定されることとなる。
On the other hand, the profile of the absolute value ΔP in the X direction is approximately symmetrical, and the center position of this symmetrical shape is defined as Xo. and,
The coordinates (xOlyO) determined in this way correspond to the central vertex of the vehicle driver's head, and the position of the head is specified using this as the reference coordinate.

また、このように車両運転者の頭頂を検出するのではな
く、例えばy方向の絶対値△Pのプロファイルにおいて
極値となる部位は通常車両運転者の首の部位に相当し、
この首の部位に相当する極値と前述の絶対値△Pが0と
なる車両運転者の頭頂の座標との中間値をとることによ
り車両運転者の顔のほぼ中心を特定することができる。
In addition, instead of detecting the top of the vehicle driver's head in this way, for example, the part that has an extreme value in the profile of the absolute value ΔP in the y direction usually corresponds to the neck part of the vehicle driver,
By taking the intermediate value between the extreme value corresponding to this neck region and the coordinates of the top of the vehicle driver's head where the absolute value ΔP is 0, it is possible to specify approximately the center of the vehicle driver's face.

このように、ステップ116にて車両運転者の頭の位置
が特定された後、次のステップ118に移行して頭の位
置座標を記憶装置5に記憶する。
In this way, after the position of the vehicle driver's head is specified in step 116, the process moves to the next step 118, and the head position coordinates are stored in the storage device 5.

そして、このように記憶装置5に格納された車両運転者
の頭の位置に関する情報は、ステップ110でNoと判
定された時に移行するステップ120にて読み出され、
第1図の構成ブロック図に示される切り出し回路14に
送られて画像処理に必要な画素のみを切り出すための処
理に用いられる。
The information regarding the position of the vehicle driver's head stored in the storage device 5 in this way is read out in step 120, which is proceeded to when the determination is No in step 110.
The signal is sent to the cutout circuit 14 shown in the block diagram of FIG. 1 and used for processing to cut out only the pixels necessary for image processing.

切出し回路14では、処理すべき所定の顔部領域を送ら
れてきた位置座標に基づき切り出す。第5図にその一例
を示す。第5図(A)はTV左カメラ0にて撮影された
車両運転者の顔部であり、この顔部画像から記憶装置5
から送られてきた位置座標に基づき目の近傍の所定範囲
のウィンドウを設定し、第5図(B)に示すようにこの
部分の画像情報を切り出す。なお、前述したようにCO
D固体撮像素子等をTV左カメラ0として用いた場合、
顔部画像情報は第5図(B)に示されるように二次元配
列された複数の画素情報から構成されており、各画素情
報は白あるいは黒レベルに二値化されて出力されること
となる。今、このように二次元配列した複数の画素に番
号を付し、第i行第j列に位置する画素をa+jと記し
、その画素情報を11jと記す。そして、このようにし
て切り出された顔部画像情報1.j(白レベルに相当す
る論理レベル1あるいは黒レベルに相当する論理レベル
Oのいずれかの値を有する)はニューラルネットワーク
16に入力され、後述の処理が行われる。なお、これら
二値化処理、切り出し処理及び以下に示すニューラルネ
ットワーク処理はDSP(Dlgital Signa
l Processor)を用いて行っても良い。
The cutout circuit 14 cuts out a predetermined face area to be processed based on the received position coordinates. An example is shown in FIG. FIG. 5(A) shows the face of the vehicle driver photographed by the TV left camera 0, and from this face image the storage device 5
A window is set in a predetermined range near the eyes based on the position coordinates sent from the camera, and image information in this area is cut out as shown in FIG. 5(B). Furthermore, as mentioned above, CO
When using D solid-state image sensor etc. as TV left camera 0,
The face image information is composed of a plurality of pixel information arranged two-dimensionally as shown in FIG. Become. Now, numbers are assigned to the plurality of pixels arranged two-dimensionally in this way, and the pixel located in the i-th row and j-th column is written as a+j, and its pixel information is written as 11j. The face image information 1. is extracted in this way. j (having either a logic level 1 corresponding to the white level or a logic level O corresponding to the black level) is input to the neural network 16, and is subjected to the processing described below. Note that these binarization processing, cutout processing, and neural network processing described below are performed using DSP (Dlgital Signa).
1 Processor).

以下、このニューラルネットワーク16に行われる処理
を第6図を用いて詳細に説明する。周知の如く、ニュー
ラルネットワークは入力層、中間層及び出力層の階層構
造からなり、各層はニューラルユニット群から構成され
る。ニューラルユニットは所定の重み付け(結合係数)
 w+jが付加された入力の総和に応じて一定の規則で
変換し出ツノするユニットである。この規則としては種
々の関数が用いられるが、本実施例においては入力の総
和“net”を net−ΣW1jII とした時、 f−1/ fl+exp [−(net+a)El但し
、αは定数 なるs1gIIloid関数を用いることとした。この
関数の値域は0〜1で、入力値が大きくなるにつれ1に
、そして小さくなるにつれOに近づく特性を示す。
Hereinafter, the processing performed on this neural network 16 will be explained in detail using FIG. 6. As is well known, a neural network has a hierarchical structure of an input layer, an intermediate layer, and an output layer, and each layer is composed of a group of neural units. Neural units are given predetermined weights (coupling coefficients)
It is a unit that converts and outputs according to a certain rule according to the sum of inputs to which w+j is added. Various functions are used as this rule, but in this example, when the sum of inputs "net" is set to net-ΣW1jII, f-1/fl+exp [-(net+a)El, where α is a constant s1gIIloid function We decided to use The value range of this function is 0 to 1, and exhibits a characteristic that as the input value increases, it approaches 1, and as the input value decreases, it approaches O.

さて、切出し回路14からの二値化された顔部画像情報
、すなわち切り出された画像を構成する画素a1jの画
像情報11j(0または1)は第6図に示されたニュー
ラルネットワークの入力層を構成する各ニューラルユニ
ットに入力される。従って、切り出された画像情報が2
40 X40個の画素から構成されている場合には、こ
の画素数と同数の9600個のニューラルユニットが存
在することとなる。なお、入力層におけるニューラルユ
ニットの数を減らしたい場合には、切り出された画像を
いくつかの小領域に分割し、分割された小領域内の画素
情報を足し合せる平均処理を行いニューラルユニットの
個数を減らせば良い。例えば、小領域を4×4に設定す
ると、ニューラルユニットは60X10−600個に減
少する。
Now, the binarized face image information from the extraction circuit 14, that is, the image information 11j (0 or 1) of the pixel a1j that constitutes the extracted image, is input to the input layer of the neural network shown in FIG. It is input to each constituent neural unit. Therefore, the extracted image information is 2
If it is composed of 40×40 pixels, there will be 9600 neural units, which is the same number as this number of pixels. If you want to reduce the number of neural units in the input layer, divide the extracted image into several small regions and perform averaging processing to add up the pixel information in the divided small regions to reduce the number of neural units. It is better to reduce For example, if the small area is set to 4x4, the number of neural units is reduced to 60x10-600.

このように切り出された画像を構成する各画素の画素情
報lljが入力層の各ニューラルユニットに入力された
後、同様のニューラルユニット群からなる中間層及び出
力層で所定の変換処理が行われる。すなわち、中間層の
第j番目に位置するニューラルユニットに入力される入
力層の第1番目のニューラルユニットの出力値を1.こ
の時の重み付けすなわち結合係数をwljとすると、こ
の第j番目のニューラルユニットに入力される人力値の
総和net、は、 net、−ΣW ・■。
After the pixel information llj of each pixel constituting the image cut out in this way is input to each neural unit of the input layer, a predetermined conversion process is performed in the intermediate layer and output layer, which are made up of a group of similar neural units. That is, the output value of the first neural unit in the input layer that is input to the j-th neural unit in the intermediate layer is 1. Letting the weighting or coupling coefficient at this time be wlj, the total sum net of the human power values input to this j-th neural unit is: net, -ΣW .■.

J    ij   l であり、その出力は前述したようにs1gmoid関数
を用いて、 y、−f  (net、) Jコ となる。そして、中間層に存在する全ての二二一ラルユ
ニットにて前述の処理が行われ、その出力値が出力層の
各ニューラルユニットに人力される。
J ij l , and its output becomes y,−f (net,) J by using the s1gmoid function as described above. Then, the above-mentioned processing is performed in all the neural units existing in the intermediate layer, and the output values are manually inputted to each neural unit in the output layer.

出力層のニューラルユニットにおいても、中間層と同様
の変換処理が行われる。すなわち、出力層に位置する第
j番目のニューラルユニットに入力される中間層の第1
番目のニューラルユニットからの出力をyo、この時の
重み付けをw、6′とすると、この第j番目のニューラ
ルユニットに入力される入力値の総和net、  −は
net、  −Σ1・°゛yl J         IJ となり、この時の出力値O0は、 O,mf (net、−) J             J となる。なお、入力層から中間層への重み付けW i 
j及び中間層から出力層への重み付けwIj−の値は、
出力層からの実際の出力値と望ましい出力値との差が減
少するように予め学習により調整しておく。また、各ニ
ューラルユニットにて入力値の総和から出力値を変換す
る際に、その都度変換関数fを用いて演算するのではな
く、ROM等に予め入力される総和値とその時の出力値
とをマツプとして記憶させ、演算処理を行うことなくこ
のROMから読み出すことにより変換処理を行っても良
い。
The same conversion process as in the intermediate layer is also performed in the neural unit of the output layer. In other words, the first neural unit in the intermediate layer that is input to the jth neural unit located in the output layer
If the output from the th neural unit is yo, and the weighting at this time is w, 6', then the total sum of input values input to the jth neural unit is net, - is net, -Σ1・°゛yl J IJ, and the output value O0 at this time is O, mf (net, -) JJ. Note that the weighting W i from the input layer to the intermediate layer
The values of j and weighting wIj- from the intermediate layer to the output layer are:
Adjustments are made in advance by learning so that the difference between the actual output value and the desired output value from the output layer is reduced. In addition, when converting the output value from the sum of input values in each neural unit, instead of calculating using the conversion function f each time, the sum value inputted in advance to ROM etc. and the output value at that time are The conversion process may be performed by storing the data as a map and reading it from the ROM without performing arithmetic processing.

このようにニューラルネットワークを用いることにより
、−組の入力画像情報がらこれに対応した一組の出力値
が得られることとなるが、出力層を構成する各ニューラ
ルユニット1,2.・・・・・・lには所定の状態が対
応しており、この出方層からの出力値により車両運転者
の顔の方向及び1」の状態を判定することができる。
By using the neural network in this way, one set of output values corresponding to the - set of input image information can be obtained from each of the neural units 1, 2, . A predetermined state corresponds to l, and the direction of the vehicle driver's face and the state of 1 can be determined based on the output value from this output layer.

すなわち、第6図に示されるように出力層の第1番目の
ニューラルユニットがらの出力は運転者の顔が正面方向
を向いていることを意味し、第2番目のニューラルユニ
ットからの出方値は運転者の目が閉じている状態に対応
し、そして第1番目のニューラルユニットからの出力値
は運転者がインストルメントパネル方向に向いているこ
とに対応している。従って、出力層を構成する1個のニ
ューラルユニットからの出力値がそれぞれ(1゜0.0
.・・・・・・、0)である場合には、車両運転者の顔
は正面を向き、かつ開眼状態にあると検出される。そし
て、このようにして検出された車両運転者の顔の方向や
目の状態に関する情報は車両の電子制御を行うE CU
 (Electronic ControlUnit 
)に入力される。
That is, as shown in Figure 6, the output from the first neural unit in the output layer means that the driver's face is facing forward, and the output value from the second neural unit means that the driver's face is facing forward. corresponds to the driver's eyes being closed, and the output value from the first neural unit corresponds to the driver facing towards the instrument panel. Therefore, the output value from one neural unit constituting the output layer is (1°0.0
.. ..., 0), it is detected that the vehicle driver's face is facing forward and his eyes are open. Information about the direction of the vehicle driver's face and the condition of his eyes detected in this way is then sent to the ECU, which performs electronic control of the vehicle.
(Electronic Control Unit
) is entered.

このECU18では入力した運転者の顔の向きや目の状
態に関する情報及びレーザレーダ等の障害物センサ20
やカメラ等の車両が走行する道路環境を認識する環境認
識センサ22からの情報に基づき車両を安全に走行させ
るべく、警報装置やアクセルアクチュエータ、ブレーキ
アクチュエータを制御する。例えば、 (イ)車両運転者の顔及び目が横を向いている場合には
、前方車両との車間距離を大きくすべくブレーキ操作を
行う。
This ECU 18 receives input information regarding the direction of the driver's face and the state of the eyes, and an obstacle sensor 20 such as a laser radar.
Based on information from an environment recognition sensor 22 that recognizes the road environment on which the vehicle travels, such as a camera or the like, a warning device, an accelerator actuator, and a brake actuator are controlled in order to drive the vehicle safely. For example, (a) If the vehicle driver's face and eyes are turned to the side, brake operation is performed to increase the distance between the vehicle and the vehicle in front.

(ロ)車両運転者の目が長時開閉じており居眠り運転と
検出された場合には、警報手段を介して運転者に警報を
与える。
(b) If it is detected that the vehicle driver's eyes are open and closed for a long time and he is drowsy while driving, a warning is given to the driver via the warning means.

(ハ)車両運転者の顔及び目が横を向いている場合であ
って、かつ車両がカーブを走行中の場合には警報手段を
介して警報を与えると共にブレーキ操作を行う。
(c) If the face and eyes of the vehicle driver are turned to the side and the vehicle is traveling around a curve, a warning is given through the warning means and the brakes are operated.

(ニ)車両運転者の目がルームミラーまたは右サイドミ
ラ一方向に向いておらず、がっ車両が右折または右隣接
斜線への斜線変更を行う場合には、警報手段を介して警
報を与える。
(d) If the vehicle driver's eyes are not directed toward the room mirror or the right side mirror and the vehicle makes a right turn or changes diagonally to the adjacent diagonal line on the right, a warning is given through the warning means.

などの制御を行い、車両を安全に走行させる。etc. to ensure safe driving of the vehicle.

なお、本第1実施例においては入力層から中間層、さら
には出力層へと順次出力される、いわゆる順方向結合タ
イプのニューラルネットワークを用いたが、出力層から
入力層への結線も存在するいわゆる相互結合タイプのニ
ューラルネットワークを用いても良い。
In the first embodiment, a so-called forward connection type neural network was used in which output is sequentially performed from the input layer to the intermediate layer and then to the output layer, but there is also a connection from the output layer to the input layer. A so-called mutually coupled neural network may also be used.

また、本第1実施例においては中間層は一層のみである
が、この中間層を複数層設けても同様の処理を行うこと
が可能である。
Further, in the first embodiment, there is only one intermediate layer, but the same processing can be performed even if a plurality of intermediate layers are provided.

第2実施例 第3図は本発明の第2実施例におけるCPU4での処理
を表わすフロチャートである。前述の第1実施例におい
ては車両運転者が乗車直前の背景画像及びこの背景画像
を撮影後所定時間内の車両運転者画像を撮影し、その差
分を算出することにより車両運転者の頭の位置を特定し
たが、本第2実施例においては車両運転者が降車役所定
時間内の背景画像を撮影することとしている。
Second Embodiment FIG. 3 is a flowchart showing processing by the CPU 4 in a second embodiment of the present invention. In the first embodiment described above, the vehicle driver captures a background image immediately before getting into the vehicle and an image of the vehicle driver within a predetermined time after capturing this background image, and calculates the difference between the images to determine the position of the vehicle driver's head. However, in the second embodiment, the vehicle driver photographs a background image within a predetermined time period for getting off the vehicle.

このため、本第2実施例においては以下のような処理フ
ローを採用している。すなわち、まず、ステップ200
にてイグニッションセンサ3からの検出信号によりイグ
ニッションOFFか否かが判断される。そして、このス
テップ200にてYES、すなわちイグニッションがO
FFの時はステップ202に移行する。
For this reason, the second embodiment employs the following processing flow. That is, first, step 200
Based on the detection signal from the ignition sensor 3, it is determined whether the ignition is turned off. Then, in this step 200, YES, that is, the ignition is turned on.
If it is FF, the process moves to step 202.

このステップ202ではドアセンサ2からの検出信号に
よりタイマーが作動して運転席側のドアがロックしてか
ら所定時間内か否かが判断される(SW7?)。そして
、このステップ202でYESと判断された時にはCP
U4からTV左カメラ0へ駆動信号が送られ、ステップ
204に示されるようにTV左カメラ0は背景画像P。
In this step 202, it is determined whether or not a predetermined time has elapsed since the timer was activated by the detection signal from the door sensor 2 and the driver's seat side door was locked (SW7?). Then, when it is determined YES in this step 202, the CP
A drive signal is sent from U4 to the TV left camera 0, and the TV left camera 0 captures the background image P as shown in step 204.

を撮影する。to photograph.

ここで、これらステップ200及び202にてYESと
判断された状況は、車両運転者が運転を中止してイグニ
ッションをOFFとし、降車してドアをロックした後の
車両運転者の存在しない状況に対応しており、このよう
に車両運転者が降車後の背景画像がTV左カメラ0によ
って撮影されるのである。
Here, the situation where YES is determined in steps 200 and 202 corresponds to a situation where the vehicle driver is not present after the vehicle driver has stopped driving, turned off the ignition, got out of the vehicle, and locked the door. In this way, the background image after the vehicle driver gets off the vehicle is photographed by the TV left camera 0.

一方、ステップ200でNOlすなわちイグニッション
がONと判断された時、及びステップ202にてNOl
すなわち運転席側のドアがロックされてから所定時間経
過した時には共にステップ108に移行する。
On the other hand, when it is determined in step 200 that NOl, that is, the ignition is ON, and in step 202, NOl is
That is, when a predetermined period of time has elapsed since the door on the driver's seat side was locked, the process moves to step 108.

このステップ108では前述の第1実施例と同様にイグ
ニッションON後所定時間経過したが否かが判断され、
YESすなわち所定時間経過していると判断された場合
には車両運転者が実際に車両を運転中であることを意味
し次のステップ2゜8に移行する。
In step 108, it is determined whether a predetermined period of time has elapsed after the ignition was turned on, as in the first embodiment described above.
If YES, that is, it is determined that the predetermined time has elapsed, it means that the vehicle driver is actually driving the vehicle, and the process moves to the next step 2.8.

このステップ208では車両のシフトレバ−がP(パー
キング)以外のレンジに設定されているか否かが判断さ
れ、YES、すなわちP以外のレンジにシフトレバ−が
設定されている場合には車両が運転中であることを意味
し以下第1実施例のステップ112〜ステツプ118と
同様のステップを経ることにより車両運転者画像P1が
撮影され、更に先に撮影された背景画像をP。との差分
が算出されて車両運転者の頭の位置が特定される。
In this step 208, it is determined whether the vehicle's shift lever is set to a range other than P (parking), and if YES, that is, the shift lever is set to a range other than P, the vehicle is not in operation. This means that a vehicle driver image P1 is photographed by going through steps similar to steps 112 to 118 in the first embodiment, and a background image photographed earlier is photographed. The position of the vehicle driver's head is determined by calculating the difference between the two.

このように、本第2実施例においてはイグニッションが
ONか否か及びシフトレバ−がPレンジ以外に設定され
ているか否かにより車両運転者の有無を判定するもので
あり、圧力センサ等の特殊なセンサを用いずに検出手段
を構成できる利点がある。
In this way, in the second embodiment, the presence or absence of a vehicle driver is determined based on whether the ignition is turned on or not and whether the shift lever is set to a position other than the P range, and a special sensor such as a pressure sensor is used to determine the presence or absence of a vehicle driver. There is an advantage that the detection means can be constructed without using a sensor.

なお、前述の第1及び第2実施例においてはCPU4に
より算出された車両運転者の頭の位置に関する情報が切
出し回路14に送られ所望の領域が切出されたが、この
ようにTV左カメラ0を車両のフロントパネル近傍に設
置するのみでなく、補助的に第2のTV左カメラ車両後
方のデツキルーム等に設置し、車両運転者の顔部が写し
出されているルームミラーを撮影するように構成しても
良い。
In the first and second embodiments described above, information regarding the position of the vehicle driver's head calculated by the CPU 4 is sent to the cutting circuit 14 to cut out a desired area. In addition to installing the camera near the front panel of the vehicle, a second TV left camera is also installed in the deck room at the rear of the vehicle to take pictures of the rearview mirror that shows the driver's face. It may be configured.

この場合、第2のTV左カメラは既に車両運転者の顔部
のみが写し出されているため、この第2のTV左カメラ
て得られた画像と前述の第1及び第2実施例におけるT
V左カメラ0にて撮影され、切出し回路14で切出され
た画像と比較し、互いの画像の相違量が所定の許容範囲
以内であれば切り出された画像を採用するように構成す
ることにより、より一層の制度向上を図ることが可能で
ある。
In this case, since the second TV left camera has already captured only the face of the vehicle driver, the image obtained by the second TV left camera and the T in the first and second embodiments described above are
By comparing it with the image taken by the V left camera 0 and cropped by the cropping circuit 14, and adopting the cropped image if the amount of difference between the two images is within a predetermined tolerance range. , it is possible to further improve the system.

[発明の効果] 以上説明したように、本発明に係る車両運転者監視装置
によれば、不特定多数の車両運転者の顔の向きや目の状
態を高速かつ確実に検出することが可能となる。
[Effects of the Invention] As explained above, according to the vehicle driver monitoring device according to the present invention, it is possible to quickly and reliably detect the face direction and eye condition of an unspecified number of vehicle drivers. Become.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は実施例の構成ブロック図、 第2図は第1実施例のCPUの処理フローチャ−ト図、 第3図は第2実施例のCPUの処理フローチャート図、 第4図は実施例の画像差分の説明図、 第5図は実施例のウィンドウ設定説明図、第6図は実施
例のニューラルネットワークの構成図である。 1  ・・・ 圧力センサ 2  ・・・ ドアセンサ 3  ・・・ イグニッションセンサ 4  ・・・ CPU 5  ・・・ 記憶装置 14 ・・・ 切り出し回路 16 ・・・ ニューラルネットワーク18 ・・・ 
ECU
Fig. 1 is a block diagram of the configuration of the embodiment, Fig. 2 is a processing flowchart of the CPU of the first embodiment, Fig. 3 is a processing flowchart of the CPU of the second embodiment, and Fig. 4 is a processing flowchart of the CPU of the second embodiment. FIG. 5 is an explanatory diagram of image differences, FIG. 5 is an explanatory diagram of window settings in the embodiment, and FIG. 6 is a configuration diagram of a neural network in the embodiment. 1... Pressure sensor 2... Door sensor 3... Ignition sensor 4... CPU 5... Storage device 14... Extraction circuit 16... Neural network 18...
ECU

Claims (1)

【特許請求の範囲】 車両内の所定位置に設けられた撮像手段と、車両運転者
の有無を検出する検出手段と、 この検出手段にて車両運転者が無と検出された時及び車
両運転者が有と検出された時に前記撮像手段を駆動して
それぞれ背景画像及び車両運転者画像を得る撮像制御手
段と、 得られた背景画像と車両運転者画像との相違から車両運
転者の顔部位置を算出する位置算出手段と、 この位置算出手段にて算出された顔部位置の車両運転者
画像を入力し、入力の加重和に応じて出力するニューラ
ルユニット群からなる層を多層接続してなるニューラル
ネットワークを用いて車両運転者の顔の方向及び目の状
態を検出する状態検出手段と、 を具備することを特徴とする車両運転者監視装置。
[Scope of Claims] An imaging means provided at a predetermined position within a vehicle, a detection means for detecting the presence or absence of a vehicle driver, and when the detection means detects that there is no vehicle driver; an imaging control means that drives the imaging means to obtain a background image and a vehicle driver image, respectively, when the presence of the vehicle driver is detected; A position calculation means for calculating the position of the vehicle driver, and a neural unit group that inputs the image of the vehicle driver at the face position calculated by the position calculation means and outputs it according to the weighted sum of the inputs are connected in multiple layers. A vehicle driver monitoring device comprising: a state detection means for detecting the direction of the face and the state of the eyes of the vehicle driver using a neural network.
JP2182355A 1990-07-09 1990-07-09 Vehicle driver monitoring device Expired - Fee Related JP2546415B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2182355A JP2546415B2 (en) 1990-07-09 1990-07-09 Vehicle driver monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2182355A JP2546415B2 (en) 1990-07-09 1990-07-09 Vehicle driver monitoring device

Publications (2)

Publication Number Publication Date
JPH0468500A true JPH0468500A (en) 1992-03-04
JP2546415B2 JP2546415B2 (en) 1996-10-23

Family

ID=16116866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2182355A Expired - Fee Related JP2546415B2 (en) 1990-07-09 1990-07-09 Vehicle driver monitoring device

Country Status (1)

Country Link
JP (1) JP2546415B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659042A (en) * 1992-08-11 1994-03-04 Ricoh Co Ltd Image forming device
JPH0659010A (en) * 1992-08-07 1994-03-04 Ricoh Co Ltd Image forming device
JPH06162396A (en) * 1992-11-18 1994-06-10 Mitsubishi Electric Corp On-vehicle safety drive supporting device
JPH06178302A (en) * 1992-12-02 1994-06-24 Mitsubishi Electric Corp Driver photographing device
JPH07266917A (en) * 1994-03-31 1995-10-17 Toyota Motor Corp Asleep driving detection device
JPH07296299A (en) * 1994-04-20 1995-11-10 Nissan Motor Co Ltd Image processor and warning device against doze at the wheel using the same
DE19603287A1 (en) * 1995-07-06 1997-01-09 Mitsubishi Electric Corp Face imaging device
JPH09501120A (en) * 1993-03-31 1997-02-04 オートモーティブ・テクノロジーズ・インターナショナル・インク Position / speed sensor for passengers in the vehicle
JPH0939728A (en) * 1995-07-25 1997-02-10 Automot Technol Internatl Inc Confirming and monitor system in car
JPH10146321A (en) * 1996-11-20 1998-06-02 Matsushita Electric Ind Co Ltd Driver monitoring device
US5788795A (en) * 1992-05-27 1998-08-04 Plastisign Limited Of Unit 6 Apparatus for cold laminating rigid plastics and stationery
GB2289332B (en) * 1994-05-09 1999-01-06 Automotive Tech Int Vehicle interior identification and monitoring system
JPH11161798A (en) * 1997-12-01 1999-06-18 Toyota Motor Corp Vehicle driver monitoring device
JPH11342830A (en) * 1998-06-03 1999-12-14 Nippon Seiko Kk Occupant restrictive and protective device for vehicle
JP2000113164A (en) * 1998-09-30 2000-04-21 Honda Motor Co Ltd Object detecting device using difference image
JP2000232638A (en) * 1999-02-09 2000-08-22 Toshiba Corp Person monitor system to evaluate image information
JP2004287845A (en) * 2003-03-20 2004-10-14 Aisin Seiki Co Ltd Line-of-sight detector for vehicle driver
JP2005319989A (en) * 2005-04-19 2005-11-17 Automot Technol Internatl Inc Recognizing and monitoring system of inside of vehicle
JP2007219578A (en) * 2006-02-14 2007-08-30 Omron Corp Abnormality detection device and method, recording medium and program
JP2007249352A (en) * 2006-03-14 2007-09-27 Omron Corp Information processing device and method, recording medium, and program
JP2008198078A (en) * 2007-02-15 2008-08-28 Toyota Central R&D Labs Inc Image detection device
JP2009107527A (en) * 2007-10-31 2009-05-21 Denso Corp Occupant detection device of vehicle
WO2017040519A1 (en) 2015-08-31 2017-03-09 Sri International Method and system for monitoring driving behaviors
CN107545232A (en) * 2016-06-24 2018-01-05 福特全球技术公司 Track detection system and method
JP6264492B1 (en) * 2017-03-14 2018-01-24 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2019536673A (en) * 2017-08-10 2019-12-19 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Driving state monitoring method and device, driver monitoring system, and vehicle
CN111583585A (en) * 2020-05-26 2020-08-25 苏州智华汽车电子有限公司 Information fusion fatigue driving early warning method, system, device and medium
JP2020525334A (en) * 2018-06-04 2020-08-27 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Operation management method and system, in-vehicle smart system, electronic device and medium
CN112073480A (en) * 2020-08-26 2020-12-11 湖南金锐科技有限公司 Method and device for monitoring consumption of muck vehicle through neural network algorithm self-organizing mapping
US10915769B2 (en) 2018-06-04 2021-02-09 Shanghai Sensetime Intelligent Technology Co., Ltd Driving management methods and systems, vehicle-mounted intelligent systems, electronic devices, and medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03254291A (en) * 1990-03-02 1991-11-13 Toyota Motor Corp Monitor for automobile driver

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03254291A (en) * 1990-03-02 1991-11-13 Toyota Motor Corp Monitor for automobile driver

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5788795A (en) * 1992-05-27 1998-08-04 Plastisign Limited Of Unit 6 Apparatus for cold laminating rigid plastics and stationery
JPH0659010A (en) * 1992-08-07 1994-03-04 Ricoh Co Ltd Image forming device
JPH0659042A (en) * 1992-08-11 1994-03-04 Ricoh Co Ltd Image forming device
JPH06162396A (en) * 1992-11-18 1994-06-10 Mitsubishi Electric Corp On-vehicle safety drive supporting device
JPH06178302A (en) * 1992-12-02 1994-06-24 Mitsubishi Electric Corp Driver photographing device
JPH09501120A (en) * 1993-03-31 1997-02-04 オートモーティブ・テクノロジーズ・インターナショナル・インク Position / speed sensor for passengers in the vehicle
JPH07266917A (en) * 1994-03-31 1995-10-17 Toyota Motor Corp Asleep driving detection device
JPH07296299A (en) * 1994-04-20 1995-11-10 Nissan Motor Co Ltd Image processor and warning device against doze at the wheel using the same
GB2289332B (en) * 1994-05-09 1999-01-06 Automotive Tech Int Vehicle interior identification and monitoring system
US5801763A (en) * 1995-07-06 1998-09-01 Mitsubishi Denki Kabushiki Kaisha Face image taking device
DE19603287A1 (en) * 1995-07-06 1997-01-09 Mitsubishi Electric Corp Face imaging device
DE19603287C2 (en) * 1995-07-06 1999-07-01 Mitsubishi Electric Corp Face imaging device
JPH0939728A (en) * 1995-07-25 1997-02-10 Automot Technol Internatl Inc Confirming and monitor system in car
JPH10146321A (en) * 1996-11-20 1998-06-02 Matsushita Electric Ind Co Ltd Driver monitoring device
JPH11161798A (en) * 1997-12-01 1999-06-18 Toyota Motor Corp Vehicle driver monitoring device
JPH11342830A (en) * 1998-06-03 1999-12-14 Nippon Seiko Kk Occupant restrictive and protective device for vehicle
JP2000113164A (en) * 1998-09-30 2000-04-21 Honda Motor Co Ltd Object detecting device using difference image
JP2000232638A (en) * 1999-02-09 2000-08-22 Toshiba Corp Person monitor system to evaluate image information
JP2004287845A (en) * 2003-03-20 2004-10-14 Aisin Seiki Co Ltd Line-of-sight detector for vehicle driver
JP2005319989A (en) * 2005-04-19 2005-11-17 Automot Technol Internatl Inc Recognizing and monitoring system of inside of vehicle
JP2007219578A (en) * 2006-02-14 2007-08-30 Omron Corp Abnormality detection device and method, recording medium and program
JP2007249352A (en) * 2006-03-14 2007-09-27 Omron Corp Information processing device and method, recording medium, and program
JP2008198078A (en) * 2007-02-15 2008-08-28 Toyota Central R&D Labs Inc Image detection device
JP2009107527A (en) * 2007-10-31 2009-05-21 Denso Corp Occupant detection device of vehicle
WO2017040519A1 (en) 2015-08-31 2017-03-09 Sri International Method and system for monitoring driving behaviors
CN107545232A (en) * 2016-06-24 2018-01-05 福特全球技术公司 Track detection system and method
WO2018167991A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP6264492B1 (en) * 2017-03-14 2018-01-24 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2018152034A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
CN110268456A (en) * 2017-03-14 2019-09-20 欧姆龙株式会社 Driver's monitoring arrangement, driver monitor method, learning device and learning method
JP2019536673A (en) * 2017-08-10 2019-12-19 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Driving state monitoring method and device, driver monitoring system, and vehicle
US10853675B2 (en) 2017-08-10 2020-12-01 Beijing Sensetime Technology Development Co., Ltd. Driving state monitoring methods and apparatuses, driver monitoring systems, and vehicles
JP2020525334A (en) * 2018-06-04 2020-08-27 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Operation management method and system, in-vehicle smart system, electronic device and medium
US10915769B2 (en) 2018-06-04 2021-02-09 Shanghai Sensetime Intelligent Technology Co., Ltd Driving management methods and systems, vehicle-mounted intelligent systems, electronic devices, and medium
CN111583585A (en) * 2020-05-26 2020-08-25 苏州智华汽车电子有限公司 Information fusion fatigue driving early warning method, system, device and medium
CN111583585B (en) * 2020-05-26 2021-12-31 苏州智华汽车电子有限公司 Information fusion fatigue driving early warning method, system, device and medium
CN112073480A (en) * 2020-08-26 2020-12-11 湖南金锐科技有限公司 Method and device for monitoring consumption of muck vehicle through neural network algorithm self-organizing mapping
CN112073480B (en) * 2020-08-26 2022-06-14 湖南金锐科技有限公司 Method and device for monitoring consumption of muck vehicle through neural network algorithm self-organizing mapping

Also Published As

Publication number Publication date
JP2546415B2 (en) 1996-10-23

Similar Documents

Publication Publication Date Title
JPH0468500A (en) Vehicle driver monitoring device
JP6638851B1 (en) Imaging device, imaging system, imaging method, and imaging program
US11745755B2 (en) Vehicular driving assist system with driver monitoring
CN111699680B (en) Automobile data recorder, display control method, and storage medium
US20150009010A1 (en) Vehicle vision system with driver detection
JP4899059B2 (en) Sleepiness detection device
CN102971776B (en) Obstacle detection system and method, obstacle detector
CN102447911A (en) Image acquisition unit, acquisition method, and associated control unit
JPH03254291A (en) Monitor for automobile driver
KR101625538B1 (en) Car Number Recognition system
US20050185243A1 (en) Wavelength selectivity enabling subject monitoring outside the subject's field of view
US20230174074A1 (en) In-cabin safety sensor installed in vehicle and method of providing service platform thereof
JP3588666B2 (en) Operation control device
WO2021245730A1 (en) On-vehicle imaging control device, on-vehicle imaging control system, and imaging control method
KR102494530B1 (en) Camera Apparatus Installing at a Car for Detecting Drowsy Driving and Careless Driving and Method thereof
JP4888382B2 (en) Abnormality detection apparatus and method, and program
JP2009029350A (en) Occupant detection device for vehicle
KR102264266B1 (en) Crackdown system in disabled persons's parking area based on artificial intelligence picture reading for cracking down overall object of control
KR102457629B1 (en) Apparatus for real-time condition check of vehicle back seat
JP2982204B2 (en) Vehicle driver monitoring device
KR101582454B1 (en) Method for cognition of movement object in photographing image and system for prevention of vehicle boarding accident
JPH0732907A (en) Consciousness level detecting device
CN109050246A (en) A kind of method and apparatus of giving fatigue pre-warning
KR102588904B1 (en) In-Cabin Security Sensor Installed at a Car
JP7393738B2 (en) Driver state estimation device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070808

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080808

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080808

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090808

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees