JP5935759B2 - Driver status determination system - Google Patents

Driver status determination system Download PDF

Info

Publication number
JP5935759B2
JP5935759B2 JP2013120849A JP2013120849A JP5935759B2 JP 5935759 B2 JP5935759 B2 JP 5935759B2 JP 2013120849 A JP2013120849 A JP 2013120849A JP 2013120849 A JP2013120849 A JP 2013120849A JP 5935759 B2 JP5935759 B2 JP 5935759B2
Authority
JP
Japan
Prior art keywords
driver
vehicle
face
information
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013120849A
Other languages
Japanese (ja)
Other versions
JP2014238707A (en
Inventor
崇治 小栗
崇治 小栗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013120849A priority Critical patent/JP5935759B2/en
Publication of JP2014238707A publication Critical patent/JP2014238707A/en
Application granted granted Critical
Publication of JP5935759B2 publication Critical patent/JP5935759B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、例えばドライバ(運転者)の脇見や眠気や怒り等の状態を判定することができるドライバ状態判定システムに関するものである。   The present invention relates to a driver state determination system that can determine the state of a driver (driver) looking aside, sleepiness, anger, and the like.

近年、自動車を運転中のドライバの顔を、ダッシュボードなどの車室内に配置されたカメラで撮影し、その撮影したドライバの顔の画像(顔画像)を解析して、ドライバの居眠りや脇見を検出する技術が開発されている。   In recent years, the driver's face while driving a car is photographed with a camera placed in the passenger compartment such as a dashboard, and the photographed driver's face image (face image) is analyzed to help the driver doze or look aside. Detection technology has been developed.

例えば、下記特許文献1には、顔画像から運転者が強い眠気の状態にあるか否かを判定し、強い眠気がある場合には、ドライバ自身だけでなく、ドライバ以外の家族などにその旨を通知することを警告したり、実際に家族にメール等で通知する技術が開示されている。   For example, in Patent Document 1 below, it is determined whether or not the driver is in a strong sleepiness state from the face image, and if there is a strong sleepiness, not only the driver itself but also a family other than the driver to that effect. Have been disclosed, and techniques for notifying family members by e-mail or the like are disclosed.

特開2007−304705号公報JP 2007-304705 A

しかしながら、上述した従来技術では、予め自動車に、ドライバの顔を撮影するカメラや、顔画像からドライバの状態を判定する装置などを備えておく必要があり、汎用性が十分ではないという問題があった。   However, the above-described conventional technology has a problem in that the vehicle is not equipped with a camera that captures the driver's face in advance, a device that determines the state of the driver from the face image, and the like, and is not sufficiently versatile. It was.

本発明は、前記課題を解決するためになされたものであり、その目的は、自動車に特別な装置を設けなくとも、ドライバの状態を判定し、ドライバや周囲の人等に必要な情報を提供することができるドライバ状態判定システムを提供することにある。   The present invention has been made to solve the above-mentioned problems, and its purpose is to determine the state of the driver without providing a special device in the automobile and to provide necessary information to the driver, surrounding people, etc. It is an object of the present invention to provide a driver status determination system capable of performing the above.

本発明のドライバ状態判定システムは、車両の走行経路に沿って配置された複数の撮影手段によって、ドライバの顔及び車両のナンバーが撮影された画像を取得する画像取得手段と、前記画像取得手段によって取得された各画像における顔画像のデータと前記ナンバーのデータとを関連づけて蓄積するデータ蓄積手段と、前記データ蓄積手段によって蓄積された前記顔画像のデータに基づいて、前記ドライバの状態を判定するドライバ状態判定手段と、該ドライバ状態判定手段によって判定されたドライバの状態に関する情報を、前記車両の乗員に向けて又は該車両の周囲の他の車両の乗員に向けて提示する情報提示手段と、を備えたことを特徴とする。   The driver state determination system according to the present invention includes an image acquisition unit that acquires an image in which a driver's face and a vehicle number are captured by a plurality of imaging units arranged along a travel route of the vehicle, and the image acquisition unit. Data accumulating means for associating and accumulating the face image data and the number data in each acquired image, and determining the state of the driver based on the face image data accumulated by the data accumulating means Driver state determination means, and information presentation means for presenting information relating to the state of the driver determined by the driver state determination means to an occupant of the vehicle or to occupants of other vehicles around the vehicle; It is provided with.

本発明では、車両の走行経路(道路)に沿って配置された撮影手段によって、走行する車両の外側より、ドライバの顔及び車両のナンバーを(従って時系列に沿って)撮影する。そして、これらの画像における顔画像のデータとナンバーのデータとを関連づけて蓄積するので、どの車両に関するデータかが分かる。その後、蓄積された(時系列に沿った)顔画像のデータに基づいて、ドライバの状態を判定し、判定されたドライバの状態に関する情報(例えば脇見や眠気や怒り等を示す情報)を、ドライバ自身やその同乗者や周囲の他の車両の乗員に向けて提示する。よって、その情報の提示を受けたものは、提示内容に対応した適切な対応(例えばドライバに注意したり休憩を促す等の対応)が可能となる。   In the present invention, the face of the driver and the vehicle number are photographed (according to time series) from the outside of the traveling vehicle by the photographing means arranged along the traveling route (road) of the vehicle. Since the face image data and the number data in these images are stored in association with each other, it is possible to know which vehicle the data relates to. Then, based on the accumulated face image data (in time series), the driver state is determined, and information on the determined driver state (for example, information indicating aside, sleepiness, anger, etc.) Present it to yourself, its passengers and other passengers in the surrounding area. Therefore, the information that has been presented can be appropriately dealt with in accordance with the presented content (for example, taking care of the driver or encouraging a break).

従って、従来のように、車両自体にカメラやドライバの状態を判定する装置が無い車両の場合でも、運転中のドライバの状態を的確に判定することができるので、汎用性が高いという効果がある。また、その判定結果に基づいて、必要な情報を好適に提供することができるという利点がある。   Therefore, even in the case of a vehicle that does not have a device for determining the state of a camera or a driver in the vehicle itself as in the prior art, the state of the driver during driving can be accurately determined, so that the versatility is high. . Moreover, there exists an advantage that required information can be provided suitably based on the determination result.

ここで、顔画像とは、撮影された画像のうちの顔の画像のことであり、顔画像のデータとしては、顔画像自体の画像データ以外に、顔画像を解析することによって得られた顔画像の特徴を示す解析データ(例えば顔の向きや目の開閉状態や顔の表情などの解析データ)が挙げられる。   Here, the face image is a face image of the captured image, and the face image data includes a face obtained by analyzing the face image in addition to the image data of the face image itself. Analysis data (for example, analysis data such as face orientation, eye open / close state, facial expression, etc.) indicating the characteristics of the image can be mentioned.

なお、本発明では、顔画像のデータ(画像データ)に基づいて、ドライバの顔の向きを検出したり、ドライバの閉眼状態(従って眠気)を検出したり、ドライバの顔の表情(従って感情)を検出することができる。   In the present invention, the direction of the driver's face is detected based on the face image data (image data), the driver's eye closed state (and hence sleepiness) is detected, and the driver's facial expression (and thus emotion). Can be detected.

実施例1のドライバ状態判定システムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the driver state determination system of Example 1. FIG. 実施例1のドライバ状態判定システムを機能的に示すブロック図である。1 is a block diagram functionally illustrating a driver state determination system according to a first embodiment. 実施例1のドライバ状態判定システムのシステム全体における制御処理を示すフローチャートである。3 is a flowchart illustrating control processing in the entire system of the driver state determination system according to the first exemplary embodiment. ドライバ状態検出装置における制御処理を示すフローチャートである。It is a flowchart which shows the control processing in a driver state detection apparatus. ドライバ状態判定装置における制御処理を示すフローチャートである。It is a flowchart which shows the control processing in a driver state determination apparatus. 実施例3のドライバ状態判定システムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the driver state determination system of Example 3. FIG.

次に、本発明のドライバ状態判定システムの実施例を、図面と共に説明する。   Next, an embodiment of the driver state determination system of the present invention will be described with reference to the drawings.

a)まず、本実施例のドライバ状態判定システムの基本構成について、図1に基づいて説明する。
本実施例のドライバ状態判定システム1では、道路に沿って、複数のポール3が立てられており、各ポール3には、自動車(車両)5を撮影するために撮影装置7が取り付けられている。また、一部のポール3には、電光掲示板9が取り付けられている。
a) First, the basic configuration of the driver state determination system of this embodiment will be described with reference to FIG.
In the driver state determination system 1 of the present embodiment, a plurality of poles 3 are set up along a road, and a photographing device 7 is attached to each pole 3 for photographing a car (vehicle) 5. . An electric bulletin board 9 is attached to some poles 3.

また、撮影装置7は、車両5に近赤外光を照射する照射部11と、車両5の乗員(特にドライバ)の顔と車両5のナンバープレートを撮影するためのカメラ(例えばCCDカメラ)13とを備えている。   In addition, the photographing device 7 includes an irradiation unit 11 that irradiates the vehicle 5 with near-infrared light, and a camera (for example, a CCD camera) 13 for photographing a face of an occupant (particularly a driver) of the vehicle 5 and a license plate of the vehicle 5. And.

更に、ポール3の内部には、カメラ13で撮影された顔の画像(顔画像)から顔の特徴を抽出することができるドライバ状態検出装置15が組み込まれている。なお、このドライバ状態検出装置15は、周知のマイコンを備えた(画像処理機能を有する)電子制御装置である。   Further, a driver state detection device 15 capable of extracting facial features from a facial image (face image) photographed by the camera 13 is incorporated in the pole 3. The driver state detection device 15 is an electronic control device (having an image processing function) provided with a known microcomputer.

このドライバ状態検出装置15では、後述するように、顔画像を解析して、目の開閉状態、顔の表情、顔の向き等を検出し、その顔画像から検出したドライバの顔に関する情報を、通信線17を介して、中央処理装置であるドライバ状態判定装置19に送信するように構成されている。なお、このドライバ状態判定装置19は、周知のマイコンを備えた電子制御装置である。   As will be described later, the driver state detection device 15 analyzes the face image to detect the open / closed state of the eyes, facial expression, face orientation, and the like, and information on the driver's face detected from the face image is obtained. It is configured to transmit to the driver state determination device 19 which is a central processing unit via the communication line 17. The driver state determination device 19 is an electronic control device including a known microcomputer.

また、このドライバ状態検出装置15では、周知の画像処理によって、車両5のナンバープレートからナンバーを読み取り、前記ドライバの顔に関する情報と関連づけて、即ち、どの車両5のドライバの情報かが分かるようにして、ドライバ状態判定装置19に送信するように構成されている。   Further, the driver state detection device 15 reads the number from the license plate of the vehicle 5 by known image processing and associates it with the information related to the driver's face, that is, the driver 5's information can be known. Then, it is configured to transmit to the driver state determination device 19.

なお、電光掲示板9の近傍には、図2に示すように、光の点滅や照射を行うフラッシュ37や、音や音声を出力するスピーカ39も配置されている。
b)次に、ドライバ状態判定システム1の構成を、図2に基づいて、更に詳細に説明する。
In addition, as shown in FIG. 2, a flash 37 for blinking and irradiating light and a speaker 39 for outputting sound and sound are also disposed in the vicinity of the electronic bulletin board 9.
b) Next, the configuration of the driver state determination system 1 will be described in more detail with reference to FIG.

図2に示すように、各ドライバ状態検出装置15は、機能的に(即ちマイコンの処理を行う構成として)、車両通行検出部21と、画像取得部23と、顔向き検出部25と、目状態検出部27と、顔表情検出部29と、ナンバー検出部30とを備えている。   As shown in FIG. 2, each driver state detection device 15 is functionally (that is, configured to perform processing of a microcomputer), and includes a vehicle traffic detection unit 21, an image acquisition unit 23, a face orientation detection unit 25, an eye A state detection unit 27, a facial expression detection unit 29, and a number detection unit 30 are provided.

このうち、車両通行検出部21は、例えばカメラ13の画像から道路上を走行している車両5を検出するものである。なお、周知のレーダ等から得られる情報を用いて、車両5の通行を検出してもよい。   Among these, the vehicle traffic detection part 21 detects the vehicle 5 which is drive | working on the road from the image of the camera 13, for example. Note that the traffic of the vehicle 5 may be detected using information obtained from a known radar or the like.

画像取得部23は、カメラ13によって撮影された画像のデータを入力(取得)して、一旦メモリ等に記憶するものである。
顔向き検出部25は、撮影された顔の画像のデータ(顔画像のデータ)に基づいて、後述する周知の画像処理の手法によって、ドライバや同乗者の顔の向きを検出するものである。
The image acquisition unit 23 inputs (acquires) data of an image captured by the camera 13 and temporarily stores it in a memory or the like.
The face orientation detection unit 25 detects the face orientation of a driver or a passenger based on the captured face image data (face image data) by a known image processing method to be described later.

目状態検出部27は、顔画像のデータに基づいて、後述する周知の画像処理の手法によって、ドライバの目の開閉状態を検出するものである。
顔表情検出部29は、顔画像のデータに基づいて、後述する周知の画像処理の手法によって、ドライバの表情(例えば怒りや苛立ちや笑顔)を検出するものである。
The eye state detection unit 27 detects the open / closed state of the driver's eyes based on the face image data by a known image processing method to be described later.
The facial expression detection unit 29 detects the facial expression (for example, anger, irritation, and smile) of the driver based on the facial image data by a known image processing method to be described later.

ナンバー検出部30は、車両5のナンバープレートが撮影された画像から、周知の画像処理に手法によって、車両5のナンバーを読み取るものである。
一方、ドライバ状態判定装置19は、機能的に、データ蓄積部31と、ドライバ状態判定部33と、情報提示部35とを備えている。
The number detection unit 30 reads the number of the vehicle 5 from an image obtained by photographing the number plate of the vehicle 5 by a known image processing method.
On the other hand, the driver state determination device 19 functionally includes a data storage unit 31, a driver state determination unit 33, and an information presentation unit 35.

このうち、データ蓄積部31は、顔向き検出部25によって検出されたドライバや同乗者の顔の向きの情報と、目状態検出部27によって検出されたドライバの目の開閉状態の情報と、顔表情検出部29によって検出されたドライバの顔の表情の情報と、そのドライバが運転している車両5のナンバーの情報とを蓄積するものである。   Among them, the data storage unit 31 includes information on the face orientation of the driver and passengers detected by the face direction detection unit 25, information on the open / closed state of the driver's eyes detected by the eye state detection unit 27, and the face The information of the facial expression of the driver detected by the facial expression detection unit 29 and the information of the number of the vehicle 5 that the driver is driving are stored.

なお、これらのドライバ等の状態は、車両5の走行に伴って、各ドライバ状態検出装置15から順次送られてくるので、データ蓄積部31は、時系列に沿って、その情報を順次記憶してゆく。   Since the status of these drivers and the like is sequentially sent from each driver status detection device 15 as the vehicle 5 travels, the data storage unit 31 sequentially stores the information in time series. Go.

また、この情報を記憶する際には、ドライバ等の状態の情報と車両5のナンバーの情報とを関連づけて記憶する。つまり、ドライバ等の顔の情報が、どの車両5のドライバ等の情報かが分かるようにして記憶する。   Further, when this information is stored, information on the state of the driver or the like and information on the number of the vehicle 5 are stored in association with each other. In other words, the information of the face of the driver or the like is stored so that the information of the driver or the like of which vehicle 5 is known.

ドライバ状態判定部33では、データ蓄積部31に記憶したドライバ等の顔の情報に基づいて、ドライバ等の状態(即ち脇見をしてるか、眠気があるか、怒り等の状態か)を判定する。   The driver state determination unit 33 determines the state of the driver or the like (that is, whether the driver is looking aside, sleepy, angry, or the like) based on the facial information of the driver or the like stored in the data storage unit 31. .

情報提示部35では、ドライバ状態判定部33によって判定したドライバ等の状態に基づいて、情報提示装置である電光掲示板9、フラッシュ37、スピーカ39を駆動して、ドライバ自身や同乗者や周囲の車両5に、必要な情報を提示する。   The information presenting unit 35 drives the electronic bulletin board 9, the flash 37, and the speaker 39, which are information presenting devices, based on the state of the driver and the like determined by the driver state determining unit 33, and the driver himself / her passengers and surrounding vehicles 5 shows necessary information.

c)次に、本実施例のドライバ状態判定システム1で行われる制御処理について、図3〜図5に基づいて説明する。
<システム全体の処理>
本処理は、ドライバ状態判定システム1で行われる制御処理の全体を示している。
c) Next, control processing performed in the driver state determination system 1 of the present embodiment will be described with reference to FIGS.
<System-wide processing>
This process shows the entire control process performed by the driver state determination system 1.

図3に示すように、ステップ100(S)では、車両5がポール3近傍を通過する際に、各ポール3のカメラ13によって車両5や搭乗者を撮影する。
そして、各ドライバ状態検出装置15では、撮影した画像からドライバ等の顔の状態の検出や車両のナンバーの検出を行い、その情報をドライバ状態判定装置19に送信する。
As shown in FIG. 3, in step 100 (S), the vehicle 5 and the passenger are photographed by the camera 13 of each pole 3 when the vehicle 5 passes near the pole 3.
Each driver state detection device 15 detects the state of the face of the driver or the like from the photographed image and the vehicle number, and transmits the information to the driver state determination device 19.

なお、ドライバの顔と車両のナンバーとは、同じ画像から検出してもよいし、個別に撮影した画像(顔を撮影した画像とナンバープレートを撮影した画像)から検出してもよい。   The driver's face and the vehicle number may be detected from the same image, or may be detected from images taken individually (an image obtained by photographing a face and an image obtained by photographing a license plate).

続くステップ110では、ドライバ状態検出装置15から送信されて蓄積された情報に基づいて、ドライバの状態を判定する。
続くステップ120では、外部に情報を提示することを許可するフラグである情報提示フラグがセットされている(情報提示フラグが1)か否かを判定する。ここで、肯定判断されるとステップ130に進み、一方、否定判断されると一旦本処理を終了する。
In the following step 110, the state of the driver is determined based on the information transmitted from the driver state detection device 15 and accumulated.
In the following step 120, it is determined whether or not an information presentation flag that is a flag for permitting presentation of information to the outside is set (the information presentation flag is 1). Here, if an affirmative determination is made, the process proceeds to step 130. On the other hand, if a negative determination is made, the present process is temporarily terminated.

ここで、情報提示フラグとしては、後述するように、脇見を示す情報提示フラグ、眠気を示す情報提示フラグ、怒り等の負の感情を示す情報提示フラグがある。
ステップ130では、情報の提示が許可されているので、情報提示部35によって、情報提示フラグの内容に応じて、後述するように、適宜、電光掲示板9やフラッシュ37やスピーカ39を駆動し、情報の提供を行って、一旦本処理を終了する。
Here, as the information presentation flag, there are an information presentation flag indicating aside, an information presentation flag indicating sleepiness, and an information presentation flag indicating negative emotion such as anger, as will be described later.
In step 130, since the presentation of information is permitted, the information presentation unit 35 drives the electronic bulletin board 9, the flash 37, and the speaker 39 as appropriate according to the content of the information presentation flag, as will be described later. This processing is once terminated.

<ドライバ状態検出装置15における処理>
本処理は、ドライバ状態検出装置15にて行われる制御処理を示している。
図4に示すように、ステップ200では、カメラ13で撮影された画像に基づいて、周知の画像処理によって、車両5を検出する処理を行う。例えば灰色の路面に対して、所定速度以上で移動する他の色の物体を車両5として検出する処理を行う。
<Processing in Driver State Detection Device 15>
This process indicates a control process performed by the driver state detection device 15.
As shown in FIG. 4, in step 200, processing for detecting the vehicle 5 is performed based on an image photographed by the camera 13 by known image processing. For example, a process of detecting an object of another color that moves at a predetermined speed or more as a vehicle 5 on a gray road surface is performed.

なお、画像によって車両5を検出する場合には、撮影する際に、車両5に対して近赤外光を照射することが望ましい。
また、周知のように、レーダ等からレーダ波等を照射して、その反射波によって、走行する車両5を検知し、車両5を検出した場合のみ、近赤外光を照射するとともに撮影してもよい。
When the vehicle 5 is detected from an image, it is desirable to irradiate the vehicle 5 with near infrared light when taking a picture.
As is well known, a radar wave or the like is emitted from a radar or the like, and the traveling vehicle 5 is detected by the reflected wave. Only when the vehicle 5 is detected, the near infrared light is emitted and photographed. Also good.

続くステップ210では、車両5が通行したか否かを判定し、ここで肯定判断されるとステップ220に進み、一方否定判断されるとステップ200に戻る。つまり、前記ステップ200にて、上述したような移動物体が検出されば、車両5が通行していると判定するのである。   In the following step 210, it is determined whether or not the vehicle 5 has passed. If an affirmative determination is made here, the process proceeds to step 220. If a negative determination is made, the process returns to step 200. That is, if a moving object as described above is detected in step 200, it is determined that the vehicle 5 is passing.

ステップ220では、実際に走行する車両5が存在するので、後述する画像処理を行うために、その車両5を撮影した画像を取り込んで、メモリに記憶する処理を行う。
続くステップ230では、ドライバの顔の向きを検出する処理を行う。この顔の向きを検出する技術は公知であるので(例えば特許第4725254号公報参照)、簡単に説明する。例えば、顔画像から鼻の位置を認識し、顔がその鼻を中心にどちら側にどの程度ずれているかによって、顔の向きを検出することができる。
In step 220, since there is a vehicle 5 that actually travels, in order to perform image processing to be described later, processing for capturing an image of the vehicle 5 and storing it in the memory is performed.
In the following step 230, a process for detecting the face direction of the driver is performed. Since the technique for detecting the orientation of the face is known (see, for example, Japanese Patent No. 4725254), it will be briefly described. For example, the position of the nose can be recognized from the face image, and the orientation of the face can be detected based on how much the face is displaced from which side around the nose.

続くステップ240では、目の開閉状態を検出する処理を行う。この目の開閉状態を検出する技術は公知であるので(例えば特許第4259585号公報参照)、簡単に説明する。例えば、顔画像から上瞼と下瞼との間の距離を把握し、その距離が所定値より小さいか否かの判定によって、目の開閉状態を検出することができる。または、黒目が検出できるか否かによって、目の開閉状態を判断してもよい。   In the subsequent step 240, processing for detecting the open / closed state of the eyes is performed. Since the technique for detecting the open / closed state of the eye is known (see, for example, Japanese Patent No. 4259585), it will be briefly described. For example, the open / closed state of the eyes can be detected by grasping the distance between the upper eyelid and the lower eyelid from the face image and determining whether the distance is smaller than a predetermined value. Alternatively, the open / closed state of the eyes may be determined based on whether or not black eyes can be detected.

続くステップ250では、顔の表情を検出する処理を行う。この顔の表情(感情を表す顔の表情)を検出する技術は公知であるので(例えば特許第4101734号公報、特開2011−117905号公報参照)、簡単に説明する。   In the following step 250, processing for detecting facial expressions is performed. Since techniques for detecting facial expressions (facial expressions representing emotions) are known (see, for example, Japanese Patent No. 4101734 and Japanese Patent Application Laid-Open No. 2011-117905), they will be briefly described.

例えば、眉や目や口(口角)などのパーツの位置(上がり具合や下がり具合)などによって、顔の表情が分かり、この顔の表情から人の感情を推定できることが知られている。よって、顔画像からパーツの状態を把握することによって、顔の表情(従って人の感情)を推定することができる。つまり、顔画像から、怒り、苛立ち、笑顔などを検出することができる。   For example, it is known that the facial expression can be known from the position of the parts such as the eyebrows, eyes, and mouth (mouth corner) (up and down), and the human emotion can be estimated from the facial expression. Therefore, the facial expression (hence human emotion) can be estimated by grasping the state of the part from the face image. That is, anger, irritation, a smile, etc. can be detected from the face image.

続くステップ260では、前記ステップ230〜250で得られた情報、即ち、前記図1に示す様な、顔の向き、目の開閉状態、顔の表情の情報を、車両5のナンバーの情報と関連づけて、ドライバ状態判定装置19に送信し、一旦本処理を終了する。   In subsequent step 260, the information obtained in steps 230 to 250, that is, the information on the face orientation, the eye open / close state, and the facial expression as shown in FIG. Then, the data is transmitted to the driver state determination device 19, and the process is temporarily terminated.

なお、送信する情報は、顔の向きとしては、「横向き」、「正面」が挙げられ、目の開閉状態としては、「開」、「閉」が挙げられ、顔の表情としては、「無表情」、「(怒り等の)負の表情」、「(笑顔等の)正の表情」が挙げられる。   Information to be transmitted includes “landscape” and “front” as the face direction, “open” and “closed” as the open / closed state of the eyes, and “nothing” as the facial expression. “Expression”, “Negative expression (such as anger)”, and “Positive expression (such as smile)”.

この際に、同乗者の顔の向きも検出してもよい。なお、ドライバであるか助手席の同乗者であるかどうかは、例えばハンドルの位置によって判断することができる。
<ドライバ状態判定装置19における処理>
本処理は、ドライバ状態判定装置19にて行われる制御処理を示している。
At this time, the face direction of the passenger may also be detected. Whether it is a driver or a passenger in the front passenger seat can be determined by, for example, the position of the steering wheel.
<Processing in Driver State Determination Device 19>
This process indicates a control process performed by the driver state determination device 19.

図5に示すように、ステップ300では、各ドライバ状態検出装置15から送信された情報を、(ハードディスク等の)データ蓄積部31に蓄積する。
続くステップ310では、データ蓄積部31に、ドライバ状態検出装置15から送信された所定数以上情報(即ち所定台数のドライバ状態検出装置15から送信された情報)が蓄積されているかを判定する。ここで肯定判断されるとステップ320に進み、一方否定判断されるとステップ300に戻る。
As shown in FIG. 5, in step 300, information transmitted from each driver state detection device 15 is accumulated in the data accumulation unit 31 (such as a hard disk).
In subsequent step 310, it is determined whether or not a predetermined number of pieces of information transmitted from the driver state detection device 15 (that is, information transmitted from a predetermined number of driver state detection devices 15) is stored in the data storage unit 31. If an affirmative determination is made here, the process proceeds to step 320, whereas if a negative determination is made, the process returns to step 300.

続くステップ320では、撮影された複数の画像中における横向き画像の割合が、(脇見を示す)所定の閾値以上であるか否かを判定する。つまり、各ドライバ状態検出装置15から送信された顔の向きを示す時系列に沿った複数の情報のうち、「横向き」の割合が、所定の閾値以上であるか否かを判定する。ここで肯定判断されるとステップ330に進み、一方否定判断されるとステップ340に進む。   In the subsequent step 320, it is determined whether or not the ratio of the landscape image in the plurality of captured images is equal to or greater than a predetermined threshold (indicating a side look). That is, it is determined whether or not the ratio of “landscape” is equal to or greater than a predetermined threshold among a plurality of pieces of information along the time series indicating the face orientation transmitted from each driver state detection device 15. If an affirmative determination is made here, the process proceeds to step 330, while if a negative determination is made, the process proceeds to step 340.

ステップ330では、「横向き」の割合が多いので、脇見運転であると判断して、脇見を示す情報提示フラグを1にセットし、ステップ350に進む。
一方、ステップ340では、「横向き」の割合が少ないので、脇見運転ではないと判断して、脇見を示す情報提示フラグを0にセットし、ステップ350に進む。
In step 330, since the ratio of “sideways” is large, it is determined that the driver is looking aside, and an information presentation flag indicating aside is set to 1, and the process proceeds to step 350.
On the other hand, in step 340, since the ratio of “sideways” is small, it is determined that the operation is not looking aside, and an information presentation flag indicating aside is set to 0, and the process proceeds to step 350.

ステップ350では、撮影された複数の画像中における閉眼画像(目を閉じた画像)の割合が、(眠気を示す)所定の閾値以上であるか否かを判定する。つまり、各ドライバ状態検出装置15から送信された眼の開閉状態を示す時系列に沿った複数の情報のうち、「閉」の割合が、所定の閾値以上であるか否かを判定する。ここで肯定判断されるとステップ360に進み、一方否定判断されるとステップ370に進む。   In step 350, it is determined whether or not the ratio of the closed eye image (image with closed eyes) in the plurality of captured images is equal to or greater than a predetermined threshold value (indicating sleepiness). That is, it is determined whether or not the ratio of “closed” is equal to or greater than a predetermined threshold among a plurality of pieces of information along the time series indicating the open / closed state of the eye transmitted from each driver state detection device 15. If an affirmative determination is made here, the process proceeds to step 360, while if a negative determination is made, the process proceeds to step 370.

ステップ360では、目の「閉」の割合が多いので、眠気があると判断して、眠気を示す情報提示フラグを1にセットし、ステップ380に進む。
一方、ステップ370では、「閉」の割合が少ないので、眠気はないと判断して、眠気を示す情報提示フラグを0にセットし、ステップ380に進む。
In step 360, since the ratio of “closed” eyes is high, it is determined that there is drowsiness, an information presentation flag indicating drowsiness is set to 1, and the process proceeds to step 380.
On the other hand, in step 370, since the ratio of “closed” is small, it is determined that there is no sleepiness, an information presentation flag indicating sleepiness is set to 0, and the process proceeds to step 380.

ステップ380では、撮影された複数の画像中における(怒りや苛立ち等の)負の表情を示す画像の割合が、所定の閾値以上であるか否かを判定する。つまり、各ドライバ状態検出装置15から送信された顔の表情を示す時系列に沿った複数の情報のうち、「負の表情」の割合が、所定の閾値以上であるか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ400に進む。   In step 380, it is determined whether or not the ratio of images showing negative facial expressions (such as anger and irritation) in the plurality of captured images is greater than or equal to a predetermined threshold value. That is, it is determined whether or not the ratio of “negative facial expression” out of a plurality of pieces of information along the time series indicating facial expressions transmitted from each driver state detection device 15 is equal to or greater than a predetermined threshold. If an affirmative determination is made here, the process proceeds to step 390, whereas if a negative determination is made, the process proceeds to step 400.

ステップ390では、「負の表情」の割合が多いので、(怒りや苛立ち等の)負の感情があると判断して、負の感情を示す情報提示フラグを1にセットし、ステップ410に進む。   In step 390, since the ratio of “negative facial expression” is large, it is determined that there is a negative emotion (such as anger or irritation), the information presentation flag indicating negative emotion is set to 1, and the flow proceeds to step 410 .

一方、ステップ400では、「負の表情」の割合が少ないので、負の感情はないと判断して、負の感情を示す情報提示フラグを0にセットし、ステップ410に進む。
ステップ410では、上述した各情報提示フラグに応じて、電光掲示板9やフラッシュ37やスピーカ39を駆動して、必要な情報の提示を行う。
On the other hand, in step 400, since the ratio of “negative facial expression” is small, it is determined that there is no negative emotion, an information presentation flag indicating negative emotion is set to 0, and the processing proceeds to step 410.
In step 410, the electronic bulletin board 9, the flash 37, and the speaker 39 are driven according to each information presentation flag described above to present necessary information.

例えば、脇見を示す情報提示フラグが1の場合には、そのことを、ドライバや同乗者、更には周囲の車両5に報知するために、電光掲示板9に「脇見運転注意」と表示したり、その旨を音声で報知したり、フラッシュ37で報知したりする。   For example, when the information presentation flag indicating a side look is 1, in order to notify the driver, passengers, and the surrounding vehicle 5 of this, the warning sign on the electronic bulletin board 9 is displayed. This is notified by voice or by flash 37.

同様に、眠気を示す情報提示フラグが1の場合には、そのことを、ドライバや同乗者、更には周囲の車両5に報知するために、電光掲示板9に「居眠り注意」と表示したり、その旨を音声で報知したり、フラッシュ37で報知したりする。なお、その際には、どの車両5の情報を示すために、車両5のナンバーも提示してもよい。   Similarly, when the information presentation flag indicating drowsiness is 1, in order to notify the driver, passengers, and the surrounding vehicle 5 of the fact, the message board 9 displays “notice of falling asleep”, This is notified by voice or by flash 37. At that time, the number of the vehicle 5 may be presented in order to indicate information of any vehicle 5.

同様に、負の感情を示す情報提示フラグが1の場合には、そのことを、同乗者や周囲の車両に報知するために、電光掲示板9に「休憩を取りましょう」と表示したり、その旨を音声で報知したり、フラッシュ37で報知したりする。   Similarly, when the information presentation flag indicating negative emotion is 1, in order to notify the passengers and surrounding vehicles of this, the message board 9 displays “Let's take a break” This is notified by voice or by flash 37.

d)次に、本実施例の効果について説明する。
本実施例のドライバ状態判定システム1では、車両5の走行経路(道路)に沿って配置された撮影装置7のカメラ13によって、走行する車両5の外側より、ドライバの顔及び車両5のナンバーを、時系列沿って順次撮影する。
d) Next, the effect of the present embodiment will be described.
In the driver state determination system 1 of the present embodiment, the face of the driver and the number of the vehicle 5 are determined from the outside of the traveling vehicle 5 by the camera 13 of the photographing device 7 arranged along the traveling route (road) of the vehicle 5. Shoot sequentially in time series.

そして、各カメラ13から各ドライバ状態検出装置15に各画像を取り込み、その画像(詳しくは顔画像)から、ドライバの顔の状態を検出する。具体的には、顔の向き、目の開閉状態、(怒り等の)負の表情を検出する。   Then, each image is captured from each camera 13 to each driver state detection device 15, and the face state of the driver is detected from the image (specifically, a face image). Specifically, the direction of the face, the open / closed state of the eyes, and a negative facial expression (such as anger) are detected.

これらの顔に関する情報は、各ドライバ状態検出装置15からドライバ状態判定装置19に送信されて、蓄積される。そして、所定数のデータが蓄積された場合には、それのデータに基づいて、ドライバの状態を判定する。具体的には、脇見や眠気や負の感情の有無を判定する。   Information about these faces is transmitted from each driver state detection device 15 to the driver state determination device 19 and accumulated. When a predetermined number of data is accumulated, the driver state is determined based on the data. Specifically, the presence or absence of aside look, sleepiness, or negative emotion is determined.

そして、この判定結果に基づいて、電光掲示板9等を用いて、ドライバ本人や同乗者やその車両の周囲の車両に、必要な情報を提供する。
従って、従来のように、車両自体にカメラやドライバの状態を判定する装置が無い車両の場合でも、運転中のドライバの状態を的確に判定することができる。よって、その判定結果に基づいて、必要な情報を必要な相手に好適に提供することができるという顕著な効果を奏する。
Then, based on the determination result, necessary information is provided to the driver himself / her passenger and the vehicles around the vehicle using the electronic bulletin board 9 or the like.
Therefore, even in the case of a vehicle that does not have a device for determining the state of the camera or driver in the vehicle itself as in the conventional case, the state of the driver during driving can be accurately determined. Therefore, based on the determination result, there is a remarkable effect that necessary information can be suitably provided to a necessary partner.

次に、実施例2について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。なお、各構成の番号は実施例1と同じものを使用する(以下同様)。
本実施例2は、ドライバ状態検出装置15では、顔や車両5を撮影し、(実施例1のような顔の向き等の検出の処理を行うことなく)その画像をドライバ状態判定装置19に送信する。
Next, the second embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified. In addition, the same number is used for each component as in the first embodiment (the same applies hereinafter).
In the second embodiment, the driver state detection device 15 takes a picture of the face and the vehicle 5 and outputs the image to the driver state determination device 19 (without performing processing for detecting the orientation of the face as in the first embodiment). Send.

従って、ドライバ状態判定装置19では、送信された各画像から、顔の向き、目の開閉状態、顔の表情を検出し、脇見、眠気、負の感情の判定を行う。
本実施例2によっても、前記実施例1と同様な効果を奏する。
Therefore, the driver state determination device 19 detects the face direction, the open / closed state of the eyes, and the facial expression from each of the transmitted images, and determines aside look, sleepiness, and negative emotion.
Also in the second embodiment, the same effects as in the first embodiment are obtained.

次に、実施例3について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例3では、ドライバ状態検出装置15とドライバ状態判定装置19とは、通信線17で接続されておらず、無線によって通信している。
Next, the third embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the third embodiment, the driver state detection device 15 and the driver state determination device 19 are not connected by the communication line 17 and communicate by radio.

例えば、図6に示すように、ドライバ状態検出装置15は、無線によって、インターネット41に接続し、サーバ43にデータを蓄積してもよい。
本実施例3によっても、前記実施例1と同様な効果を奏する。
For example, as shown in FIG. 6, the driver state detection device 15 may connect to the Internet 41 wirelessly and accumulate data in the server 43.
According to the third embodiment, the same effects as those of the first embodiment can be obtained.

次に、実施例4について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例4では、車両5が混雑した状況下で、ドライバの状態が脇見や居眠りと判定された場合には、衝突の危険性があるので、電光掲示板9だけでなく、ドライバが気づく可能性の高いフラッシュ37や、スピーカ39を介して、情報を提示する。
Next, the fourth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the fourth embodiment, there is a possibility of a collision not only on the electronic bulletin board 9 but also by the driver when there is a risk of collision when the driver's state is determined to look aside or doze in a situation where the vehicle 5 is congested. The information is presented through the high flash 37 and the speaker 39.

なお、車両5が混雑しているかどうかは、周知の外部から得られる混雑情報(ナビゲーション情報)か、或いは、カメラ13で撮影された画像中の車両5の数によって判定することができる。   Whether or not the vehicle 5 is congested can be determined based on well-known congestion information (navigation information) obtained from the outside or the number of vehicles 5 in the image captured by the camera 13.

本実施例4によって、一層安全性が向上するという利点がある。   The fourth embodiment has an advantage that the safety is further improved.

次に、実施例5について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例5では、車両5が混雑した状況下で、ドライバの状態が居眠りと判定された場合には、衝突の危険性があるので、周囲の車両5が当該車両5に対して十分に車間距離を取れるように、電光掲示板9に当該車両5のナンバーを表示する。
Next, the fifth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the fifth embodiment, there is a risk of collision when the driver's state is determined to be dozing in a situation where the vehicle 5 is congested. The number of the vehicle 5 is displayed on the electronic bulletin board 9 so as to keep a distance.

本実施例5によって、一層安全性が向上するという利点がある。   The fifth embodiment has an advantage that the safety is further improved.

次に、実施例6について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例6では、車両5に同乗者が搭乗している状況下で、ドライバが怒りや苛立ちの状態と判定された場合には、同乗者からドライバに対して、注意喚起ができるように、電光掲示板9に、例えば「休憩を取りましょう」等の表示を表示する。
Next, the sixth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the sixth embodiment, when it is determined that the driver is angry or irritated in a situation where the passenger is on the vehicle 5, the passenger can alert the driver. A display such as “Let's take a break” is displayed on the electronic bulletin board 9.

本実施例6によって、一層安全性が向上するという利点がある。   The sixth embodiment has an advantage that the safety is further improved.

次に、実施例7について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例7では、車両5の助手席に同乗者がある状況下で、ドライバと助手席の同乗者が顔が向き合う状態での脇見が検出された場合には、同乗者が電光掲示板9を見る可能性は低いので、フラッシュ37やスピーカ39を介して、例えば「脇見運転に注意しましょう」等の注意喚起を行う。
Next, although Example 7 is demonstrated, description of the content similar to the said Example 1 is abbreviate | omitted or simplified.
In the seventh embodiment, in the situation where there is a passenger in the passenger seat of the vehicle 5, when a driver is looking aside with the passenger facing the passenger seat facing each other, the passenger opens the electronic bulletin board 9. Since the possibility of seeing is low, a warning such as “Let's watch out for driving aside” is given through the flash 37 and the speaker 39.

なお、助手席の同乗者の顔の向きは、ドライバの顔の向きの検出と同様にして検出することができる。また、ドライバか助手席の乗員かは、例えばハンドルを検出することによって判断することができる。   The direction of the passenger's face in the passenger seat can be detected in the same manner as the detection of the driver's face direction. Also, whether the driver is a passenger in the passenger seat or not can be determined by detecting the steering wheel, for example.

本実施例7によって、一層安全性が向上するという利点がある。   The seventh embodiment has an advantage that the safety is further improved.

次に、実施例8について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例8では、ドライバの顔の表情として、微笑み等の正の表情が検出された場合には、笑顔の運転をほめる等の情報を提示する。
Next, the eighth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the eighth embodiment, when a positive facial expression such as a smile is detected as the facial expression of the driver, information such as praising smile driving is presented.

本実施例8によっても、一層安全性が向上するという利点がある。
尚、本発明は前記実施形態や実施例になんら限定されるものではなく、本発明を逸脱しない範囲において種々の態様で実施しうることはいうまでもない。
The eighth embodiment also has an advantage that the safety is further improved.
In addition, this invention is not limited to the said embodiment and Example at all, and it cannot be overemphasized that it can implement with a various aspect in the range which does not deviate from this invention.

(1)例えばカメラによる画像の撮影は、常時行っていてもよいが、車両の走行が検出された場合のみ実施してもよい。
(2)また、前記各実施例において、例えば1つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、実施例の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。更に、実施例の構成の少なくとも一部を、他の実施例の構成に対して付加、置換等してもよい。
(1) For example, taking an image with a camera may be performed constantly, but may be performed only when traveling of the vehicle is detected.
(2) Further, in each of the above embodiments, for example, the functions of one component may be distributed to a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the embodiment may be replaced with a known configuration having a similar function. Furthermore, at least a part of the configuration of the embodiment may be added to or replaced with the configuration of another embodiment.

(3)なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として実施例に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   (3) In addition, the code | symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in the Example as one aspect, and limits the technical scope of the present invention. It is not a thing.

1…ドライバ状態判定システム
5…車両(自動車)
9…電光掲示板
13…カメラ
15…ドライバ状態検出装置
19…ドライバ状態判定装置
DESCRIPTION OF SYMBOLS 1 ... Driver state determination system 5 ... Vehicle (automobile)
DESCRIPTION OF SYMBOLS 9 ... Electric bulletin board 13 ... Camera 15 ... Driver state detection apparatus 19 ... Driver state determination apparatus

Claims (5)

車両(5)の走行経路に沿って配置された複数の撮影手段(13)によって、ドライバの顔及び車両(5)のナンバーが撮影された画像を取得する画像取得手段(23)と、
前記画像取得手段(23)によって取得された各画像における顔画像のデータと前記ナンバーのデータとを関連づけて蓄積するデータ蓄積手段(31)と、
前記データ蓄積手段(31)によって蓄積された前記顔画像のデータに基づいて、前記ドライバの状態を判定するドライバ状態判定手段(33)と、
該ドライバ状態判定手段(33)によって判定されたドライバの状態に関する情報を、前記車両の乗員に向けて又は該車両の周囲の他の車両の乗員に向けて提示する情報提示手段(35)と、
を備えたことを特徴とするドライバ状態判定システム。
An image acquisition means (23) for acquiring an image in which the face of the driver and the number of the vehicle (5) are photographed by a plurality of photographing means (13) arranged along the travel route of the vehicle (5);
Data storage means (31) for storing the face image data and the number data in each image acquired by the image acquisition means (23) in association with each other;
A driver state determination unit (33) for determining the state of the driver based on the data of the face image stored by the data storage unit (31);
Information presenting means (35) for presenting information relating to the state of the driver determined by the driver state determining means (33) to an occupant of the vehicle or to occupants of other vehicles around the vehicle;
A driver state determination system comprising:
前記顔画像のデータに基づいて、前記ドライバの顔の向きを検出する顔向き検出手段(25)と、
前記顔画像のデータに基づいて、前記ドライバの目の開閉状態を検出する目状態検出手段(27)と、
前記顔画像のデータに基づいて、前記ドライバの顔の表情を検出する顔表情検出手段(29)と、
のうち、少なくとも1種を備えたことを特徴とする請求項1に記載のドライバ状態判定システム。
Face orientation detection means (25) for detecting the face orientation of the driver based on the face image data;
Eye state detecting means (27) for detecting the open / closed state of the eyes of the driver based on the data of the face image;
Facial expression detection means (29) for detecting facial expressions of the driver based on the facial image data;
2. The driver state determination system according to claim 1, comprising at least one of the two.
前記複数の顔画像のデータのうち、前記ドライバの横向きを示す顔画像のデータの割合が所定値以上であった場合に、前記周囲の他の車両(5)の乗員に、前記ドライバの脇見に関する情報を提示することを特徴とする請求項2に記載のドライバ状態判定システム。   When the ratio of the face image data indicating the landscape orientation of the driver among the plurality of face image data is equal to or greater than a predetermined value, the driver of the other surrounding vehicle (5) may The driver status determination system according to claim 2, wherein information is presented. 前記複数の顔画像のデータのうち、前記ドライバの閉眼状態を示す顔画像のデータの割合が所定値以上であった場合に、前記周囲の他の車両(5)の乗員に、前記ドライバの眠気に関する情報を提示することを特徴とする請求項2又は3に記載のドライバ状態判定システム。   When the ratio of the face image data indicating the closed state of the driver among the plurality of face image data is equal to or higher than a predetermined value, the driver's sleepiness is given to the occupants of the other surrounding vehicles (5). The driver state determination system according to claim 2, wherein information on the driver status is presented. 前記複数の顔画像のデータのうち、前記ドライバの怒り又は苛立ちを示す顔画像のデータの割合が所定値以上であった場合に、前記ドライバの車両(5)の同乗者に、休息を促す情報を提示することを特徴とする請求項2〜4のいずれか1項に記載のドライバ状態判定システム。   Information that prompts the passenger of the vehicle (5) of the driver to rest when the ratio of the face image data indicating anger or irritation of the driver among the plurality of face image data is equal to or greater than a predetermined value. The driver state determination system according to any one of claims 2 to 4, wherein the driver state determination system is provided.
JP2013120849A 2013-06-07 2013-06-07 Driver status determination system Expired - Fee Related JP5935759B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013120849A JP5935759B2 (en) 2013-06-07 2013-06-07 Driver status determination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013120849A JP5935759B2 (en) 2013-06-07 2013-06-07 Driver status determination system

Publications (2)

Publication Number Publication Date
JP2014238707A JP2014238707A (en) 2014-12-18
JP5935759B2 true JP5935759B2 (en) 2016-06-15

Family

ID=52135824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013120849A Expired - Fee Related JP5935759B2 (en) 2013-06-07 2013-06-07 Driver status determination system

Country Status (1)

Country Link
JP (1) JP5935759B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105719431A (en) * 2016-03-09 2016-06-29 深圳市中天安驰有限责任公司 Fatigue driving detection system
WO2017163488A1 (en) * 2016-03-25 2017-09-28 Necソリューションイノベータ株式会社 Vehicle system
KR102371119B1 (en) * 2017-11-17 2022-03-07 한국전자기술연구원 Analysis Method for Forward Concentration using a Facial Expression Recognition Technology
CN110310386A (en) * 2019-07-11 2019-10-08 安徽富煌科技股份有限公司 A kind of bus driver safety attendance system based on face recognition technology

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05325098A (en) * 1992-05-18 1993-12-10 Honda Motor Co Ltd Driving warning device for vehicle
JP2002329291A (en) * 2001-04-27 2002-11-15 Mitsubishi Heavy Ind Ltd Device and system for intersection information
JP3711518B2 (en) * 2001-11-05 2005-11-02 警察庁科学警察研究所長 Traffic signal ignoring vehicle automatic recording apparatus and method
JP2006151287A (en) * 2004-11-30 2006-06-15 Nissan Motor Co Ltd Illumination device for vehicle
JP4820334B2 (en) * 2007-06-28 2011-11-24 三菱電機株式会社 Roadside machine and traffic information providing system using the same
CN102301404A (en) * 2009-01-28 2011-12-28 业纳遥控设备有限公司 Method And System For Conclusively Capturing A Violation Of The Speed Limit On A Section Of A Road

Also Published As

Publication number Publication date
JP2014238707A (en) 2014-12-18

Similar Documents

Publication Publication Date Title
US11661075B2 (en) Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements
CN108068698A (en) Vehicular system and vehicle
CN111277755B (en) Photographing control method and system and vehicle
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
US9767374B2 (en) Driver check apparatus
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
CN106471556A (en) The driving of driver is unable to condition checkout gear
JP5935759B2 (en) Driver status determination system
US10899356B2 (en) Drowsiness prevention device, drowsiness prevention method, and recording medium
US9984298B2 (en) Method for outputting a drowsiness warning and control unit
WO2020161610A2 (en) Adaptive monitoring of a vehicle using a camera
Charniya et al. Drunk driving and drowsiness detection
EP3324378A1 (en) Electronic safety system and method for detecting a vehicle driver&#39;s attention
US10343681B2 (en) Apparatus and method for controlling stop of vehicle
JP6365423B2 (en) Driver state determination method and determination device therefor
Chang et al. An implementation of smartphone-based driver assistance system using front and rear camera
US11430231B2 (en) Emotion estimation device and emotion estimation method
US20180022357A1 (en) Driving recorder system
JP6811743B2 (en) Safe driving support device
JP6468306B2 (en) Visual assistance device, method and program
US10945651B2 (en) Arousal level determination device
CN108944676A (en) It is a kind of that vehicle door open prompting apparatus and based reminding method are fallen based on image procossing
JP2019195376A (en) Data processing device, monitoring system, awakening system, data processing method, and data processing program
JP2014044523A (en) Drive recorder
JP2017076180A (en) State determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160425

R151 Written notification of patent or utility model registration

Ref document number: 5935759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees