JP5935759B2 - Driver status determination system - Google Patents
Driver status determination system Download PDFInfo
- Publication number
- JP5935759B2 JP5935759B2 JP2013120849A JP2013120849A JP5935759B2 JP 5935759 B2 JP5935759 B2 JP 5935759B2 JP 2013120849 A JP2013120849 A JP 2013120849A JP 2013120849 A JP2013120849 A JP 2013120849A JP 5935759 B2 JP5935759 B2 JP 5935759B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- vehicle
- face
- information
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
本発明は、例えばドライバ(運転者)の脇見や眠気や怒り等の状態を判定することができるドライバ状態判定システムに関するものである。 The present invention relates to a driver state determination system that can determine the state of a driver (driver) looking aside, sleepiness, anger, and the like.
近年、自動車を運転中のドライバの顔を、ダッシュボードなどの車室内に配置されたカメラで撮影し、その撮影したドライバの顔の画像(顔画像)を解析して、ドライバの居眠りや脇見を検出する技術が開発されている。 In recent years, the driver's face while driving a car is photographed with a camera placed in the passenger compartment such as a dashboard, and the photographed driver's face image (face image) is analyzed to help the driver doze or look aside. Detection technology has been developed.
例えば、下記特許文献1には、顔画像から運転者が強い眠気の状態にあるか否かを判定し、強い眠気がある場合には、ドライバ自身だけでなく、ドライバ以外の家族などにその旨を通知することを警告したり、実際に家族にメール等で通知する技術が開示されている。 For example, in Patent Document 1 below, it is determined whether or not the driver is in a strong sleepiness state from the face image, and if there is a strong sleepiness, not only the driver itself but also a family other than the driver to that effect. Have been disclosed, and techniques for notifying family members by e-mail or the like are disclosed.
しかしながら、上述した従来技術では、予め自動車に、ドライバの顔を撮影するカメラや、顔画像からドライバの状態を判定する装置などを備えておく必要があり、汎用性が十分ではないという問題があった。 However, the above-described conventional technology has a problem in that the vehicle is not equipped with a camera that captures the driver's face in advance, a device that determines the state of the driver from the face image, and the like, and is not sufficiently versatile. It was.
本発明は、前記課題を解決するためになされたものであり、その目的は、自動車に特別な装置を設けなくとも、ドライバの状態を判定し、ドライバや周囲の人等に必要な情報を提供することができるドライバ状態判定システムを提供することにある。 The present invention has been made to solve the above-mentioned problems, and its purpose is to determine the state of the driver without providing a special device in the automobile and to provide necessary information to the driver, surrounding people, etc. It is an object of the present invention to provide a driver status determination system capable of performing the above.
本発明のドライバ状態判定システムは、車両の走行経路に沿って配置された複数の撮影手段によって、ドライバの顔及び車両のナンバーが撮影された画像を取得する画像取得手段と、前記画像取得手段によって取得された各画像における顔画像のデータと前記ナンバーのデータとを関連づけて蓄積するデータ蓄積手段と、前記データ蓄積手段によって蓄積された前記顔画像のデータに基づいて、前記ドライバの状態を判定するドライバ状態判定手段と、該ドライバ状態判定手段によって判定されたドライバの状態に関する情報を、前記車両の乗員に向けて又は該車両の周囲の他の車両の乗員に向けて提示する情報提示手段と、を備えたことを特徴とする。 The driver state determination system according to the present invention includes an image acquisition unit that acquires an image in which a driver's face and a vehicle number are captured by a plurality of imaging units arranged along a travel route of the vehicle, and the image acquisition unit. Data accumulating means for associating and accumulating the face image data and the number data in each acquired image, and determining the state of the driver based on the face image data accumulated by the data accumulating means Driver state determination means, and information presentation means for presenting information relating to the state of the driver determined by the driver state determination means to an occupant of the vehicle or to occupants of other vehicles around the vehicle; It is provided with.
本発明では、車両の走行経路(道路)に沿って配置された撮影手段によって、走行する車両の外側より、ドライバの顔及び車両のナンバーを(従って時系列に沿って)撮影する。そして、これらの画像における顔画像のデータとナンバーのデータとを関連づけて蓄積するので、どの車両に関するデータかが分かる。その後、蓄積された(時系列に沿った)顔画像のデータに基づいて、ドライバの状態を判定し、判定されたドライバの状態に関する情報(例えば脇見や眠気や怒り等を示す情報)を、ドライバ自身やその同乗者や周囲の他の車両の乗員に向けて提示する。よって、その情報の提示を受けたものは、提示内容に対応した適切な対応(例えばドライバに注意したり休憩を促す等の対応)が可能となる。 In the present invention, the face of the driver and the vehicle number are photographed (according to time series) from the outside of the traveling vehicle by the photographing means arranged along the traveling route (road) of the vehicle. Since the face image data and the number data in these images are stored in association with each other, it is possible to know which vehicle the data relates to. Then, based on the accumulated face image data (in time series), the driver state is determined, and information on the determined driver state (for example, information indicating aside, sleepiness, anger, etc.) Present it to yourself, its passengers and other passengers in the surrounding area. Therefore, the information that has been presented can be appropriately dealt with in accordance with the presented content (for example, taking care of the driver or encouraging a break).
従って、従来のように、車両自体にカメラやドライバの状態を判定する装置が無い車両の場合でも、運転中のドライバの状態を的確に判定することができるので、汎用性が高いという効果がある。また、その判定結果に基づいて、必要な情報を好適に提供することができるという利点がある。 Therefore, even in the case of a vehicle that does not have a device for determining the state of a camera or a driver in the vehicle itself as in the prior art, the state of the driver during driving can be accurately determined, so that the versatility is high. . Moreover, there exists an advantage that required information can be provided suitably based on the determination result.
ここで、顔画像とは、撮影された画像のうちの顔の画像のことであり、顔画像のデータとしては、顔画像自体の画像データ以外に、顔画像を解析することによって得られた顔画像の特徴を示す解析データ(例えば顔の向きや目の開閉状態や顔の表情などの解析データ)が挙げられる。 Here, the face image is a face image of the captured image, and the face image data includes a face obtained by analyzing the face image in addition to the image data of the face image itself. Analysis data (for example, analysis data such as face orientation, eye open / close state, facial expression, etc.) indicating the characteristics of the image can be mentioned.
なお、本発明では、顔画像のデータ(画像データ)に基づいて、ドライバの顔の向きを検出したり、ドライバの閉眼状態(従って眠気)を検出したり、ドライバの顔の表情(従って感情)を検出することができる。 In the present invention, the direction of the driver's face is detected based on the face image data (image data), the driver's eye closed state (and hence sleepiness) is detected, and the driver's facial expression (and thus emotion). Can be detected.
次に、本発明のドライバ状態判定システムの実施例を、図面と共に説明する。 Next, an embodiment of the driver state determination system of the present invention will be described with reference to the drawings.
a)まず、本実施例のドライバ状態判定システムの基本構成について、図1に基づいて説明する。
本実施例のドライバ状態判定システム1では、道路に沿って、複数のポール3が立てられており、各ポール3には、自動車(車両)5を撮影するために撮影装置7が取り付けられている。また、一部のポール3には、電光掲示板9が取り付けられている。
a) First, the basic configuration of the driver state determination system of this embodiment will be described with reference to FIG.
In the driver state determination system 1 of the present embodiment, a plurality of poles 3 are set up along a road, and a photographing device 7 is attached to each pole 3 for photographing a car (vehicle) 5. . An electric bulletin board 9 is attached to some poles 3.
また、撮影装置7は、車両5に近赤外光を照射する照射部11と、車両5の乗員(特にドライバ)の顔と車両5のナンバープレートを撮影するためのカメラ(例えばCCDカメラ)13とを備えている。 In addition, the photographing device 7 includes an irradiation unit 11 that irradiates the vehicle 5 with near-infrared light, and a camera (for example, a CCD camera) 13 for photographing a face of an occupant (particularly a driver) of the vehicle 5 and a license plate of the vehicle 5. And.
更に、ポール3の内部には、カメラ13で撮影された顔の画像(顔画像)から顔の特徴を抽出することができるドライバ状態検出装置15が組み込まれている。なお、このドライバ状態検出装置15は、周知のマイコンを備えた(画像処理機能を有する)電子制御装置である。 Further, a driver state detection device 15 capable of extracting facial features from a facial image (face image) photographed by the camera 13 is incorporated in the pole 3. The driver state detection device 15 is an electronic control device (having an image processing function) provided with a known microcomputer.
このドライバ状態検出装置15では、後述するように、顔画像を解析して、目の開閉状態、顔の表情、顔の向き等を検出し、その顔画像から検出したドライバの顔に関する情報を、通信線17を介して、中央処理装置であるドライバ状態判定装置19に送信するように構成されている。なお、このドライバ状態判定装置19は、周知のマイコンを備えた電子制御装置である。 As will be described later, the driver state detection device 15 analyzes the face image to detect the open / closed state of the eyes, facial expression, face orientation, and the like, and information on the driver's face detected from the face image is obtained. It is configured to transmit to the driver state determination device 19 which is a central processing unit via the communication line 17. The driver state determination device 19 is an electronic control device including a known microcomputer.
また、このドライバ状態検出装置15では、周知の画像処理によって、車両5のナンバープレートからナンバーを読み取り、前記ドライバの顔に関する情報と関連づけて、即ち、どの車両5のドライバの情報かが分かるようにして、ドライバ状態判定装置19に送信するように構成されている。 Further, the driver state detection device 15 reads the number from the license plate of the vehicle 5 by known image processing and associates it with the information related to the driver's face, that is, the driver 5's information can be known. Then, it is configured to transmit to the driver state determination device 19.
なお、電光掲示板9の近傍には、図2に示すように、光の点滅や照射を行うフラッシュ37や、音や音声を出力するスピーカ39も配置されている。
b)次に、ドライバ状態判定システム1の構成を、図2に基づいて、更に詳細に説明する。
In addition, as shown in FIG. 2, a flash 37 for blinking and irradiating light and a speaker 39 for outputting sound and sound are also disposed in the vicinity of the electronic bulletin board 9.
b) Next, the configuration of the driver state determination system 1 will be described in more detail with reference to FIG.
図2に示すように、各ドライバ状態検出装置15は、機能的に(即ちマイコンの処理を行う構成として)、車両通行検出部21と、画像取得部23と、顔向き検出部25と、目状態検出部27と、顔表情検出部29と、ナンバー検出部30とを備えている。 As shown in FIG. 2, each driver state detection device 15 is functionally (that is, configured to perform processing of a microcomputer), and includes a vehicle traffic detection unit 21, an image acquisition unit 23, a face orientation detection unit 25, an eye A state detection unit 27, a facial expression detection unit 29, and a number detection unit 30 are provided.
このうち、車両通行検出部21は、例えばカメラ13の画像から道路上を走行している車両5を検出するものである。なお、周知のレーダ等から得られる情報を用いて、車両5の通行を検出してもよい。 Among these, the vehicle traffic detection part 21 detects the vehicle 5 which is drive | working on the road from the image of the camera 13, for example. Note that the traffic of the vehicle 5 may be detected using information obtained from a known radar or the like.
画像取得部23は、カメラ13によって撮影された画像のデータを入力(取得)して、一旦メモリ等に記憶するものである。
顔向き検出部25は、撮影された顔の画像のデータ(顔画像のデータ)に基づいて、後述する周知の画像処理の手法によって、ドライバや同乗者の顔の向きを検出するものである。
The image acquisition unit 23 inputs (acquires) data of an image captured by the camera 13 and temporarily stores it in a memory or the like.
The face orientation detection unit 25 detects the face orientation of a driver or a passenger based on the captured face image data (face image data) by a known image processing method to be described later.
目状態検出部27は、顔画像のデータに基づいて、後述する周知の画像処理の手法によって、ドライバの目の開閉状態を検出するものである。
顔表情検出部29は、顔画像のデータに基づいて、後述する周知の画像処理の手法によって、ドライバの表情(例えば怒りや苛立ちや笑顔)を検出するものである。
The eye state detection unit 27 detects the open / closed state of the driver's eyes based on the face image data by a known image processing method to be described later.
The facial expression detection unit 29 detects the facial expression (for example, anger, irritation, and smile) of the driver based on the facial image data by a known image processing method to be described later.
ナンバー検出部30は、車両5のナンバープレートが撮影された画像から、周知の画像処理に手法によって、車両5のナンバーを読み取るものである。
一方、ドライバ状態判定装置19は、機能的に、データ蓄積部31と、ドライバ状態判定部33と、情報提示部35とを備えている。
The number detection unit 30 reads the number of the vehicle 5 from an image obtained by photographing the number plate of the vehicle 5 by a known image processing method.
On the other hand, the driver state determination device 19 functionally includes a data storage unit 31, a driver state determination unit 33, and an information presentation unit 35.
このうち、データ蓄積部31は、顔向き検出部25によって検出されたドライバや同乗者の顔の向きの情報と、目状態検出部27によって検出されたドライバの目の開閉状態の情報と、顔表情検出部29によって検出されたドライバの顔の表情の情報と、そのドライバが運転している車両5のナンバーの情報とを蓄積するものである。 Among them, the data storage unit 31 includes information on the face orientation of the driver and passengers detected by the face direction detection unit 25, information on the open / closed state of the driver's eyes detected by the eye state detection unit 27, and the face The information of the facial expression of the driver detected by the facial expression detection unit 29 and the information of the number of the vehicle 5 that the driver is driving are stored.
なお、これらのドライバ等の状態は、車両5の走行に伴って、各ドライバ状態検出装置15から順次送られてくるので、データ蓄積部31は、時系列に沿って、その情報を順次記憶してゆく。 Since the status of these drivers and the like is sequentially sent from each driver status detection device 15 as the vehicle 5 travels, the data storage unit 31 sequentially stores the information in time series. Go.
また、この情報を記憶する際には、ドライバ等の状態の情報と車両5のナンバーの情報とを関連づけて記憶する。つまり、ドライバ等の顔の情報が、どの車両5のドライバ等の情報かが分かるようにして記憶する。 Further, when this information is stored, information on the state of the driver or the like and information on the number of the vehicle 5 are stored in association with each other. In other words, the information of the face of the driver or the like is stored so that the information of the driver or the like of which vehicle 5 is known.
ドライバ状態判定部33では、データ蓄積部31に記憶したドライバ等の顔の情報に基づいて、ドライバ等の状態(即ち脇見をしてるか、眠気があるか、怒り等の状態か)を判定する。 The driver state determination unit 33 determines the state of the driver or the like (that is, whether the driver is looking aside, sleepy, angry, or the like) based on the facial information of the driver or the like stored in the data storage unit 31. .
情報提示部35では、ドライバ状態判定部33によって判定したドライバ等の状態に基づいて、情報提示装置である電光掲示板9、フラッシュ37、スピーカ39を駆動して、ドライバ自身や同乗者や周囲の車両5に、必要な情報を提示する。 The information presenting unit 35 drives the electronic bulletin board 9, the flash 37, and the speaker 39, which are information presenting devices, based on the state of the driver and the like determined by the driver state determining unit 33, and the driver himself / her passengers and surrounding vehicles 5 shows necessary information.
c)次に、本実施例のドライバ状態判定システム1で行われる制御処理について、図3〜図5に基づいて説明する。
<システム全体の処理>
本処理は、ドライバ状態判定システム1で行われる制御処理の全体を示している。
c) Next, control processing performed in the driver state determination system 1 of the present embodiment will be described with reference to FIGS.
<System-wide processing>
This process shows the entire control process performed by the driver state determination system 1.
図3に示すように、ステップ100(S)では、車両5がポール3近傍を通過する際に、各ポール3のカメラ13によって車両5や搭乗者を撮影する。
そして、各ドライバ状態検出装置15では、撮影した画像からドライバ等の顔の状態の検出や車両のナンバーの検出を行い、その情報をドライバ状態判定装置19に送信する。
As shown in FIG. 3, in step 100 (S), the vehicle 5 and the passenger are photographed by the camera 13 of each pole 3 when the vehicle 5 passes near the pole 3.
Each driver state detection device 15 detects the state of the face of the driver or the like from the photographed image and the vehicle number, and transmits the information to the driver state determination device 19.
なお、ドライバの顔と車両のナンバーとは、同じ画像から検出してもよいし、個別に撮影した画像(顔を撮影した画像とナンバープレートを撮影した画像)から検出してもよい。 The driver's face and the vehicle number may be detected from the same image, or may be detected from images taken individually (an image obtained by photographing a face and an image obtained by photographing a license plate).
続くステップ110では、ドライバ状態検出装置15から送信されて蓄積された情報に基づいて、ドライバの状態を判定する。
続くステップ120では、外部に情報を提示することを許可するフラグである情報提示フラグがセットされている(情報提示フラグが1)か否かを判定する。ここで、肯定判断されるとステップ130に進み、一方、否定判断されると一旦本処理を終了する。
In the following step 110, the state of the driver is determined based on the information transmitted from the driver state detection device 15 and accumulated.
In the following step 120, it is determined whether or not an information presentation flag that is a flag for permitting presentation of information to the outside is set (the information presentation flag is 1). Here, if an affirmative determination is made, the process proceeds to step 130. On the other hand, if a negative determination is made, the present process is temporarily terminated.
ここで、情報提示フラグとしては、後述するように、脇見を示す情報提示フラグ、眠気を示す情報提示フラグ、怒り等の負の感情を示す情報提示フラグがある。
ステップ130では、情報の提示が許可されているので、情報提示部35によって、情報提示フラグの内容に応じて、後述するように、適宜、電光掲示板9やフラッシュ37やスピーカ39を駆動し、情報の提供を行って、一旦本処理を終了する。
Here, as the information presentation flag, there are an information presentation flag indicating aside, an information presentation flag indicating sleepiness, and an information presentation flag indicating negative emotion such as anger, as will be described later.
In step 130, since the presentation of information is permitted, the information presentation unit 35 drives the electronic bulletin board 9, the flash 37, and the speaker 39 as appropriate according to the content of the information presentation flag, as will be described later. This processing is once terminated.
<ドライバ状態検出装置15における処理>
本処理は、ドライバ状態検出装置15にて行われる制御処理を示している。
図4に示すように、ステップ200では、カメラ13で撮影された画像に基づいて、周知の画像処理によって、車両5を検出する処理を行う。例えば灰色の路面に対して、所定速度以上で移動する他の色の物体を車両5として検出する処理を行う。
<Processing in Driver State Detection Device 15>
This process indicates a control process performed by the driver state detection device 15.
As shown in FIG. 4, in step 200, processing for detecting the vehicle 5 is performed based on an image photographed by the camera 13 by known image processing. For example, a process of detecting an object of another color that moves at a predetermined speed or more as a vehicle 5 on a gray road surface is performed.
なお、画像によって車両5を検出する場合には、撮影する際に、車両5に対して近赤外光を照射することが望ましい。
また、周知のように、レーダ等からレーダ波等を照射して、その反射波によって、走行する車両5を検知し、車両5を検出した場合のみ、近赤外光を照射するとともに撮影してもよい。
When the vehicle 5 is detected from an image, it is desirable to irradiate the vehicle 5 with near infrared light when taking a picture.
As is well known, a radar wave or the like is emitted from a radar or the like, and the traveling vehicle 5 is detected by the reflected wave. Only when the vehicle 5 is detected, the near infrared light is emitted and photographed. Also good.
続くステップ210では、車両5が通行したか否かを判定し、ここで肯定判断されるとステップ220に進み、一方否定判断されるとステップ200に戻る。つまり、前記ステップ200にて、上述したような移動物体が検出されば、車両5が通行していると判定するのである。 In the following step 210, it is determined whether or not the vehicle 5 has passed. If an affirmative determination is made here, the process proceeds to step 220. If a negative determination is made, the process returns to step 200. That is, if a moving object as described above is detected in step 200, it is determined that the vehicle 5 is passing.
ステップ220では、実際に走行する車両5が存在するので、後述する画像処理を行うために、その車両5を撮影した画像を取り込んで、メモリに記憶する処理を行う。
続くステップ230では、ドライバの顔の向きを検出する処理を行う。この顔の向きを検出する技術は公知であるので(例えば特許第4725254号公報参照)、簡単に説明する。例えば、顔画像から鼻の位置を認識し、顔がその鼻を中心にどちら側にどの程度ずれているかによって、顔の向きを検出することができる。
In step 220, since there is a vehicle 5 that actually travels, in order to perform image processing to be described later, processing for capturing an image of the vehicle 5 and storing it in the memory is performed.
In the following step 230, a process for detecting the face direction of the driver is performed. Since the technique for detecting the orientation of the face is known (see, for example, Japanese Patent No. 4725254), it will be briefly described. For example, the position of the nose can be recognized from the face image, and the orientation of the face can be detected based on how much the face is displaced from which side around the nose.
続くステップ240では、目の開閉状態を検出する処理を行う。この目の開閉状態を検出する技術は公知であるので(例えば特許第4259585号公報参照)、簡単に説明する。例えば、顔画像から上瞼と下瞼との間の距離を把握し、その距離が所定値より小さいか否かの判定によって、目の開閉状態を検出することができる。または、黒目が検出できるか否かによって、目の開閉状態を判断してもよい。 In the subsequent step 240, processing for detecting the open / closed state of the eyes is performed. Since the technique for detecting the open / closed state of the eye is known (see, for example, Japanese Patent No. 4259585), it will be briefly described. For example, the open / closed state of the eyes can be detected by grasping the distance between the upper eyelid and the lower eyelid from the face image and determining whether the distance is smaller than a predetermined value. Alternatively, the open / closed state of the eyes may be determined based on whether or not black eyes can be detected.
続くステップ250では、顔の表情を検出する処理を行う。この顔の表情(感情を表す顔の表情)を検出する技術は公知であるので(例えば特許第4101734号公報、特開2011−117905号公報参照)、簡単に説明する。 In the following step 250, processing for detecting facial expressions is performed. Since techniques for detecting facial expressions (facial expressions representing emotions) are known (see, for example, Japanese Patent No. 4101734 and Japanese Patent Application Laid-Open No. 2011-117905), they will be briefly described.
例えば、眉や目や口(口角)などのパーツの位置(上がり具合や下がり具合)などによって、顔の表情が分かり、この顔の表情から人の感情を推定できることが知られている。よって、顔画像からパーツの状態を把握することによって、顔の表情(従って人の感情)を推定することができる。つまり、顔画像から、怒り、苛立ち、笑顔などを検出することができる。 For example, it is known that the facial expression can be known from the position of the parts such as the eyebrows, eyes, and mouth (mouth corner) (up and down), and the human emotion can be estimated from the facial expression. Therefore, the facial expression (hence human emotion) can be estimated by grasping the state of the part from the face image. That is, anger, irritation, a smile, etc. can be detected from the face image.
続くステップ260では、前記ステップ230〜250で得られた情報、即ち、前記図1に示す様な、顔の向き、目の開閉状態、顔の表情の情報を、車両5のナンバーの情報と関連づけて、ドライバ状態判定装置19に送信し、一旦本処理を終了する。 In subsequent step 260, the information obtained in steps 230 to 250, that is, the information on the face orientation, the eye open / close state, and the facial expression as shown in FIG. Then, the data is transmitted to the driver state determination device 19, and the process is temporarily terminated.
なお、送信する情報は、顔の向きとしては、「横向き」、「正面」が挙げられ、目の開閉状態としては、「開」、「閉」が挙げられ、顔の表情としては、「無表情」、「(怒り等の)負の表情」、「(笑顔等の)正の表情」が挙げられる。 Information to be transmitted includes “landscape” and “front” as the face direction, “open” and “closed” as the open / closed state of the eyes, and “nothing” as the facial expression. “Expression”, “Negative expression (such as anger)”, and “Positive expression (such as smile)”.
この際に、同乗者の顔の向きも検出してもよい。なお、ドライバであるか助手席の同乗者であるかどうかは、例えばハンドルの位置によって判断することができる。
<ドライバ状態判定装置19における処理>
本処理は、ドライバ状態判定装置19にて行われる制御処理を示している。
At this time, the face direction of the passenger may also be detected. Whether it is a driver or a passenger in the front passenger seat can be determined by, for example, the position of the steering wheel.
<Processing in Driver State Determination Device 19>
This process indicates a control process performed by the driver state determination device 19.
図5に示すように、ステップ300では、各ドライバ状態検出装置15から送信された情報を、(ハードディスク等の)データ蓄積部31に蓄積する。
続くステップ310では、データ蓄積部31に、ドライバ状態検出装置15から送信された所定数以上情報(即ち所定台数のドライバ状態検出装置15から送信された情報)が蓄積されているかを判定する。ここで肯定判断されるとステップ320に進み、一方否定判断されるとステップ300に戻る。
As shown in FIG. 5, in step 300, information transmitted from each driver state detection device 15 is accumulated in the data accumulation unit 31 (such as a hard disk).
In subsequent step 310, it is determined whether or not a predetermined number of pieces of information transmitted from the driver state detection device 15 (that is, information transmitted from a predetermined number of driver state detection devices 15) is stored in the data storage unit 31. If an affirmative determination is made here, the process proceeds to step 320, whereas if a negative determination is made, the process returns to step 300.
続くステップ320では、撮影された複数の画像中における横向き画像の割合が、(脇見を示す)所定の閾値以上であるか否かを判定する。つまり、各ドライバ状態検出装置15から送信された顔の向きを示す時系列に沿った複数の情報のうち、「横向き」の割合が、所定の閾値以上であるか否かを判定する。ここで肯定判断されるとステップ330に進み、一方否定判断されるとステップ340に進む。 In the subsequent step 320, it is determined whether or not the ratio of the landscape image in the plurality of captured images is equal to or greater than a predetermined threshold (indicating a side look). That is, it is determined whether or not the ratio of “landscape” is equal to or greater than a predetermined threshold among a plurality of pieces of information along the time series indicating the face orientation transmitted from each driver state detection device 15. If an affirmative determination is made here, the process proceeds to step 330, while if a negative determination is made, the process proceeds to step 340.
ステップ330では、「横向き」の割合が多いので、脇見運転であると判断して、脇見を示す情報提示フラグを1にセットし、ステップ350に進む。
一方、ステップ340では、「横向き」の割合が少ないので、脇見運転ではないと判断して、脇見を示す情報提示フラグを0にセットし、ステップ350に進む。
In step 330, since the ratio of “sideways” is large, it is determined that the driver is looking aside, and an information presentation flag indicating aside is set to 1, and the process proceeds to step 350.
On the other hand, in step 340, since the ratio of “sideways” is small, it is determined that the operation is not looking aside, and an information presentation flag indicating aside is set to 0, and the process proceeds to step 350.
ステップ350では、撮影された複数の画像中における閉眼画像(目を閉じた画像)の割合が、(眠気を示す)所定の閾値以上であるか否かを判定する。つまり、各ドライバ状態検出装置15から送信された眼の開閉状態を示す時系列に沿った複数の情報のうち、「閉」の割合が、所定の閾値以上であるか否かを判定する。ここで肯定判断されるとステップ360に進み、一方否定判断されるとステップ370に進む。 In step 350, it is determined whether or not the ratio of the closed eye image (image with closed eyes) in the plurality of captured images is equal to or greater than a predetermined threshold value (indicating sleepiness). That is, it is determined whether or not the ratio of “closed” is equal to or greater than a predetermined threshold among a plurality of pieces of information along the time series indicating the open / closed state of the eye transmitted from each driver state detection device 15. If an affirmative determination is made here, the process proceeds to step 360, while if a negative determination is made, the process proceeds to step 370.
ステップ360では、目の「閉」の割合が多いので、眠気があると判断して、眠気を示す情報提示フラグを1にセットし、ステップ380に進む。
一方、ステップ370では、「閉」の割合が少ないので、眠気はないと判断して、眠気を示す情報提示フラグを0にセットし、ステップ380に進む。
In step 360, since the ratio of “closed” eyes is high, it is determined that there is drowsiness, an information presentation flag indicating drowsiness is set to 1, and the process proceeds to step 380.
On the other hand, in step 370, since the ratio of “closed” is small, it is determined that there is no sleepiness, an information presentation flag indicating sleepiness is set to 0, and the process proceeds to step 380.
ステップ380では、撮影された複数の画像中における(怒りや苛立ち等の)負の表情を示す画像の割合が、所定の閾値以上であるか否かを判定する。つまり、各ドライバ状態検出装置15から送信された顔の表情を示す時系列に沿った複数の情報のうち、「負の表情」の割合が、所定の閾値以上であるか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ400に進む。 In step 380, it is determined whether or not the ratio of images showing negative facial expressions (such as anger and irritation) in the plurality of captured images is greater than or equal to a predetermined threshold value. That is, it is determined whether or not the ratio of “negative facial expression” out of a plurality of pieces of information along the time series indicating facial expressions transmitted from each driver state detection device 15 is equal to or greater than a predetermined threshold. If an affirmative determination is made here, the process proceeds to step 390, whereas if a negative determination is made, the process proceeds to step 400.
ステップ390では、「負の表情」の割合が多いので、(怒りや苛立ち等の)負の感情があると判断して、負の感情を示す情報提示フラグを1にセットし、ステップ410に進む。 In step 390, since the ratio of “negative facial expression” is large, it is determined that there is a negative emotion (such as anger or irritation), the information presentation flag indicating negative emotion is set to 1, and the flow proceeds to step 410 .
一方、ステップ400では、「負の表情」の割合が少ないので、負の感情はないと判断して、負の感情を示す情報提示フラグを0にセットし、ステップ410に進む。
ステップ410では、上述した各情報提示フラグに応じて、電光掲示板9やフラッシュ37やスピーカ39を駆動して、必要な情報の提示を行う。
On the other hand, in step 400, since the ratio of “negative facial expression” is small, it is determined that there is no negative emotion, an information presentation flag indicating negative emotion is set to 0, and the processing proceeds to step 410.
In step 410, the electronic bulletin board 9, the flash 37, and the speaker 39 are driven according to each information presentation flag described above to present necessary information.
例えば、脇見を示す情報提示フラグが1の場合には、そのことを、ドライバや同乗者、更には周囲の車両5に報知するために、電光掲示板9に「脇見運転注意」と表示したり、その旨を音声で報知したり、フラッシュ37で報知したりする。 For example, when the information presentation flag indicating a side look is 1, in order to notify the driver, passengers, and the surrounding vehicle 5 of this, the warning sign on the electronic bulletin board 9 is displayed. This is notified by voice or by flash 37.
同様に、眠気を示す情報提示フラグが1の場合には、そのことを、ドライバや同乗者、更には周囲の車両5に報知するために、電光掲示板9に「居眠り注意」と表示したり、その旨を音声で報知したり、フラッシュ37で報知したりする。なお、その際には、どの車両5の情報を示すために、車両5のナンバーも提示してもよい。 Similarly, when the information presentation flag indicating drowsiness is 1, in order to notify the driver, passengers, and the surrounding vehicle 5 of the fact, the message board 9 displays “notice of falling asleep”, This is notified by voice or by flash 37. At that time, the number of the vehicle 5 may be presented in order to indicate information of any vehicle 5.
同様に、負の感情を示す情報提示フラグが1の場合には、そのことを、同乗者や周囲の車両に報知するために、電光掲示板9に「休憩を取りましょう」と表示したり、その旨を音声で報知したり、フラッシュ37で報知したりする。 Similarly, when the information presentation flag indicating negative emotion is 1, in order to notify the passengers and surrounding vehicles of this, the message board 9 displays “Let's take a break” This is notified by voice or by flash 37.
d)次に、本実施例の効果について説明する。
本実施例のドライバ状態判定システム1では、車両5の走行経路(道路)に沿って配置された撮影装置7のカメラ13によって、走行する車両5の外側より、ドライバの顔及び車両5のナンバーを、時系列沿って順次撮影する。
d) Next, the effect of the present embodiment will be described.
In the driver state determination system 1 of the present embodiment, the face of the driver and the number of the vehicle 5 are determined from the outside of the traveling vehicle 5 by the camera 13 of the photographing device 7 arranged along the traveling route (road) of the vehicle 5. Shoot sequentially in time series.
そして、各カメラ13から各ドライバ状態検出装置15に各画像を取り込み、その画像(詳しくは顔画像)から、ドライバの顔の状態を検出する。具体的には、顔の向き、目の開閉状態、(怒り等の)負の表情を検出する。 Then, each image is captured from each camera 13 to each driver state detection device 15, and the face state of the driver is detected from the image (specifically, a face image). Specifically, the direction of the face, the open / closed state of the eyes, and a negative facial expression (such as anger) are detected.
これらの顔に関する情報は、各ドライバ状態検出装置15からドライバ状態判定装置19に送信されて、蓄積される。そして、所定数のデータが蓄積された場合には、それのデータに基づいて、ドライバの状態を判定する。具体的には、脇見や眠気や負の感情の有無を判定する。 Information about these faces is transmitted from each driver state detection device 15 to the driver state determination device 19 and accumulated. When a predetermined number of data is accumulated, the driver state is determined based on the data. Specifically, the presence or absence of aside look, sleepiness, or negative emotion is determined.
そして、この判定結果に基づいて、電光掲示板9等を用いて、ドライバ本人や同乗者やその車両の周囲の車両に、必要な情報を提供する。
従って、従来のように、車両自体にカメラやドライバの状態を判定する装置が無い車両の場合でも、運転中のドライバの状態を的確に判定することができる。よって、その判定結果に基づいて、必要な情報を必要な相手に好適に提供することができるという顕著な効果を奏する。
Then, based on the determination result, necessary information is provided to the driver himself / her passenger and the vehicles around the vehicle using the electronic bulletin board 9 or the like.
Therefore, even in the case of a vehicle that does not have a device for determining the state of the camera or driver in the vehicle itself as in the conventional case, the state of the driver during driving can be accurately determined. Therefore, based on the determination result, there is a remarkable effect that necessary information can be suitably provided to a necessary partner.
次に、実施例2について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。なお、各構成の番号は実施例1と同じものを使用する(以下同様)。
本実施例2は、ドライバ状態検出装置15では、顔や車両5を撮影し、(実施例1のような顔の向き等の検出の処理を行うことなく)その画像をドライバ状態判定装置19に送信する。
Next, the second embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified. In addition, the same number is used for each component as in the first embodiment (the same applies hereinafter).
In the second embodiment, the driver state detection device 15 takes a picture of the face and the vehicle 5 and outputs the image to the driver state determination device 19 (without performing processing for detecting the orientation of the face as in the first embodiment). Send.
従って、ドライバ状態判定装置19では、送信された各画像から、顔の向き、目の開閉状態、顔の表情を検出し、脇見、眠気、負の感情の判定を行う。
本実施例2によっても、前記実施例1と同様な効果を奏する。
Therefore, the driver state determination device 19 detects the face direction, the open / closed state of the eyes, and the facial expression from each of the transmitted images, and determines aside look, sleepiness, and negative emotion.
Also in the second embodiment, the same effects as in the first embodiment are obtained.
次に、実施例3について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例3では、ドライバ状態検出装置15とドライバ状態判定装置19とは、通信線17で接続されておらず、無線によって通信している。
Next, the third embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the third embodiment, the driver state detection device 15 and the driver state determination device 19 are not connected by the communication line 17 and communicate by radio.
例えば、図6に示すように、ドライバ状態検出装置15は、無線によって、インターネット41に接続し、サーバ43にデータを蓄積してもよい。
本実施例3によっても、前記実施例1と同様な効果を奏する。
For example, as shown in FIG. 6, the driver state detection device 15 may connect to the Internet 41 wirelessly and accumulate data in the server 43.
According to the third embodiment, the same effects as those of the first embodiment can be obtained.
次に、実施例4について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例4では、車両5が混雑した状況下で、ドライバの状態が脇見や居眠りと判定された場合には、衝突の危険性があるので、電光掲示板9だけでなく、ドライバが気づく可能性の高いフラッシュ37や、スピーカ39を介して、情報を提示する。
Next, the fourth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the fourth embodiment, there is a possibility of a collision not only on the electronic bulletin board 9 but also by the driver when there is a risk of collision when the driver's state is determined to look aside or doze in a situation where the vehicle 5 is congested. The information is presented through the high flash 37 and the speaker 39.
なお、車両5が混雑しているかどうかは、周知の外部から得られる混雑情報(ナビゲーション情報)か、或いは、カメラ13で撮影された画像中の車両5の数によって判定することができる。 Whether or not the vehicle 5 is congested can be determined based on well-known congestion information (navigation information) obtained from the outside or the number of vehicles 5 in the image captured by the camera 13.
本実施例4によって、一層安全性が向上するという利点がある。 The fourth embodiment has an advantage that the safety is further improved.
次に、実施例5について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例5では、車両5が混雑した状況下で、ドライバの状態が居眠りと判定された場合には、衝突の危険性があるので、周囲の車両5が当該車両5に対して十分に車間距離を取れるように、電光掲示板9に当該車両5のナンバーを表示する。
Next, the fifth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the fifth embodiment, there is a risk of collision when the driver's state is determined to be dozing in a situation where the vehicle 5 is congested. The number of the vehicle 5 is displayed on the electronic bulletin board 9 so as to keep a distance.
本実施例5によって、一層安全性が向上するという利点がある。 The fifth embodiment has an advantage that the safety is further improved.
次に、実施例6について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例6では、車両5に同乗者が搭乗している状況下で、ドライバが怒りや苛立ちの状態と判定された場合には、同乗者からドライバに対して、注意喚起ができるように、電光掲示板9に、例えば「休憩を取りましょう」等の表示を表示する。
Next, the sixth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the sixth embodiment, when it is determined that the driver is angry or irritated in a situation where the passenger is on the vehicle 5, the passenger can alert the driver. A display such as “Let's take a break” is displayed on the electronic bulletin board 9.
本実施例6によって、一層安全性が向上するという利点がある。 The sixth embodiment has an advantage that the safety is further improved.
次に、実施例7について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例7では、車両5の助手席に同乗者がある状況下で、ドライバと助手席の同乗者が顔が向き合う状態での脇見が検出された場合には、同乗者が電光掲示板9を見る可能性は低いので、フラッシュ37やスピーカ39を介して、例えば「脇見運転に注意しましょう」等の注意喚起を行う。
Next, although Example 7 is demonstrated, description of the content similar to the said Example 1 is abbreviate | omitted or simplified.
In the seventh embodiment, in the situation where there is a passenger in the passenger seat of the vehicle 5, when a driver is looking aside with the passenger facing the passenger seat facing each other, the passenger opens the electronic bulletin board 9. Since the possibility of seeing is low, a warning such as “Let's watch out for driving aside” is given through the flash 37 and the speaker 39.
なお、助手席の同乗者の顔の向きは、ドライバの顔の向きの検出と同様にして検出することができる。また、ドライバか助手席の乗員かは、例えばハンドルを検出することによって判断することができる。 The direction of the passenger's face in the passenger seat can be detected in the same manner as the detection of the driver's face direction. Also, whether the driver is a passenger in the passenger seat or not can be determined by detecting the steering wheel, for example.
本実施例7によって、一層安全性が向上するという利点がある。 The seventh embodiment has an advantage that the safety is further improved.
次に、実施例8について説明するが、前記実施例1と同様な内容の説明は省略又は簡略化する。
本実施例8では、ドライバの顔の表情として、微笑み等の正の表情が検出された場合には、笑顔の運転をほめる等の情報を提示する。
Next, the eighth embodiment will be described, but the description of the same contents as the first embodiment will be omitted or simplified.
In the eighth embodiment, when a positive facial expression such as a smile is detected as the facial expression of the driver, information such as praising smile driving is presented.
本実施例8によっても、一層安全性が向上するという利点がある。
尚、本発明は前記実施形態や実施例になんら限定されるものではなく、本発明を逸脱しない範囲において種々の態様で実施しうることはいうまでもない。
The eighth embodiment also has an advantage that the safety is further improved.
In addition, this invention is not limited to the said embodiment and Example at all, and it cannot be overemphasized that it can implement with a various aspect in the range which does not deviate from this invention.
(1)例えばカメラによる画像の撮影は、常時行っていてもよいが、車両の走行が検出された場合のみ実施してもよい。
(2)また、前記各実施例において、例えば1つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、実施例の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。更に、実施例の構成の少なくとも一部を、他の実施例の構成に対して付加、置換等してもよい。
(1) For example, taking an image with a camera may be performed constantly, but may be performed only when traveling of the vehicle is detected.
(2) Further, in each of the above embodiments, for example, the functions of one component may be distributed to a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the embodiment may be replaced with a known configuration having a similar function. Furthermore, at least a part of the configuration of the embodiment may be added to or replaced with the configuration of another embodiment.
(3)なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として実施例に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 (3) In addition, the code | symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in the Example as one aspect, and limits the technical scope of the present invention. It is not a thing.
1…ドライバ状態判定システム
5…車両(自動車)
9…電光掲示板
13…カメラ
15…ドライバ状態検出装置
19…ドライバ状態判定装置
DESCRIPTION OF SYMBOLS 1 ... Driver state determination system 5 ... Vehicle (automobile)
DESCRIPTION OF SYMBOLS 9 ... Electric bulletin board 13 ... Camera 15 ... Driver state detection apparatus 19 ... Driver state determination apparatus
Claims (5)
前記画像取得手段(23)によって取得された各画像における顔画像のデータと前記ナンバーのデータとを関連づけて蓄積するデータ蓄積手段(31)と、
前記データ蓄積手段(31)によって蓄積された前記顔画像のデータに基づいて、前記ドライバの状態を判定するドライバ状態判定手段(33)と、
該ドライバ状態判定手段(33)によって判定されたドライバの状態に関する情報を、前記車両の乗員に向けて又は該車両の周囲の他の車両の乗員に向けて提示する情報提示手段(35)と、
を備えたことを特徴とするドライバ状態判定システム。 An image acquisition means (23) for acquiring an image in which the face of the driver and the number of the vehicle (5) are photographed by a plurality of photographing means (13) arranged along the travel route of the vehicle (5);
Data storage means (31) for storing the face image data and the number data in each image acquired by the image acquisition means (23) in association with each other;
A driver state determination unit (33) for determining the state of the driver based on the data of the face image stored by the data storage unit (31);
Information presenting means (35) for presenting information relating to the state of the driver determined by the driver state determining means (33) to an occupant of the vehicle or to occupants of other vehicles around the vehicle;
A driver state determination system comprising:
前記顔画像のデータに基づいて、前記ドライバの目の開閉状態を検出する目状態検出手段(27)と、
前記顔画像のデータに基づいて、前記ドライバの顔の表情を検出する顔表情検出手段(29)と、
のうち、少なくとも1種を備えたことを特徴とする請求項1に記載のドライバ状態判定システム。 Face orientation detection means (25) for detecting the face orientation of the driver based on the face image data;
Eye state detecting means (27) for detecting the open / closed state of the eyes of the driver based on the data of the face image;
Facial expression detection means (29) for detecting facial expressions of the driver based on the facial image data;
2. The driver state determination system according to claim 1, comprising at least one of the two.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013120849A JP5935759B2 (en) | 2013-06-07 | 2013-06-07 | Driver status determination system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013120849A JP5935759B2 (en) | 2013-06-07 | 2013-06-07 | Driver status determination system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014238707A JP2014238707A (en) | 2014-12-18 |
JP5935759B2 true JP5935759B2 (en) | 2016-06-15 |
Family
ID=52135824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013120849A Expired - Fee Related JP5935759B2 (en) | 2013-06-07 | 2013-06-07 | Driver status determination system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5935759B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105719431A (en) * | 2016-03-09 | 2016-06-29 | 深圳市中天安驰有限责任公司 | Fatigue driving detection system |
WO2017163488A1 (en) * | 2016-03-25 | 2017-09-28 | Necソリューションイノベータ株式会社 | Vehicle system |
KR102371119B1 (en) * | 2017-11-17 | 2022-03-07 | 한국전자기술연구원 | Analysis Method for Forward Concentration using a Facial Expression Recognition Technology |
CN110310386A (en) * | 2019-07-11 | 2019-10-08 | 安徽富煌科技股份有限公司 | A kind of bus driver safety attendance system based on face recognition technology |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05325098A (en) * | 1992-05-18 | 1993-12-10 | Honda Motor Co Ltd | Driving warning device for vehicle |
JP2002329291A (en) * | 2001-04-27 | 2002-11-15 | Mitsubishi Heavy Ind Ltd | Device and system for intersection information |
JP3711518B2 (en) * | 2001-11-05 | 2005-11-02 | 警察庁科学警察研究所長 | Traffic signal ignoring vehicle automatic recording apparatus and method |
JP2006151287A (en) * | 2004-11-30 | 2006-06-15 | Nissan Motor Co Ltd | Illumination device for vehicle |
JP4820334B2 (en) * | 2007-06-28 | 2011-11-24 | 三菱電機株式会社 | Roadside machine and traffic information providing system using the same |
CN102301404A (en) * | 2009-01-28 | 2011-12-28 | 业纳遥控设备有限公司 | Method And System For Conclusively Capturing A Violation Of The Speed Limit On A Section Of A Road |
-
2013
- 2013-06-07 JP JP2013120849A patent/JP5935759B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014238707A (en) | 2014-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11661075B2 (en) | Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements | |
CN108068698A (en) | Vehicular system and vehicle | |
CN111277755B (en) | Photographing control method and system and vehicle | |
JP5482737B2 (en) | Visual load amount estimation device, driving support device, and visual load amount estimation program | |
US9767374B2 (en) | Driver check apparatus | |
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
CN106471556A (en) | The driving of driver is unable to condition checkout gear | |
JP5935759B2 (en) | Driver status determination system | |
US10899356B2 (en) | Drowsiness prevention device, drowsiness prevention method, and recording medium | |
US9984298B2 (en) | Method for outputting a drowsiness warning and control unit | |
WO2020161610A2 (en) | Adaptive monitoring of a vehicle using a camera | |
Charniya et al. | Drunk driving and drowsiness detection | |
EP3324378A1 (en) | Electronic safety system and method for detecting a vehicle driver's attention | |
US10343681B2 (en) | Apparatus and method for controlling stop of vehicle | |
JP6365423B2 (en) | Driver state determination method and determination device therefor | |
Chang et al. | An implementation of smartphone-based driver assistance system using front and rear camera | |
US11430231B2 (en) | Emotion estimation device and emotion estimation method | |
US20180022357A1 (en) | Driving recorder system | |
JP6811743B2 (en) | Safe driving support device | |
JP6468306B2 (en) | Visual assistance device, method and program | |
US10945651B2 (en) | Arousal level determination device | |
CN108944676A (en) | It is a kind of that vehicle door open prompting apparatus and based reminding method are fallen based on image procossing | |
JP2019195376A (en) | Data processing device, monitoring system, awakening system, data processing method, and data processing program | |
JP2014044523A (en) | Drive recorder | |
JP2017076180A (en) | State determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160412 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160425 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5935759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |