JP7403729B2 - Awakening level estimation device and arousal level estimation method - Google Patents
Awakening level estimation device and arousal level estimation method Download PDFInfo
- Publication number
- JP7403729B2 JP7403729B2 JP2023561121A JP2023561121A JP7403729B2 JP 7403729 B2 JP7403729 B2 JP 7403729B2 JP 2023561121 A JP2023561121 A JP 2023561121A JP 2023561121 A JP2023561121 A JP 2023561121A JP 7403729 B2 JP7403729 B2 JP 7403729B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- distance
- unit
- brightness
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000037007 arousal Effects 0.000 title claims description 71
- 238000000034 method Methods 0.000 title claims description 35
- 230000036626 alertness Effects 0.000 claims description 123
- 238000001514 detection method Methods 0.000 claims description 89
- 210000004709 eyebrow Anatomy 0.000 claims description 60
- 230000003247 decreasing effect Effects 0.000 claims description 30
- 230000037303 wrinkles Effects 0.000 claims description 18
- 230000007423 decrease Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 16
- 206010062519 Poor quality sleep Diseases 0.000 description 14
- 238000010586 diagram Methods 0.000 description 6
- 206010041349 Somnolence Diseases 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004313 glare Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 102100036848 C-C motif chemokine 20 Human genes 0.000 description 1
- 208000032140 Sleepiness Diseases 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Description
本開示は、覚醒度推定装置および覚醒度推定方法に関するものである。 The present disclosure relates to an alertness level estimation device and an alertness level estimation method.
人は、眠気を催し覚醒度が低下すると、眉間にしわを寄せた顔をすることがある。そこで、従来、人の顔を撮像して得られた画像に基づいて検出した人の両目の目頭および眉頭をあらわす特徴点の距離が予め定められた閾値以下になったことから人が眉間にしわを寄せた状態を検出し、当該状態が検出された頻度から、人の眠気状態を推定する技術が知られている(例えば、特許文献1)。 When people become drowsy and their level of alertness decreases, their eyebrows may become wrinkled. Conventionally, people develop wrinkles between their eyebrows because the distance between feature points representing the inner corners of both eyes and eyebrows of a person detected based on an image obtained by capturing a person's face is less than a predetermined threshold. There is a known technique for estimating a person's sleepiness state based on the frequency with which the state is detected (for example, Patent Document 1).
人が眉間にしわを寄せた顔をするのは、眠気を催し覚醒度が低下した場合に限られない。人は、眩しいと感じた場合にも、眉間にしわを寄せることがある。したがって、人が眉間にしわを寄せたという表情からだけでは、人の覚醒度が低下したのか、人が眩しいと感じているのかの区別は困難である。
特許文献1に開示されている技術に代表される従来技術では、人が眉間にしわを寄せたという表情からだけでは人の覚醒度が低下したのか人が眩しいと感じているのかの区別が困難であることが考慮できていないため、人の覚醒度が低下したことを誤推定する可能性があった。People's eyebrows furrowed not only when they become sleepy and their alertness decreases. People may also wrinkle their eyebrows when they feel bright light. Therefore, it is difficult to distinguish whether the person's alertness level has decreased or whether the person feels dazzling just by looking at the facial expression of the person's eyebrows furrowed.
With conventional technology, typified by the technology disclosed in Patent Document 1, it is difficult to distinguish whether a person's alertness level has decreased or whether the person feels dazzling just by looking at the facial expression of the person's eyebrows furrowed. Since this could not be taken into account, there was a possibility of incorrectly estimating that a person's alertness level had decreased.
本開示は上記のような課題を解決するためになされたもので、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定することで、人の覚醒度低下の誤推定を防ぐ覚醒度推定装置を提供することを目的とする。 The present disclosure has been made in order to solve the above-mentioned problems, and it is necessary to investigate whether the surrounding situation is such that the person would feel dazzling when the person has wrinkled eyebrows. It is an object of the present invention to provide an alertness level estimation device that prevents erroneous estimation of a decrease in a person's alertness level by estimating the alertness level of the person.
本開示に係る覚醒度推定装置は、人が眉間にしわを寄せた顔をしているか否かを示す顔判定情報を取得する顔判定情報取得部と、人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出する輝度検出部と、顔判定情報取得部が取得した顔判定情報と、輝度検出部が検出した輝度とに基づき、人の覚醒度合いを推定する推定部とを備えたものである。 The arousal level estimation device according to the present disclosure includes a face determination information acquisition unit that acquires face determination information indicating whether or not a person has a face with wrinkles between the eyebrows, and a range in which the human face should be present. a brightness detection unit that detects the brightness in the captured image, and an estimation unit that estimates the degree of arousal of the person based on the face determination information acquired by the face determination information acquisition unit and the brightness detected by the brightness detection unit. It is something that
本開示によれば、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定することで、人の覚醒度低下の誤推定を防ぐことができる。 According to the present disclosure, when a person has wrinkled eyebrows, the degree of arousal of the person is estimated by considering whether the surrounding situation is such that the person would feel dazzling. , it is possible to prevent incorrect estimation of a person's alertness level decline.
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
実施の形態1に係る覚醒度推定装置は、人の少なくとも顔が撮像された撮像画像に基づき、人の覚醒度合いを推定する。特に、覚醒度推定装置は、人が眉間にしわを寄せた顔をした場合に、当該顔は、人の覚醒度が低下したことによってなされた顔なのか、人が眩しいと感じたためになされた顔なのかを区別し、人の覚醒度合いを推定する。
実施の形態1において、眉間にしわを寄せた顔のことを、「我慢顔」という。「我慢顔」は、眉間にしわを寄せ、目を細めた、いわゆるしかめ顔である。
また、実施の形態1では、一例として、覚醒度推定装置が覚醒度合いを推定する対象となる人は、車両のドライバとする。
覚醒度推定装置が推定した、ドライバの覚醒度が低下したか、言い換えれば、ドライバが眠気を催しているかの推定結果は、例えば、ドライバの居眠り検出に用いられる。Embodiments of the present disclosure will be described in detail below with reference to the drawings.
Embodiment 1.
The alertness level estimation device according to the first embodiment estimates a person's alertness level based on a captured image in which at least the person's face is captured. In particular, when a person makes a face with wrinkles between their eyebrows, the alertness estimation device can determine whether the face was made due to a decrease in the person's alertness level or because the person felt dazzling. It distinguishes whether it is a face or not and estimates the person's level of arousal.
In the first embodiment, a face with wrinkles between the eyebrows is referred to as a "patience face." The ``patience face'' is a so-called frowning face with wrinkles between the eyebrows and narrowed eyes.
Further, in the first embodiment, as an example, the person whose arousal degree is estimated by the arousal degree estimating device is a driver of a vehicle.
The estimation result of whether the driver's alertness level has decreased, in other words, whether the driver is drowsy, which is estimated by the alertness level estimation device, is used, for example, to detect whether the driver is dozing off.
図1は、実施の形態1に係る覚醒度推定装置1の構成例を示す図である。
覚醒度推定装置1は、顔判定装置2、顔判定情報取得部11、輝度検出部12、および、推定部13を備える。
覚醒度推定装置1は、撮像装置3と接続される。撮像装置3は、車両(図示省略)に搭載され、少なくともドライバの顔が存在すべき範囲を撮像可能に設置されている。例えば、撮像装置3は、車室内をモニタリングすることを目的に設置される、いわゆるDMS(Driver Monitoring System)と共用のものでもよい。撮像装置3は、可視光カメラ、または、赤外線カメラである。撮像装置3は、撮像した撮像画像を、覚醒度推定装置1が備える顔判定装置2に出力する。FIG. 1 is a diagram showing a configuration example of an alertness level estimation device 1 according to the first embodiment.
The arousal level estimation device 1 includes a face determination device 2, a face determination
The alertness estimation device 1 is connected to the imaging device 3. The imaging device 3 is mounted on a vehicle (not shown) and is installed so as to be able to image at least an area where the driver's face should be present. For example, the imaging device 3 may be shared with a so-called DMS (Driver Monitoring System) installed for the purpose of monitoring the interior of a vehicle. The imaging device 3 is a visible light camera or an infrared camera. The imaging device 3 outputs the captured image to the face determination device 2 included in the arousal level estimation device 1 .
顔判定装置2は、撮像画像を取得し、取得した撮像画像に基づき、ドライバが我慢顔をしているか否かを判定する。顔判定装置2は、ドライバが我慢顔をしているか否かを示す情報(以下「顔判定情報」という。)を、顔判定情報取得部11に出力する。顔判定装置2の詳細な構成例については、後述する。
The face determination device 2 acquires a captured image and determines whether or not the driver is making a restrained face based on the acquired captured image. The face determination device 2 outputs information indicating whether the driver is making a restrained face (hereinafter referred to as "face determination information") to the face determination
顔判定情報取得部11は、顔判定装置2から顔判定情報を取得する。
顔判定情報取得部11は、取得した顔判定情報を、推定部13に出力する。The face determination
The face determination
輝度検出部12は、撮像装置3が撮像した撮像画像における輝度を検出する。輝度検出部12は、撮像画像を、顔判定装置2を介して取得すればよい。
実施の形態1において、撮像画像における輝度とは、例えば、撮像画像における各画素の輝度値の平均値とする。なお、これは一例に過ぎず、輝度検出部12は、例えば、撮像画像における各画素の輝度値の中央値を、撮像画像における輝度としてもよい。輝度検出部12は、少なくとも、撮像画像上の、ドライバの顔が存在する領域(以下「顔領域」という。)を含む領域の輝度を検出するようになっていればよい。輝度検出部12は、例えば、撮像画像から、公知の画像処理技術を用いて、ドライバの顔領域を特定すればよい。また、輝度検出部12は、例えば、顔判定装置2の、後述する特徴点検出部22から、ドライバの顔を示す特徴点に関する情報(以下「特徴点情報」という。)を取得してもよい。
輝度検出部12は、検出した撮像画像における輝度に関する情報(以下「輝度情報」という。)を、推定部13に出力する。輝度検出部12は、撮像画像と検出した輝度とを対応付けた情報を輝度情報とする。The
In the first embodiment, the brightness in a captured image is, for example, the average value of the brightness values of each pixel in the captured image. Note that this is just an example, and the
The
推定部13は、顔判定情報取得部11が取得した顔判定情報と、輝度検出部12が検出した撮像画像における輝度とに基づき、ドライバの覚醒度合いを推定する。なお、推定部13が推定する覚醒度合いは、例えば、覚醒度が高いか低いかであらわされる覚醒度合いであってもよいし、5段階等の段階であらわされる覚醒度合いであってもよい。
具体的には、推定部13は、まず、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であるか否か、言い換えれば、顔判定装置2において、ドライバが我慢顔をしていると判定されたか否か、を判定する。
顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報である場合、推定部13は、撮像画像における輝度が、予め設定された閾値(以下「輝度判定用閾値」という。)未満であるかを判定する。
推定部13は、撮像画像における輝度が輝度判定用閾値未満であれば、ドライバの覚醒度が低下した、言い換えれば、ドライバは眠気を催していると推定する。
推定部13は、撮像画像における輝度が輝度判定用閾値以上であれば、ドライバの覚醒度は低下していないと推定する。なお、ドライバの覚醒度が低下していない状態は、ドライバの覚醒度合いが上がった状態、および、ドライバの覚醒度合いが変化せず維持されている状態を含む。The
Specifically, the
When the face determination information is face determination information indicating that the driver is making a restrained face, the
If the brightness in the captured image is less than the brightness determination threshold, the
If the brightness in the captured image is equal to or greater than the brightness determination threshold, the
ドライバが我慢顔をする状況としては、覚醒度が低下した状況と、周囲が明るく、ドライバが眩しいと感じた状況とが想定される。例えば、ドライバの周囲、ここでは車内に、日光が差し込んでいた場合、ドライバが眩しいと感じる状況であると想定される。眩しいと感じると、ドライバは、眠気を催していなくても、我慢顔をすることがある。すなわち、周囲が眩しいと感じると想定される状況でドライバが我慢顔をしたときは、ドライバは、眠気を催しているのではなく眩しいことにより我慢顔をしたと推定できる。これに対し、周囲が眩しいと感じるほどの明るさでない状況でドライバが我慢顔をしたときは、ドライバは、眠気を催していることにより我慢顔をしたと推定できる。 Situations in which the driver makes a patient face include a situation in which the level of alertness has decreased, and a situation in which the surroundings are bright and the driver feels dazzling. For example, if sunlight is shining around the driver, here, inside the car, it is assumed that the driver feels dazzled. When a driver feels dazzled, he or she may look resigned even if he or she is not drowsy. That is, when a driver makes a patient face in a situation where it is assumed that the surroundings are bright, it can be estimated that the driver made a patient face not because he was drowsy but because of the glare. On the other hand, if the driver makes a patient face in a situation where the surroundings are not so bright that the driver feels dazzling, it can be assumed that the driver made the patient face because he/she is feeling sleepy.
そこで、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値未満であれば、当該我慢顔は、ドライバの覚醒度が低下したことによってなされた、すなわち、ドライバの覚醒度が低下した、と推定する。撮像画像における輝度が輝度判定用閾値未満であれば、ドライバの周囲は、ドライバが眩しいと感じるほどの明るさではないと判定できる。なお、輝度判定用閾値は、撮像範囲が、ドライバが眩しいと感じると想定される明るさのもと、管理者等によって撮像された撮像画像の輝度に基づいて、設定される。撮像範囲は、ここでは、少なくともドライバの顔が存在すべき範囲を含む車内である。
一方、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値以上であれば、当該我慢顔は、ドライバの覚醒度が低下したことによってなされたものではない、すなわち、ドライバの覚醒度は低下していない、と推定する。言い換えれば、当該我慢顔は、眩しいと感じたことによってなされたと推定する。撮像画像における輝度が輝度判定用閾値以上であれば、ドライバの周囲は、ドライバが眩しいと感じるほどの明るさであると判定できる。
このように、推定部13は、ドライバが我慢顔をしていると判定された場合、ドライバの周囲の明るさを判定することで、我慢顔はドライバの覚醒度が低下したことによるのか、ドライバの覚醒度が低下したのではなくドライバが眩しいと感じたことによるのかを区別する。Therefore, if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is less than the brightness determination threshold, the
On the other hand, if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is greater than or equal to the brightness determination threshold, the
In this way, when it is determined that the driver is making a patient face, the
ただし、ドライバの周囲が、ドライバが眩しいと感じるほどの明るさであったとしても、ドライバの顔に影ができている等、ドライバの顔周辺が局所的に暗くなっている場合、ドライバは眩しいと感じないこともある。この場合、ドライバは、眩しいことによる我慢顔をしない。すなわち、ドライバの顔周辺が局所的に暗くなっている状況で、ドライバが我慢顔をしたのであれば、それは、眩しいと感じたことによるものではなく、覚醒度が低下したことによるものと推定できる。
よって、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値以上であっても、撮像画像上の輝度分布に基づきドライバの顔周辺に影があると判定した場合は、ドライバの覚醒度が低下したと推定してもよい。なお、輝度検出部12から推定部13に出力される輝度情報には撮像画像が含まれる。推定部13は、撮像画像上の各画素の輝度値から、撮像画像上の輝度分布を判定すればよい。また、推定部13は、公知の画像処理技術を用いて、撮像画像上で、ドライバの顔領域を特定すればよい。顔領域は、例えば、ドライバの輪郭を示す特徴点を全て含む最小矩形領域とする。そして、推定部13は、例えば、当該顔領域に含まれる画素の輝度値の平均値が、予め設定されている閾値(以下「影判定用閾値」という。)以下であれば、ドライバの顔周辺に影があると判定する。
推定部13は、例えば、ドライバの顔周辺に影があるか否かを、ドライバの目が存在する領域(以下「目領域」という。)に含まれる画素の輝度値の平均値と影判定用閾値との比較によって判定してもよい。目領域は、例えば、目頭および目尻等、ドライバの目を示す特徴点を全て含む最小矩形領域である。However, even if the driver's surroundings are bright enough to cause the driver to feel dazzled, if the area around the driver's face is locally dark, such as when there is a shadow on the driver's face, the driver may be dazzled. Sometimes I don't feel that way. In this case, the driver does not put up with the glare. In other words, if the driver makes a resigned face in a situation where the area around the driver's face is locally darkened, it can be assumed that this is not due to the feeling of being dazzled, but due to a decrease in alertness. .
Therefore, even if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is equal to or higher than the brightness determination threshold, the
For example, the
逆に、ドライバの周囲が、ドライバが眩しいと感じるほどの明るさでなかったとしても、ドライバの顔には影ができていない、または、ドライバの顔にのみ光が当たっている等、ドライバの顔周辺が局所的に明るくなっており、ドライバが眩しいと感じることもある。この場合、ドライバは、眩しいことによる我慢顔をする。すなわち、ドライバの顔周辺が局所的に明るくなっている状況で、ドライバが我慢顔をしたのであれば、それは、覚醒度が低下したことによるものではなく、眩しいと感じたことによるものと推定できる。
よって、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値未満であっても、撮像画像上の輝度分布に基づきドライバの顔周辺が明るいと判定した場合は、ドライバの覚醒度は低下していないと推定してもよい。推定部13は、例えば、撮像画像上で、ドライバの顔領域に含まれる画素の輝度値の平均値が、予め設定されている閾値(以下「明るさ判定用閾値」という。)以上であれば、ドライバの顔周辺が明るいと判定する。
推定部13は、例えば、ドライバの顔周辺が明るいか否かを、ドライバの目領域に含まれる画素の輝度値の平均値と明るさ判定用閾値との比較によって判定してもよい。Conversely, even if the driver's surroundings are not bright enough to cause the driver to feel dazzled, there may be other problems such as there being no shadows on the driver's face or light shining only on the driver's face. The area around the face is locally bright, and the driver may feel dazzled. In this case, the driver looks resigned to the glare. In other words, if the driver makes a resigned face in a situation where the area around the driver's face is locally bright, it can be assumed that this is not due to a decrease in arousal level but because the driver feels dazzled. .
Therefore, even if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is less than the brightness determination threshold, the
For example, the
推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であるか否かを判定した結果、当該顔判定情報が、ドライバが我慢顔をしていないことを示す顔判定情報であると判定した場合、言い換えれば、顔判定装置2において、ドライバが我慢顔をしていないと判定された場合は、公知の、画像に基づく覚醒度推定の技術を用いて、ドライバの覚醒度合いを推定する。例えば、推定部13は、撮像画像に基づいて検出したドライバの開眼度が予め設定された閾値以下である場合に、ドライバの覚醒度が低下したと推定する。推定部13は、ドライバの開眼度が予め設定された閾値より大きい場合は、ドライバの覚醒度は低下していないと推定する。
As a result of determining whether the face determination information is face determination information indicating that the driver is making a patient face, the
推定部13は、ドライバの覚醒度が低下していると推定した場合、ドライバに注意喚起するための情報(以下「警告情報」という。)を出力する。例えば、推定部13は、図示しない出力装置に対して、警告音を出力させる警告情報を出力する。出力装置は、例えば、車両に搭載されているスピーカを想定している。出力装置は、推定部13から警告情報が出力されると、警告音を出力する。
If the
推定部13は、ドライバの覚醒度合いの推定結果を、推定を行った日時と対応付けて記憶部26に記憶してもよい。この場合、推定部13は、過去の推定結果に基づき、例えば、どれぐらいドライバの覚醒度合いが変化したか等、ドライバの覚醒度合いの傾向を判定することができる。
The
顔判定装置2の構成例について説明する。
図1に示すように、顔判定装置2は、画像取得部21、特徴点検出部22、距離算出部23、基準距離算出部24、顔判定部25、および、記憶部26を備える。顔判定部25は、再計算指示部251を備える。A configuration example of the face determination device 2 will be explained.
As shown in FIG. 1, the face determination device 2 includes an
画像取得部21は、撮像装置3から撮像画像を取得する。
画像取得部21は、取得した撮像画像を、特徴点検出部22、および、輝度検出部12に出力する。The
The
特徴点検出部22は、画像取得部21が取得した撮像画像に基づいて、撮像画像上の、ドライバの顔の複数の特徴点を検出する。
特徴点検出部22が検出する複数の特徴点は、少なくとも、ドライバの両眉頭を示す特徴点を含む。実施の形態1では、一例として、特徴点検出部22が検出する複数の特徴点は、ドライバの両眉頭を示す特徴点とする。
特徴点検出部22は、検出した特徴点、具体的には、ドライバの両眉頭を示す特徴点に関する特徴点情報を、距離算出部23に出力する。
なお、例えば、特徴点検出部22は、ドライバの両目の上瞼および下瞼を示す特徴点を検出し、当該特徴点を示す特徴点情報を、推定部13に出力してもよい。この場合、推定部13は、例えば、特徴点検出部22から出力された特徴点情報に基づいてドライバの開眼度を算出し、算出した開眼度からドライバの覚醒度合いを推定できる。The feature
The plurality of feature points detected by the feature
The feature
Note that, for example, the feature
距離算出部23は、特徴点検出部22が検出した複数の特徴点の撮像画像上の座標を3次元座標に変換する。そして、距離算出部23は、変換後の3次元座標から複数の特徴点の間の距離(以下「特徴点間距離」という。)を算出する。
具体的には、ここでは、距離算出部23は、撮像画像上のドライバの両眉頭を示す特徴点の座標をそれぞれ3次元座標に変換し、変換後の3次元座標からドライバの両眉頭間の距離(以下「眉間距離」という。)を、特徴点間距離として算出する。
距離算出部23は、AAM(Active Appearance Model)等、2次元座標を3次元座標に変換する公知の技術を用いて、撮像画像上の特徴点の座標を3次元座標に変換すればよい。
距離算出部23は、算出した特徴点間距離に関する情報(以下「距離情報」という。)を、顔判定部25に出力する。
また、距離算出部23は、距離情報を、記憶部26に記憶させる。なお、距離算出部23は、距離情報を、特徴点間距離の算出時刻と対応付けて、時系列で記憶させる。
記憶部26に記憶される距離情報は、車両の電源がオフにされたときに削除されるものとする。The
Specifically, here, the
The
The
Further, the
It is assumed that the distance information stored in the
基準距離算出部24は、記憶部26に記憶されている距離情報を参照して、距離算出部23が算出した特徴点間距離の、予め設定された期間(以下「基準算出対象期間」という。)分の履歴に基づき、基準特徴点間距離を算出する。基準特徴点間距離は、顔判定装置2において、ドライバが我慢顔をしているか否かを判定する際の基準となる特徴点間距離であり、ドライバが我慢顔をしていないときの特徴点間距離とみなす距離である。なお、我慢顔の判定は、顔判定部25が行う。顔判定部25の詳細は、後述する。
例えば、基準距離算出部24は、基準算出対象期間分の特徴点間距離の最頻値を、基準特徴点間距離とする。なお、これは一例に過ぎず、基準距離算出部24は、例えば、基準算出対象期間分の特徴点間距離の平均値または中央値を、基準特徴点間距離としてもよい。The reference
For example, the reference
基準距離算出部24は、予め決められたタイミング(以下「基準算出タイミング」という。)で、基準特徴点間距離を算出する。詳細には、基準距離算出部24は、基準算出タイミングになったと判定した時点から記憶部26に記憶された、基準算出対象期間分の距離情報から、基準特徴点間距離を算出する。
実施の形態1において、基準算出タイミングは、車両の電源がオンにされたとき、および、再計算指示部251から基準特徴点間距離の再計算指示が出力されたとき、とする。再計算指示部251の詳細は、後述する。
なお、基準距離算出部24は、記憶部26に、基準算出タイミングになってから基準算出対象期間分の距離情報が記憶されていない場合、基準算出対象期間分の距離情報が記憶されるまで待機する。
基準距離算出部24は、算出した基準特徴点間距離に関する情報(以下「基準距離情報」という。)を、記憶部26に記憶させる。The reference
In the first embodiment, the reference calculation timing is when the vehicle is powered on and when the
Note that, if the distance information for the reference calculation target period is not stored in the
The reference
顔判定部25は、距離算出部23が算出した特徴点間距離と基準特徴点間距離とを比較することで、ドライバが我慢顔をしているか否かを判定する。顔判定部25は、基準特徴点間距離を、記憶部26に記憶されている基準距離情報から特定できる。
具体的には、顔判定部25は、特徴点間距離、ここでは、ドライバの眉間距離が、基準特徴点間距離よりも予め設定された閾値(以下「第1閾値」という。)以上小さい場合、言い換えれば、「基準特徴点間距離-特徴点間距離≧第1閾値」である場合、ドライバは我慢顔をしていると判定する。
一般に、人が眉間にしわを寄せた顔をすると、人が眉間にしわを寄せていない顔をしているときと比べ、眉間距離は短くなる。そこで、顔判定部25は、ドライバの眉間距離が基準特徴点間距離よりも第1閾値以上小さい場合は、ドライバが眉間にしわを寄せた顔、すなわち、我慢顔をしていると判定する。
顔判定部25は、特徴点間距離が基準特徴点間距離よりも第1閾値以上小さくなければ、言い換えれば、「基準特徴点間距離-特徴点間距離<第1閾値」であれば、ドライバは我慢顔をしていないと判定する。The
Specifically, the
Generally, when a person has a face with wrinkles between the eyebrows, the distance between the eyebrows becomes shorter than when the person has a face without wrinkles. Therefore, if the distance between the driver's eyebrows is smaller than the reference distance between feature points by a first threshold value or more, the
If the distance between feature points is not smaller than the reference distance between feature points by a first threshold value or more, in other words, if "reference distance between feature points - distance between feature points < first threshold", the
ここで、ドライバは我慢顔をしていないと判定した場合、顔判定部25は、さらに、特徴点間距離が、基準特徴点間距離よりも予め設定された閾値(以下「第2閾値」という。)以上大きいか否か、言い換えれば、「特徴点間距離-基準特徴点間距離≧第2閾値」であるか否かを判定する。
特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい場合、顔判定部25は、その旨を再計算指示部251に通知する。再計算指示部251は、顔判定部25から、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい旨が通知されると、基準距離算出部24に対して、基準特徴点間距離の再計算を指示する。
特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい場合、基準特徴点間距離は、ドライバが我慢顔をしているときの特徴点間距離に基づいて算出されたものと想定される。上述のとおり、基準特徴点間距離は、ドライバが我慢顔をしていないときの特徴点間距離(眉間距離)とみなす距離であるので、ドライバが我慢顔をしているときの特徴点間距離に基づいて算出された基準特徴点間距離は、基準特徴点間距離としてふさわしくない。そこで、顔判定部25が特徴点間距離は基準特徴点間距離よりも第2閾値以上大きいと判定した場合は、再計算指示部251が、基準距離算出部24に基準特徴点間距離の再計算を行わせる。Here, if it is determined that the driver is not making a patient face, the
If the distance between feature points is larger than the reference distance between feature points by the second threshold or more, the
If the distance between feature points is larger than the reference distance between feature points by the second threshold or more, it is assumed that the reference distance between feature points is calculated based on the distance between feature points when the driver is making a patient face. Ru. As mentioned above, the standard distance between feature points is the distance that is considered to be the distance between feature points (distance between eyebrows) when the driver is not making a patient face, so it is the distance between feature points when the driver is making a patient face. The reference inter-feature point distance calculated based on is not suitable as the reference inter-feature point distance. Therefore, when the
顔判定部25は、ドライバが我慢顔をしていると判定したか否かを示す顔判定情報を、顔判定情報取得部11に出力する。詳細には、顔判定部25は、ドライバが我慢顔をしていると判定した場合、ドライバが我慢顔をしていることを示す顔判定情報を、顔判定情報取得部11に出力する。顔判定部25は、ドライバが我慢顔をしていないと判定した場合、ドライバが我慢顔をしていないことを示す顔判定情報を、顔判定情報取得部11に出力する。
The
ただし、顔判定部25は、基準特徴点間距離の再計算指示を行う必要があった場合、すなわち、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定した場合、顔判定情報の出力は行わない。ドライバが我慢顔をしていないとの判定が、誤判定である可能性があるためである。
However, if it is necessary to instruct recalculation of the distance between reference feature points, that is, if it is determined that the distance between feature points is larger than the reference distance between feature points by the second threshold or more, the
記憶部26は、距離情報および基準距離情報を記憶する。
なお、実施の形態1では、記憶部26は、顔判定装置2に備えられるようにしたが、これは一例に過ぎない。記憶部26は、顔判定装置2の外部の、顔判定装置2が参照可能な場所に備えられてもよい。The
Note that in the first embodiment, the
実施の形態1に係る覚醒度推定装置1の動作について説明する。
図2は、実施の形態1に係る覚醒度推定装置1の動作について説明するためのフローチャートである。なお、図2において、ステップST1~ステップST5の処理は、覚醒度推定装置1が備える顔判定装置2によって行われる処理である。The operation of the alertness level estimation device 1 according to the first embodiment will be explained.
FIG. 2 is a flowchart for explaining the operation of the alertness level estimation device 1 according to the first embodiment. Note that in FIG. 2, the processing from step ST1 to step ST5 is performed by the face determination device 2 included in the arousal level estimation device 1.
画像取得部21は、撮像装置3から撮像画像を取得する(ステップST1)。
画像取得部21は、取得した撮像画像を、特徴点検出部22、および、輝度検出部12に出力する。The
The
特徴点検出部22は、ステップST1にて画像取得部21が取得した撮像画像に基づいて、撮像画像上の、ドライバの顔の複数の特徴点を検出する(ステップST2)。実施の形態1では、特徴点検出部22は、ドライバの両眉頭を示す特徴点を検出する。
特徴点検出部22は、特徴点情報を、距離算出部23に出力する。The feature
The feature
距離算出部23は、ステップST2にて特徴点検出部22が検出した複数の特徴点の撮像画像上の座標を3次元座標に変換する(ステップST3)。そして、距離算出部23は、変換後の3次元座標から複数の特徴点の間の特徴点間距離を算出する(ステップST4)。実施の形態1では、距離算出部23は、撮像画像上のドライバの両眉頭を示す特徴点の座標をそれぞれ3次元座標に変換し、変換後の3次元座標からドライバの眉間距離を特徴点間距離として算出する。
距離算出部23は、距離情報を、顔判定部25に出力する。The
The
顔判定部25は、ステップST4にて距離算出部23が算出した特徴点間距離と基準特徴点間距離とを比較することで、ドライバが我慢顔をしているか否かを判定する我慢顔判定処理を行う(ステップST5)。
The
顔判定情報取得部11は、顔判定装置2から顔判定情報を取得する(ステップST6)。詳細には、顔判定情報取得部11は、顔判定装置2の顔判定部25がステップST5において我慢顔判定処理を行って出力した顔判定情報を取得する。
顔判定情報取得部11は、取得した顔判定情報を、推定部13に出力する。The face determination
The face determination
輝度検出部12は、撮像装置3が撮像した撮像画像における輝度を検出する(ステップST7)。具体的には、輝度検出部12は、ステップST1にて顔判定装置2の画像取得部21が取得した撮像画像を取得し、当該撮像画像における輝度を検出する。
輝度検出部12は、輝度情報を、推定部13に出力する。The
The
推定部13は、ステップST6にて顔判定情報取得部11が取得した顔判定情報と、ステップST7にて輝度検出部12が検出した撮像画像における輝度とに基づき、ドライバの覚醒度合いを推定する覚醒度推定処理を行う(ステップST8)。
The
なお、図2のフローチャートでは、ステップST6、ステップST7の順で処理が行われるものとしたが、ステップST6、ステップST7の処理の順番はこれに限らない。ステップST7、ステップST6の順で処理が行われてもよいし、ステップST6の処理とステップST7の処理とが並行して行われてもよい。ステップST7の処理は、ステップST1の後、ステップST8の処理が行われるまでの間であれば、どのタイミングで行われてもよい。 Note that in the flowchart of FIG. 2, the processing is performed in the order of step ST6 and step ST7, but the order of the processing of step ST6 and step ST7 is not limited to this. The processing may be performed in the order of step ST7 and step ST6, or the processing of step ST6 and the processing of step ST7 may be performed in parallel. The process in step ST7 may be performed at any timing after step ST1 until the process in step ST8 is performed.
図3は、図2のステップST5における、顔判定部25による我慢顔判定処理の詳細を説明するためのフローチャートである。
FIG. 3 is a flowchart for explaining details of the patient face determination process by the
顔判定部25は、特徴点間距離、ここではドライバの眉間距離が、基準特徴点間距離よりも第1閾値以上小さいか否か、言い換えれば、「基準特徴点間距離-特徴点間距離≧第1閾値」であるか否か判定する(ステップST21)。
特徴点間距離が基準特徴点間距離よりも第1閾値以上小さい場合(ステップST21の“YES”の場合)、顔判定部25は、ドライバは我慢顔をしていると判定する(ステップST22)。
特徴点間距離が基準特徴点距離よりも第1閾値以上小さくない場合、言い換えれば、「基準特徴点間距離-特徴点間距離<第1閾値」である場合(ステップST21の“NO”の場合)、顔判定部25は、ドライバは我慢顔をしていないと判定する(ステップST24)。The
If the distance between feature points is smaller than the reference distance between feature points by the first threshold value or more (“YES” in step ST21), the
If the distance between feature points is not smaller than the reference feature point distance by more than the first threshold, in other words, if "reference distance between feature points - distance between feature points < first threshold" (if "NO" in step ST21) ), the
ステップST24にて、ドライバは我慢顔をしていないと判定した場合、顔判定部25は、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいか否か、言い換えれば、「特徴点間距離-基準特徴点間距離≧第2閾値」であるか否かを判定する(ステップST25)。
特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい場合(ステップST25の“YES”の場合)、顔判定部25は、その旨を再計算指示部251に通知する。そして、再計算指示部251は、基準距離算出部24に対して、基準特徴点間距離の再計算を指示する(ステップST26)。In step ST24, when it is determined that the driver is not making a patient face, the
If the inter-feature point distance is larger than the reference inter-feature point distance by the second threshold or more (“YES” in step ST25), the
特徴点間距離が基準特徴点間距離よりも第2閾値以上大きくない場合、言い換えれば、「特徴点間距離-基準特徴点間距離<第2閾値」である場合(ステップST25の“NO”の場合)、および、ステップST22にてドライバは我慢顔をしていると判定すると、顔判定部25は、顔判定情報を、顔判定情報取得部11に出力する(ステップST23)。
なお、顔判定部25は、基準特徴点間距離の再計算指示を行う必要があった場合、すなわち、ステップST25にて特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定した場合、顔判定情報の出力は行わない。ドライバが我慢顔をしていないとの判定(ステップST24参照)が、誤判定である可能性があるためである。When the distance between feature points is not larger than the reference distance between feature points by the second threshold value or more, in other words, when "distance between feature points - reference distance between feature points < second threshold"("NO" in step ST25) ), and if it is determined in step ST22 that the driver is making a restrained face, the
Note that when it is necessary to instruct recalculation of the reference inter-feature point distance, the
図4は、図2のステップST8における、推定部13による覚醒度推定処理の詳細を説明するためのフローチャートである。
FIG. 4 is a flowchart for explaining details of the alertness level estimation process by the
推定部13は、図2のステップST6にて顔判定情報取得部11が取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であるか否か、言い換えれば、顔判定装置2において、ドライバが我慢顔をしていると判定されたか否か、を判定する(ステップST31)。
The
推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報である場合(ステップST31の“YES”の場合)、図2のステップST7にて輝度検出部12が検出した撮像画像における輝度が輝度判定用閾値未満であるか否かを判定する(ステップST32)。
If the face determination information is face determination information indicating that the driver is making a patient face (in the case of "YES" in step ST31), the
ステップST32にて、撮像画像における輝度が輝度判定用閾値未満であると判定した場合(ステップST32の“YES”の場合)、推定部13は、撮像画像上の輝度分布に基づきドライバの顔周辺が明るいか否かを判定する(ステップST33)。
If it is determined in step ST32 that the brightness in the captured image is less than the brightness determination threshold (“YES” in step ST32), the
ステップST33にて、ドライバの顔周辺が明るいと判定した場合(ステップST33の“YES”の場合)、推定部13は、ドライバの覚醒度は低下していないと推定する(ステップST35)。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。
ステップST33にて、ドライバの顔周辺が明るくないと判定した場合(ステップST33の“NO”の場合)、推定部13の処理はステップST34に進む。If it is determined in step ST33 that the area around the driver's face is bright (“YES” in step ST33), the
If it is determined in step ST33 that the area around the driver's face is not bright (“NO” in step ST33), the process of the
ステップST32にて、撮像画像における輝度が輝度判定用閾値未満ではないと判定した場合、言い換えれば、撮像画像における輝度が輝度判定用閾値以上と判定した場合(ステップST32の“NO”の場合)、推定部13は、撮像画像上の輝度分布に基づきドライバの顔周辺に影があるか否かを判定する(ステップST36)。
If it is determined in step ST32 that the brightness in the captured image is not less than the brightness determination threshold, in other words, if it is determined that the brightness in the captured image is greater than or equal to the brightness determination threshold (“NO” in step ST32), The
ステップST36にて、ドライバの顔周辺に影があると判定した場合(ステップST36の“YES”の場合)、および、ステップST33にて、ドライバの顔周辺が明るくないと判定した場合(ステップST33の“NO”の場合)、推定部13は、ドライバの覚醒度が低下した、言い換えれば、ドライバは眠気を催していると推定する(ステップST34)。そして、推定部13は、警告情報を出力する。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。
If it is determined in step ST36 that there is a shadow around the driver's face (“YES” in step ST36), and if it is determined in step ST33 that the area around the driver's face is not bright (“YES” in step ST33), If "NO"), the estimating
ステップST36にて、ドライバの顔周辺に影がないと判定した場合(ステップST36の“NO”の場合)、推定部13は、ドライバの覚醒度は低下していないと推定する(ステップST37)。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。
If it is determined in step ST36 that there is no shadow around the driver's face (“NO” in step ST36), the
一方、顔判定情報が、ドライバが我慢顔をしていないことを示す顔判定情報である場合(ステップST31の“NO”の場合)、推定部13は、公知の、画像に基づく覚醒度推定の技術を用いて、ドライバの覚醒度合いを推定する(ステップST38)。推定部13は、ドライバの覚醒度合いを推定した結果、ドライバの覚醒度は低下したと推定した場合、警告情報を出力する。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。
On the other hand, if the face determination information is face determination information indicating that the driver is not making a patient face (“NO” in step ST31), the
なお、図4に示すフローチャートにおいて、ステップST33、ステップST35、おおよび、ステップST36の処理は省略可能である。ステップST36の処理が省略された場合、ステップST32にて、撮像画像における輝度が輝度判定用閾値未満ではないと判定すると(ステップST32の“NO”の場合)、推定部13は、ステップST37の処理に進む。
Note that in the flowchart shown in FIG. 4, the processes of step ST33, step ST35, and step ST36 can be omitted. If the process in step ST36 is omitted, if it is determined in step ST32 that the brightness in the captured image is not less than the brightness determination threshold (in the case of "NO" in step ST32), the
図5は、実施の形態1における、基準距離算出部24による基準特徴点間距離の算出動作について説明するためのフローチャートである。
図5のフローチャートで示す動作は、図2のフローチャートを用いて説明した顔判定装置2の動作と並行して行われる。FIG. 5 is a flowchart for explaining the operation of calculating the distance between reference feature points by the reference
The operation shown in the flowchart of FIG. 5 is performed in parallel with the operation of the face determination device 2 described using the flowchart of FIG.
基準距離算出部24は、基準算出タイミングになったか否かを判定する(ステップST41)。詳細には、基準距離算出部24は、車両の電源がオンにされたか、または、再計算指示部251から基準特徴点間距離の再計算指示が出力された(図3のステップST26参照)か、を判定する。
基準算出タイミングになっていないと判定した場合(ステップST41の“NO”の場合)、基準距離算出部24は、基準算出タイミングになるまで待機する。The reference
If it is determined that the reference calculation timing has not arrived (“NO” in step ST41), the reference
基準算出タイミングになったと判定した場合(ステップST41の“YES”の場合)、基準距離算出部24は、記憶部26に記憶されている距離情報を参照して、基準算出対象期間分の特徴点間距離を取得し(ステップST42)、取得した基準算出対象期間分の特徴点間距離に基づき、基準特徴点間距離を算出する(ステップST43)。なお、基準距離算出部24は、基準算出タイミングになったと判定した時点から記憶部26に記憶された、基準算出対象期間分の距離情報から、特徴点間距離を取得する。記憶部26に、基準算出タイミングになったと判定した時点から基準算出対象期間分の距離情報が記憶されていない場合、基準距離算出部24は、基準算出対象期間分の距離情報が記憶されるまで待機した後、基準特徴点間距離を算出する。
When it is determined that the reference calculation timing has come (“YES” in step ST41), the reference
基準距離算出部24は、基準距離情報を、記憶部26に記憶させる(ステップST44)。
The reference
このように、基準距離算出部24によって算出され、記憶部26に記憶された基準距離情報に基づいて、顔判定部25は、我慢顔判定処理(図2のステップST5参照)を行う。
ここで、基準算出タイミングとなった後、基準距離算出部24が基準特徴点距離の算出を完了し、基準距離情報が記憶部26に記憶されるまでの間、顔判定部25は、我慢顔判定処理を行わない。例えば、基準距離算出部24は、基準算出タイミングであると判定すると(図5のステップST41の“YES”の場合)、基準算出中フラグ「1」を設定する。基準算出中フラグは、基準距離算出部24および顔判定部25が参照可能な場所に設定され、基準距離算出部24が基準距離情報を記憶部26に記憶すると(図5のステップST44)、基準距離算出部24によって初期値である「0」にされる。
例えば、基準算出中フラグに「1」が設定されている場合、顔判定部25は、顔判定情報取得部11に対して、待機中である旨の情報(以下「待機通知」という。)を出力する。顔判定情報取得部11は、待機通知を取得すると、当該待機通知を推定部13に出力する。推定部13は、顔判定情報取得部11から待機通知が出力された場合、顔判定情報取得部11からドライバが我慢顔をしていないことを示す顔判定情報が出力された場合と同様の方法で、ドライバの覚醒度合いの推定を行う。すなわち、推定部13は、公知の、画像に基づく覚醒度推定の技術を用いて、ドライバの覚醒度合いを推定する。
また、例えば、基準算出中フラグに「1」が設定されている場合、顔判定部25は、予め記憶している、人が我慢顔をしていない場合の一般的な両眉頭間の距離を想定して設定された距離(以下「代替基準距離」という。)を基準特徴点間距離として、ドライバが我慢顔をしているか否かの判定を行ってもよい。代替基準距離は、予め、管理者等によって設定され、顔判定部25に記憶される。In this manner, based on the reference distance information calculated by the reference
Here, after the reference calculation timing is reached, the
For example, when the standard calculation flag is set to "1", the
Further, for example, when the standard calculation flag is set to "1", the
このように、覚醒度推定装置1は、顔判定装置2から、ドライバが我慢顔をしているか否かを示す顔判定情報を取得し、撮像画像における輝度を検出する。そして、覚醒度推定装置1は、取得した顔判定情報と、検出した輝度とに基づき、ドライバの覚醒度合いを推定する。
覚醒度推定装置1は、ドライバが我慢顔をしている場合に、周囲の状況はドライバが眩しいと感じると想定される状況であるかを考慮してドライバの覚醒度合いを推定することで、ドライバの覚醒度低下の誤推定を防ぐことができる。In this way, the alertness level estimation device 1 acquires face determination information indicating whether the driver is making a restrained face from the face determination device 2, and detects the brightness in the captured image. Then, the arousal degree estimating device 1 estimates the driver's arousal degree based on the acquired face determination information and the detected brightness.
The alertness level estimating device 1 estimates the driver's alertness level by considering whether the surrounding situation is such that the driver is expected to feel dazzling when the driver is holding back. It is possible to prevent erroneous estimation of the decrease in arousal level.
詳細には、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値未満である場合、ドライバの覚醒度が低下したと推定する。覚醒度推定装置1は、顔判定情報と撮像画像における輝度とから、ドライバが我慢顔をした場合に、当該我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。これにより、覚醒度推定装置1は、ドライバの覚醒度が低下したことの誤推定を防ぐことができる。 Specifically, the arousal level estimation device 1 determines that the acquired face determination information is face determination information indicating that the driver is making a patient face, and that the brightness in the detected captured image is less than the brightness determination threshold. If so, it is assumed that the driver's alertness level has decreased. The alertness level estimating device 1 determines, based on the face determination information and the brightness in the captured image, when the driver makes a patient face, whether the patient's patient face is a face made due to a decrease in the driver's arousal level or whether the driver is dazzling. You can tell whether it's a face made because you felt that way or not. Thereby, the alertness level estimation device 1 can prevent erroneous estimation that the driver's alertness level has decreased.
また、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値以上である場合、ドライバの覚醒度が低下していないと推定する。言い換えれば、ドライバは眩しいと感じたため我慢顔をしたと推定する。覚醒度推定装置1は、顔判定情報と撮像画像における輝度とから、ドライバが我慢顔をした場合に、当該我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。これにより、覚醒度推定装置1は、ドライバの覚醒度が低下したことの誤推定を防ぐことができる。 In addition, when the acquired face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the detected captured image is equal to or higher than the brightness determination threshold, the alertness level estimation device 1 , it is estimated that the driver's alertness level has not decreased. In other words, it is presumed that the driver put up his patience because he felt dazzled. The alertness level estimating device 1 determines, based on the face determination information and the brightness in the captured image, when the driver makes a patient face, whether the patient's patient face is a face made due to a decrease in the driver's arousal level or whether the driver is dazzling. You can tell whether it's a face made because you felt that way or not. Thereby, the alertness level estimation device 1 can prevent erroneous estimation that the driver's alertness level has decreased.
また、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値未満であっても、撮像画像上の輝度分布に基づきドライバの顔周辺が明るいと判定した場合は、ドライバの覚醒度が低下していないと推定するようにしてもよい。これにより、覚醒度推定装置1は、周囲に影等ができていてドライバが眩しいと感じるほどの明るさでなくても、ドライバの顔周辺が局所的に明るくなり、ドライバが眩しいと感じる状況となっている場合を考慮して、ドライバの我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。覚醒度推定装置1は、より精度よく、ドライバの覚醒度が低下したことの誤推定を防ぐことができる。 Further, the arousal level estimation device 1 determines that the acquired face determination information is face determination information indicating that the driver is making a patient face, and that the brightness in the detected captured image is less than the brightness determination threshold. Also, if it is determined that the area around the driver's face is bright based on the brightness distribution on the captured image, it may be estimated that the driver's alertness level has not decreased. As a result, the alertness estimation device 1 can detect a situation in which the area around the driver's face becomes locally bright and the driver feels dazzled, even if there are shadows etc. in the surrounding area and the brightness is not so bright that the driver feels dazzled. It is possible to distinguish whether the driver's patience face is a face made due to a decrease in the driver's alertness level or a face made because the driver feels dazzling. The alertness level estimation device 1 can more accurately prevent erroneous estimation of a decrease in the driver's alertness level.
また、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値以上であっても、撮像画像上の輝度分布に基づきドライバの顔周辺に影があると判定した場合は、ドライバの覚醒度が低下したと推定するようにしてもよい。これにより、覚醒度推定装置1は、周囲が、ドライバが眩しいと感じるほどの明るさであっても、ドライバの顔周辺が局所的に影になり、ドライバが眩しいと感じない状況となっている場合を考慮して、ドライバの我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。覚醒度推定装置1は、より精度よくドライバの覚醒度の低下を推定できる。 Further, the arousal level estimation device 1 determines that the acquired face determination information is face determination information indicating that the driver is making a patient face, and that the brightness in the detected captured image is equal to or higher than a brightness determination threshold. Also, if it is determined that there is a shadow around the driver's face based on the brightness distribution on the captured image, it may be estimated that the driver's alertness level has decreased. As a result, the alertness level estimation device 1 is able to create a situation in which even if the surroundings are bright enough to cause the driver to feel dazzled, the area around the driver's face is locally shaded and the driver does not feel dazzled. Considering the situation, it is possible to distinguish whether the driver's patience face is a face made because the driver's alertness level has decreased or a face made because the driver feels dazzling. The alertness level estimation device 1 can estimate a decrease in the driver's alertness level with higher accuracy.
また、覚醒度推定装置1は、詳細には覚醒度推定装置1の顔判定装置2は、撮像画像から検出した、ドライバの顔の複数の特徴点(両眉頭)の撮像画像上の座標を3次元座標に変換し、変換後の3次元座標から複数の特徴点の間の特徴点間距離(眉間距離)を算出する。そして、覚醒度推定装置1は、特徴点間距離と基準特徴点間距離とを比較することでドライバが我慢顔をしているか否かを判定し、特徴点間距離が基準特徴点間距離よりも第1閾値以上小さい場合、ドライバが我慢顔をしていると判定する。
覚醒度推定装置1は、複数の特徴点の撮像画像上の座標を3次元座標に変換して特徴点間距離を算出することで、算出される特徴点間距離が、ドライバの顔の、前後または左右への傾きの影響を受けないようにできる。つまり、覚醒度推定装置1は、特徴点の撮像画像上の座標を3次元座標に変換することなく特徴点間距離を算出する場合と比べ、精度よく特徴点間距離を算出できる。その結果、覚醒度推定装置1は、精度よく、ドライバが我慢顔をしているか否かを判定できる。In addition, the wakefulness estimation device 1, in detail, the face determination device 2 of the wakefulness estimation device 1 calculates the coordinates on the captured image of a plurality of feature points (the tips of both eyebrows) of the driver's face detected from the captured image. The feature points are converted into dimensional coordinates, and the inter-feature distance (distance between the eyebrows) between the plurality of feature points is calculated from the converted three-dimensional coordinates. Then, the alertness estimation device 1 determines whether the driver is making a patient face by comparing the distance between feature points and the reference distance between feature points, and the distance between feature points is larger than the reference distance between feature points. is smaller than the first threshold value, it is determined that the driver is making a patient face.
The alertness estimation device 1 calculates the distance between the feature points by converting the coordinates of the plurality of feature points on the captured image into three-dimensional coordinates, so that the distance between the feature points calculated is the distance between the front and back of the driver's face. Or it can be made unaffected by tilting to the left or right. In other words, the arousal level estimation device 1 can calculate the distance between feature points with higher accuracy than when calculating the distance between feature points without converting the coordinates of the feature points on the captured image into three-dimensional coordinates. As a result, the alertness level estimation device 1 can accurately determine whether the driver is wearing a patient expression.
また、覚醒度推定装置1は、算出した特徴点間距離の、基準算出対象期間分の履歴に基づき、基準特徴点間距離を算出し、特徴点間距離と基準特徴点間距離とを比較する。覚醒度推定装置1は、覚醒度合いを推定する対象となるドライバにあわせて、基準特徴点間距離を設定できる。
また、覚醒度推定装置1は、特徴点間距離と基準特徴点間距離とを比較した結果、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定した場合は、基準特徴点間距離を再計算する。これにより、覚醒度推定装置1は、ドライバが我慢顔をしていないときの特徴点間距離とみなす基準特徴点間距離としてふさわしくない基準特徴点間距離に基づいて、ドライバが我慢顔をしているか否かを判定しないようにできる。In addition, the arousal level estimation device 1 calculates a reference distance between feature points based on the history of the calculated distance between feature points for the reference calculation target period, and compares the distance between feature points and the reference distance between feature points. . The alertness level estimation device 1 can set the distance between reference feature points according to the driver whose alertness level is to be estimated.
Further, as a result of comparing the inter-feature point distance and the reference inter-feature point distance, if the arousal level estimation device 1 determines that the inter-feature point distance is greater than the reference feature point distance by the second threshold or more, the reference Recalculate the distance between points. As a result, the alertness estimation device 1 determines whether the driver is making a patient face based on the reference feature point distance that is not suitable as the reference feature point distance, which is considered as the distance when the driver is not making a patient face. It is possible to avoid determining whether or not the
図6Aおよび図6Bは、実施の形態1に係る覚醒度推定装置1のハードウェア構成の一例を示す図である。
実施の形態1において、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能は、処理回路101により実現される。すなわち、覚醒度推定装置1は、顔判定装置2が撮像画像に基づきドライバが我慢顔をしているか否かを判定した結果と撮像画像における輝度に基づき、ドライバの覚醒度合いを推定する制御を行うための処理回路101を備える。
処理回路101は、図6Aに示すように専用のハードウェアであっても、図6Bに示すようにメモリに格納されるプログラムを実行するプロセッサ104であってもよい。6A and 6B are diagrams illustrating an example of the hardware configuration of the alertness level estimation device 1 according to the first embodiment.
In the first embodiment, the face determination
The
処理回路101が専用のハードウェアである場合、処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
When the
処理回路がプロセッサ104の場合、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ105に記憶される。プロセッサ104は、メモリ105に記憶されたプログラムを読み出して実行することにより、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能を実行する。すなわち、覚醒度推定装置1は、プロセッサ104により実行されるときに、上述の図2のステップST1~ステップST8が結果的に実行されることになるプログラムを格納するためのメモリ105を備える。また、メモリ105に記憶されたプログラムは、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の処理の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ105とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
When the processing circuit is the
なお、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、画像取得部21については専用のハードウェアとしての処理回路101でその機能を実現し、顔判定情報取得部11と、輝度検出部12と、推定部13と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25についてはプロセッサ104がメモリ105に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
記憶部26は、例えば、メモリで構成される。
また、覚醒度推定装置1は、撮像装置3または図示しない出力装置等の装置と、有線通信または無線通信を行う入力インタフェース装置102および出力インタフェース装置103を備える。Note that the face determination
The
The alertness estimation device 1 also includes an
以上の実施の形態1では、特徴点検出部22が検出する複数の特徴点は、ドライバの両眉頭を示す特徴点とし、距離算出部23は、撮像画像上のドライバの両眉頭を示す特徴点の座標に基づいて、眉間距離を、特徴点間距離として算出した。そして、顔判定部25は、距離算出部23が算出した眉間距離と基準特徴点間距離とを比較して、ドライバが我慢顔をしているか否かを判定した。しかし、これは一例に過ぎない。
例えば、以上の実施の形態1において、特徴点検出部22が検出する複数の特徴点は、ドライバの両眉頭およびドライバの両目頭を示す特徴点とし、距離算出部23は、撮像画像上のドライバの両眉頭および両目頭を示す特徴点の座標に基づいて、眉間距離と両目頭間の距離とを、それぞれ特徴点間距離として算出してもよい。顔判定部25は、眉間距離と両目頭間の距離とを、それぞれ基準特徴点間距離と比較して、ドライバが我慢顔をしているか否かを判定する。なお、この場合、基準距離算出部24は、眉間距離に対応する基準特徴点間距離と、両目頭間の距離に対応する基準特徴点間距離とを算出する。
また、例えば、以上の実施の形態1において、特徴点検出部22が検出する複数の特徴点は、ドライバの両目頭を示す特徴点とし、距離算出部23は、撮像画像上のドライバの両目頭を示す特徴点の座標に基づいて、両目頭間の距離を特徴点間距離として算出してもよい。顔判定部25は、両目頭間の距離を基準特徴点間距離と比較して、ドライバが我慢顔をしているか否かを判定する。なお、この場合、基準距離算出部24は、両目頭間の距離に対応する基準特徴点間距離を算出する。
ただし、目に関する特徴点は、眉に関する特徴点に比べ、検出されない可能性が高い。例えば、ドライバがサングラスを装着している場合、特徴点検出部22はドライバの目に関する特徴点を検出できない。したがって、覚醒度推定装置1,1aにおいては、両眉頭を示す特徴点に基づいて算出した眉間距離と基準特徴点間距離とを比較してドライバが我慢顔をしているか否かを判定することが好ましい。覚醒度推定装置1,1aは、両眉頭を示す特徴点に基づいて算出した眉間距離と基準特徴点間距離とを比較してドライバが我慢顔をしているか否かを判定することで、当該判定ができない事態に陥る可能性を低減できる。In the above-described first embodiment, the plurality of feature points detected by the feature
For example, in the first embodiment described above, the plurality of feature points detected by the feature
Further, for example, in the first embodiment described above, the plurality of feature points detected by the feature
However, feature points related to eyes are more likely not to be detected than feature points related to eyebrows. For example, if the driver is wearing sunglasses, the feature
また、以上の実施の形態1において、覚醒度推定装置が、個人認証機能を備えることもできる。個人認証機能を備えることで、覚醒度推定装置は、あるドライバの運転開始時に、基準特徴点間距離の算出を待たなくても、前回の運転時に算出済の基準特徴点間距離を用いて当該あるドライバが我慢顔をしているか否かを判定することができる。なお、この場合、覚醒度推定装置は、記憶部に記憶されている基準距離情報を、車両の電源がオフされた際に削除しなくてよい。以下、詳細に説明する。 Furthermore, in the first embodiment described above, the alertness level estimating device may also include a personal authentication function. By being equipped with a personal authentication function, when a driver starts driving, the alertness estimation device can use the distance between standard feature points that has already been calculated during the previous driving, without waiting for the calculation of the distance between standard feature points. It is possible to determine whether a certain driver is holding back. In this case, the alertness level estimation device does not need to delete the reference distance information stored in the storage unit when the vehicle is powered off. This will be explained in detail below.
図7は、実施の形態1において、個人認証機能を備えるようにした覚醒度推定装置1aの構成例を示す図である。
図7において、図1を用いて説明した覚醒度推定装置1と同様の構成については、同じ符号を付して重複した説明を省略する。なお、ここでは、覚醒度推定装置1aは、個人認証機能を、顔判定装置2aに備えるものとする。
図7に示す顔判定装置2aは、図1を用いて説明した顔判定装置2とは、個人認証部27を備える点が異なる。また、図7に示す顔判定装置2aにおける基準距離算出部24および顔判定部25の具体的な動作が、図1に示す顔判定装置2における基準距離算出部24および顔判定部25の具体的な動作とは異なる。FIG. 7 is a diagram illustrating a configuration example of an alertness level estimation device 1a equipped with a personal authentication function in the first embodiment.
In FIG. 7, the same components as the alertness level estimating device 1 explained using FIG. Here, it is assumed that the arousal level estimation device 1a includes a personal authentication function in the face determination device 2a.
The face determination device 2a shown in FIG. 7 differs from the face determination device 2 described using FIG. 1 in that it includes a
個人認証部27は、ドライバの個人認証を行う。
例えば、個人認証部27は、予めドライバの顔画像を記憶しておき、画像取得部21から取得した撮像画像とパターンマッチングにより、ドライバの個人認証を行う。なお、これは一例に過ぎず、個人認証部27は、公知の個人認証技術を用いて、ドライバの個人認証を行えばよい。
個人認証部27は、個人認証の結果(以下「個人認証結果」という。)を、基準距離算出部24および顔判定部25に出力する。The
For example, the
The
基準距離算出部24は、個人認証部27による個人認証結果に基づき、個人毎の基準特徴点間距離を算出する。具体的には、基準距離算出部24は、個人認証部27が認証したドライバの基準特徴点間距離として、当該基準特徴点間距離を算出する。
基準距離算出部24は、算出した基準特徴点間距離と、ドライバ個人を特定可能な情報とを対応付けた情報を、基準距離情報として、記憶部26に記憶させる。なお、基準距離算出部24は、ドライバ個人を特定可能な情報は、個人認証結果に含まれている。
また、顔判定部25は、個人認証部27による個人認証結果に基づき、ドライバが我慢顔をしているか否かの判定を行う。具体的には、顔判定部25は、個人認証部27による個人認証結果と、記憶部26に記憶されている基準距離情報とをつきあわせ、ドライバの基準特徴点間距離を特定する。そして、顔判定部25は、距離算出部23が算出した特徴点間距離と、特定したドライバの基準特徴点間距離とを比較することで、ドライバが我慢顔をしているか否かを判定する。顔判定部25は、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定し、再計算指示部251にその旨の通知をする際には、ドライバ個人を特定可能な情報をあわせて通知する。再計算指示部251は、基準距離算出部24に対して基準特徴点間距離の再計算を指示する際、ドライバ個人を特定可能な情報をあわせて出力する。基準距離算出部24は、ドライバの基準特徴点間距離の再計算を行うと、記憶部26に記憶されている、当該ドライバに対応する基準距離情報を更新する。The reference
The reference
Further, the
このように、基準距離算出部24が、個人を特定可能な情報と基準特徴点間距離とが対応付けられた基準距離情報を記憶部26に記憶しておくことで、顔判定部25は、あるドライバの運転開始時に、基準特徴点間距離の算出を待たなくても、前回の運転時に算出済の基準特徴点間距離があれば、その基準特徴点間距離を用いて、当該あるドライバが我慢顔をしているか否かを判定することができる。
In this way, the reference
図8は、実施の形態1において、個人認証機能を備えるようにした覚醒度推定装置1aの動作を説明するためのフローチャートである。
図8のステップST51、ステップST53~55、ステップST57~ステップST59の具体的な動作は、それぞれ、図2のステップST1~ステップST4、ステップST6~8の具体的な動作と同様であるため、重複した説明を省略する。FIG. 8 is a flowchart for explaining the operation of the alertness level estimation device 1a equipped with a personal authentication function in the first embodiment.
The specific operations of step ST51, steps ST53 to ST55, and steps ST57 to ST59 in FIG. 8 are the same as the specific operations of steps ST1 to ST4 and steps ST6 to ST8 in FIG. 2, respectively, so there is no overlap. The explanation given will be omitted.
個人認証部27は、ドライバの個人認証を行う(ステップST52)。
個人認証部27は、個人認証結果を、基準距離算出部24および顔判定部25に出力する。The
The
顔判定部25は、ステップST52における個人認証部27による個人認証結果に基づき、ドライバが我慢顔をしているか否かの我慢顔判定処理を行う(ステップST56)。
我慢顔判定処理において、顔判定部25は、記憶部26に、ドライバに対応する基準距離情報が記憶されている場合、当該基準距離情報に基づいてドライバの基準特徴点間距離を取得し、特徴点間距離との比較を行う。
また、我慢顔判定処理において、再計算指示部251は、基準距離算出部24に対して、基準特徴点間距離の再計算を指示する場合、ドライバ個人を特定可能な情報をあわせて出力する。The
In the patient face determination process, if the
In addition, in the patience face determination process, when instructing the reference
なお、覚醒度推定装置1aが図7に示すような構成である場合、基準距離算出部24は、図5のステップST52における個人認証部27による個人認証結果に基づき、個人毎に、図5を用いて説明した処理を行い、個人毎の基準特徴点間距離を算出する。
そして、基準距離算出部24は、算出した基準特徴点間距離と、ドライバ個人を特定可能な情報とを対応付けた情報を、基準距離情報として、記憶部26に記憶させる。Note that when the alertness level estimating device 1a has a configuration as shown in FIG. The distance between reference feature points for each individual is calculated by performing the process described using the above method.
Then, the reference
覚醒度推定装置1aが、図7に示すような構成であった場合のハードウェア構成の一例は、図6Aおよび図6Bに示すとおりである。
顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27の機能は、処理回路101により実現される。すなわち、覚醒度推定装置1aは、顔判定装置2aが撮像画像に基づきドライバが我慢顔をしているか否かを判定した結果と撮像画像における輝度に基づき、ドライバの覚醒度合いを推定するとともに、個人認証を行い、個人認証結果と基準距離情報とを対応付けて記憶させておく制御を行うための処理回路101を備える。
処理回路101は、メモリ105に記憶されたプログラムを読み出して実行することにより、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27の機能を実行する。すなわち、覚醒度推定装置1aは、処理回路101により実行されるときに、上述の図8のステップST51~ステップST59が結果的に実行されることになるプログラムを格納するためのメモリ105を備える。また、メモリ105に記憶されたプログラムは、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27の処理の手順または方法をコンピュータに実行させるものであるとも言える。
覚醒度推定装置1aは、撮像装置3または図示しない出力装置等の装置と、有線通信または無線通信を行う入力インタフェース装置102および出力インタフェース装置103を備える。An example of the hardware configuration when the alertness level estimation device 1a has the configuration shown in FIG. 7 is as shown in FIGS. 6A and 6B.
A face determination
The
The alertness estimation device 1a includes an
また、以上の実施の形態1では、覚醒度推定装置1が覚醒度合いを推定する対象となる人は、車両のドライバとし、覚醒度合いを推定する対象となる人は1人であることを前提としていたが、これは一例に過ぎない。覚醒度推定装置が覚醒度合いを推定する対象となる人は、複数であってもよい。例えば、覚醒度推定装置は、ドライバの他、助手席乗員または後席乗員を含む、車両の複数の乗員の覚醒度合いを推定してもよい。 Furthermore, in the first embodiment described above, it is assumed that the person whose arousal degree is estimated by the arousal degree estimating device 1 is the driver of the vehicle, and that there is only one person whose arousal degree is estimated. However, this is just one example. The number of people whose arousal level is estimated by the arousal level estimating device may be plural. For example, the alertness level estimating device may estimate the alertness levels of multiple occupants of the vehicle, including the driver, front passenger seat occupant, or rear seat occupant.
覚醒度推定装置1が図1に示すような構成であり、個人認証機能を備えない場合、例えば、特徴点検出部22は、撮像画像に基づいて、各乗員の座席位置を判定し、座席位置毎に複数の特徴点を検出する。そして、特徴点検出部22は、各乗員を特定可能な情報と検出した複数の特徴点と対応付けた情報を特徴点情報として、距離算出部23に出力する。ここでは、各乗員を特定可能な情報は、座席位置に関する情報とする。
距離算出部23は、特徴点検出部22が判定した座席位置に対応する乗員毎に、特徴点間距離を算出する。距離算出部23は、各乗員を特定可能な情報と特徴点間距離とを対応付けた情報を距離情報として、記憶部26に記憶させるとともに顔判定部25に出力する。
基準距離算出部24は、特徴点検出部22が判定した座席位置に対応する乗員毎に、基準特徴点間距離を算出する。基準距離算出部24は、各乗員を特定可能な情報と基準特徴点間距離とを対応付けた情報を基準距離情報として、記憶部26に記憶させる。
顔判定部25は、距離情報と基準距離情報とに基づき、乗員毎に、我慢顔をしているか否かを判定する。
顔判定部25は、各乗員を特定可能な情報と我慢顔をしているか否かを示す情報とを対応付けた情報を顔判定情報として、顔判定情報取得部11に出力する。
なお、再計算指示部251が、基準距離算出部24に対して基準特徴点間距離の再計算を指示する際は、各乗員を特定可能な情報をあわせて出力する。基準距離算出部24は、基準特徴点間距離の再計算を行うと、記憶部26に記憶されている、対応する乗員の基準距離情報を更新する。
推定部13は、乗員毎に、覚醒度合いを推定する。なお、推定部13は、例えば、特徴点検出部22から出力される特徴点情報と顔判定情報取得部11から出力される顔判定情報とから、各乗員を判定できる。If the alertness level estimation device 1 has the configuration shown in FIG. 1 and does not include a personal authentication function, for example, the feature
The
The reference
The
The
Note that when the
The
例えば、覚醒度推定装置1aが図7に示すような構成であり、個人認証機能を備えている場合は、顔判定装置2aは、個人認証結果に基づいて、乗員毎に、我慢顔をしているか否かの判定を行えばよい。また、推定部13は、個人認証結果に基づいて、乗員毎に、覚醒度合いの推定を行えばよい。
具体的には、特徴点検出部22は、個人認証部27による個人認証結果に基づき、乗員毎に複数の特徴点を検出する。なお、図7では、個人認証部27から特徴点検出部22への矢印は省略している。特徴点検出部22は、検出した複数の特徴点と個人認証結果とを対応付けた情報を特徴点情報として、距離算出部23に出力する。
距離算出部23は、個人認証部27による個人認証結果に基づき、乗員毎に特徴点間距離を算出する。距離算出部23は、算出した特徴点間距離と個人認証結果とを対応付けた情報を距離情報として、記憶部26に記憶させるとともに顔判定部25に出力する。
基準距離算出部は、個人認証部27による個人認証結果に基づき、乗員毎の基準特徴点間距離を算出する。基準距離算出部24は、基準特徴点間距離と個人認証結果とを対応付けた情報を基準距離情報として、記憶部26に記憶させる。
顔判定部25は、個人認証部27による個人認証結果に基づき、乗員毎に、我慢顔をしているか否かを判定する。顔判定部25は、我慢顔をしているか否かを示す情報と個人認証結果とを対応付けた情報を顔判定情報として、顔判定情報取得部11に出力する。
推定部13は、個人認証部27による個人認証結果に基づき、乗員毎に、覚醒度合いを推定する。なお、推定部13は、例えば、特徴点検出部22から出力される特徴点情報と顔判定情報取得部11から出力される顔判定情報とから、各乗員を判定できる。For example, if the alertness estimation device 1a has a configuration as shown in FIG. 7 and is equipped with a personal authentication function, the face determination device 2a can make a patient face for each passenger based on the personal authentication results. All you have to do is determine whether or not there is one. Furthermore, the
Specifically, the feature
The
The reference distance calculating section calculates the distance between reference feature points for each occupant based on the personal authentication result by the
The
The
また、以上の実施の形態1では、覚醒度推定装置1,1aは、車両に搭載される車載装置とし、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、覚醒度推定装置1aが図7に示すような構成であった場合の個人認証部27は、車載装置に備えられているものとした。
これに限らず、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで覚醒度推定システムを構成するようにしてもよい。
また、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27が全部サーバに備えられてもよい。In the first embodiment described above, the alertness level estimation devices 1 and 1a are in-vehicle devices installed in a vehicle, and include a face determination
However, the present invention is not limited to this, but the face determination
Further, the face determination
また、以上の実施の形態1では、顔判定装置2は覚醒度推定装置1に備えられ、顔判定装置2aは覚醒度推定装置1aに備えられていたが、これは一例に過ぎない。顔判定装置2は、覚醒度推定装置1の外部にて、覚醒度推定装置1と接続されていてもよい。また、顔判定装置2aは、覚醒度推定装置1aの外部にて、覚醒度推定装置1aと接続されていてもよい。
また、顔判定装置2が備える各構成部のうちの一部が、覚醒度推定装置1に備えられてもよいし、顔判定装置2aが備える各構成部のうちの一部が、覚醒度推定装置1aに備えられてもよい。例えば、画像取得部21、特徴点検出部22、距離算出部23、または、基準距離算出部24が、覚醒度推定装置1に備えられてもよいし、画像取得部21、特徴点検出部22、距離算出部23、基準距離算出部24、または、個人認証部27が、覚醒度推定装置1aに備えられてもよい。Further, in the first embodiment described above, the face determination device 2 is included in the arousal level estimation device 1, and the face determination device 2a is included in the arousal level estimation device 1a, but this is only an example. The face determination device 2 may be connected to the arousal level estimation device 1 outside of the arousal level estimation device 1 . Further, the face determination device 2a may be connected to the arousal level estimation device 1a outside of the arousal level estimation device 1a.
Further, some of the components included in the face determination device 2 may be included in the arousal level estimation device 1, and some of the components included in the face determination device 2a may be included in the arousal level estimation device 1. It may be provided in the device 1a. For example, the
また、以上の実施の形態1では、覚醒度推定装置1,1aが覚醒度合いを推定する対象となる人は車両のドライバ、または、当該ドライバを含む車両の乗員としたが、これは一例に過ぎない。覚醒度推定装置1,1aは、車両の乗員に限らず、あらゆる人の覚醒度合いを推定するようにできる。例えば、覚醒度推定装置1,1aは、車両以外の移動体、または、居室に存在する人の覚醒度合いを推定するようにできる。なお、この場合、撮像装置3も、車両に搭載されているものに限定されない。撮像装置3は、覚醒度推定装置1,1aが覚醒度合いを推定する対象となる人の顔が存在すべき範囲を撮像可能な位置に設置されていればよい。 Further, in the first embodiment described above, the person whose alertness level is estimated by the alertness level estimation devices 1 and 1a is the driver of the vehicle or the occupant of the vehicle including the driver, but this is only an example. do not have. The alertness level estimation devices 1 and 1a are capable of estimating the alertness level of not only the occupants of a vehicle but also all people. For example, the alertness level estimation devices 1 and 1a can estimate the alertness level of a moving object other than a vehicle or a person present in a room. Note that in this case, the imaging device 3 is not limited to one that is mounted on a vehicle. The imaging device 3 may be installed at a position where it can image the range where the face of the person whose arousal degree is to be estimated by the arousal level estimation devices 1 and 1a is present.
以上のように、実施の形態1によれば、覚醒度推定装置1,1aは、人が眉間にしわを寄せた顔(我慢顔)をしているか否かを示す顔判定情報を取得する顔判定情報取得部11と、人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出する輝度検出部12と、顔判定情報取得部11が取得した顔判定情報と、輝度検出部12が検出した輝度とに基づき、人の覚醒度合いを推定する推定部13とを備えるように構成した。そのため、覚醒度推定装置1は、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定することで、人の覚醒度低下の誤推定を防ぐことができる。
As described above, according to Embodiment 1, the arousal level estimating device 1, 1a uses a face for acquiring face determination information indicating whether or not a person has a face with wrinkles between the eyebrows (patience face). A determination
なお、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 Note that it is possible to modify any component of the embodiment or omit any component of the embodiment.
本開示の覚醒度推定装置は、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定するため、人の覚醒度低下の誤推定を防ぐことができる。 The alertness estimation device of the present disclosure estimates a person's alertness level by considering whether the surrounding situation is such that the person is expected to feel dazzling when the person has furrowed eyebrows. Therefore, it is possible to prevent erroneous estimation of a decrease in a person's alertness level.
1,1a 覚醒度推定装置、11 顔判定情報取得部、12 輝度検出部、13 推定部、2,2a 顔判定装置、21 画像取得部、22 特徴点検出部、23 距離算出部、24 基準距離算出部、25 顔判定部、251 再計算指示部、26 記憶部、27 個人認証部、3 撮像装置、101 処理回路、102 入力インタフェース装置、103 出力インタフェース装置、104 プロセッサ、105 メモリ。 Reference Signs List 1, 1a alertness level estimation device, 11 face determination information acquisition unit, 12 brightness detection unit, 13 estimation unit, 2, 2a face determination device, 21 image acquisition unit, 22 feature point detection unit, 23 distance calculation unit, 24 reference distance calculation unit, 25 face determination unit, 251 recalculation instruction unit, 26 storage unit, 27 personal authentication unit, 3 imaging device, 101 processing circuit, 102 input interface device, 103 output interface device, 104 processor, 105 memory.
Claims (13)
人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出する輝度検出部と、
前記顔判定情報取得部が取得した前記顔判定情報と、前記輝度検出部が検出した前記輝度とに基づき、前記人の覚醒度合いを推定する推定部
とを備えた覚醒度推定装置。a face determination information acquisition unit that acquires face determination information indicating whether a person has a face with wrinkles between the eyebrows;
a brightness detection unit that detects brightness in a captured image in which a range where a human face should exist;
An arousal level estimating device comprising: an estimating unit that estimates a degree of arousal of the person based on the face determination information acquired by the face determination information acquisition unit and the brightness detected by the brightness detection unit.
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が輝度判定用閾値未満である場合、前記人の覚醒度が低下したと推定する
ことを特徴とする請求項1記載の覚醒度推定装置。The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit The alertness level estimating device according to claim 1, wherein if the brightness determination threshold is less than a brightness determination threshold, it is estimated that the person's alertness level has decreased.
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が輝度判定用閾値以上である場合、前記人の覚醒度が低下していないと推定する
ことを特徴とする請求項1記載の覚醒度推定装置。The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit 2. The alertness level estimating device according to claim 1, wherein the alertness level estimating device estimates that the person's alertness level has not decreased when the brightness determination threshold value is greater than or equal to a brightness determination threshold.
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が前記輝度判定用閾値未満であっても、前記撮像画像上の輝度分布に基づき前記人の顔周辺が明るいと判定した場合は、前記人の覚醒度が低下していないと推定する
ことを特徴とする請求項2記載の覚醒度推定装置。The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit is less than the brightness determination threshold, if it is determined that the area around the person's face is bright based on the brightness distribution on the captured image, it is estimated that the person's alertness level has not decreased. The alertness level estimating device according to claim 2.
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が前記輝度判定用閾値以上であっても、前記撮像画像上の輝度分布に基づき前記人の顔周辺に影があると判定した場合は、前記人の覚醒度が低下したと推定する
ことを特徴とする請求項3記載の覚醒度推定装置。The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit is greater than or equal to the brightness determination threshold, if it is determined that there is a shadow around the person's face based on the brightness distribution on the captured image, it is estimated that the person's alertness level has decreased. The alertness level estimating device according to claim 3.
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていないことを示す前記顔判定情報である場合は、前記撮像画像に基づき、前記人の前記覚醒度合いを推定する
ことを特徴とする請求項1記載の覚醒度推定装置。The estimation unit is
When the face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person does not have a face with wrinkled eyebrows, the face determination information of the person is determined based on the captured image. The alertness level estimating device according to claim 1, further comprising: estimating the alertness level.
ことを特徴とする請求項1記載の覚醒度推定装置。The alertness level estimation device according to claim 1, wherein the brightness detection unit sets an average value of brightness values of pixels on the captured image as the brightness of the captured image.
前記画像取得部が取得した前記撮像画像上の、前記人の顔の複数の特徴点を検出する特徴点検出部と、
前記特徴点検出部が検出した前記複数の前記特徴点の前記撮像画像上の座標を3次元座標に変換し、変換後の前記3次元座標から前記複数の前記特徴点の間の特徴点間距離を算出する距離算出部と、
前記距離算出部が算出した前記特徴点間距離と基準特徴点間距離とを比較することで前記人が眉間にしわを寄せた顔をしているか否かを判定し、前記特徴点間距離が前記基準特徴点間距離よりも第1閾値以上小さい場合、前記人が眉間にしわを寄せた顔をしていると判定する顔判定部
とを備えた請求項1記載の覚醒度推定装置。an image acquisition unit that acquires the captured image;
a feature point detection unit that detects a plurality of feature points of the human face on the captured image acquired by the image acquisition unit;
The coordinates of the plurality of feature points detected by the feature point detection unit on the captured image are converted into three-dimensional coordinates, and the inter-feature distance between the plurality of feature points is determined from the converted three-dimensional coordinates. a distance calculation unit that calculates
By comparing the distance between the feature points calculated by the distance calculation unit and the reference distance between the feature points, it is determined whether the person has a face with wrinkles between the eyebrows, and the distance between the feature points is determined. The arousal level estimating device according to claim 1, further comprising: a face determining unit that determines that the person has a face with wrinkles between the eyebrows when the distance is smaller than the reference inter-feature point distance by a first threshold value or more.
前記顔判定部は、前記距離算出部が算出した前記特徴点間距離と前記基準距離算出部が算出した前記基準特徴点間距離とを比較する
ことを特徴とする請求項8記載の覚醒度推定装置。a reference distance calculation unit that calculates the reference distance between feature points based on a history of the distance between feature points calculated by the distance calculation unit for a reference calculation target period;
The arousal level estimation according to claim 8, wherein the face determination unit compares the inter-feature point distance calculated by the distance calculation unit and the reference inter-feature point distance calculated by the reference distance calculation unit. Device.
前記基準距離算出部は、前記再計算指示部から前記基準特徴点間距離の再計算を指示された場合、前記基準特徴点間距離を再算出する
ことを特徴とする請求項9記載の覚醒度推定装置。If the face determination unit compares the inter-feature point distance with the reference inter-feature point distance and determines that the inter-feature point distance is greater than the reference inter-feature point distance by a second threshold value or more, the reference distance comprising a recalculation instruction unit that instructs the calculation unit to recalculate the distance between the reference feature points,
The alertness level according to claim 9, wherein the reference distance calculation unit recalculates the reference inter-feature point distance when instructed to recalculate the reference inter-feature point distance from the recalculation instruction unit. Estimation device.
前記基準距離算出部は、前記個人認証部による前記個人認証の結果に基づき、個人毎の前記基準特徴点間距離を算出し、
前記顔判定部は、前記個人認証部による前記個人認証の結果と、前記基準距離算出部が算出した前記個人毎の前記基準特徴点間距離に基づき、前記特徴点間距離と比較する前記基準特徴点間距離を特定する
ことを特徴とする請求項9記載の覚醒度推定装置。comprising a personal authentication unit that performs personal authentication of the person,
The reference distance calculation unit calculates the distance between the reference feature points for each individual based on the result of the individual authentication by the individual authentication unit,
The face determination unit compares the reference feature with the distance between feature points based on the result of the personal authentication by the individual authentication unit and the reference distance between feature points for each individual calculated by the reference distance calculation unit. The alertness level estimation device according to claim 9, characterized in that a distance between points is specified.
ことを特徴とする請求項8記載の覚醒度推定装置。The arousal level estimation device according to claim 8, wherein the plurality of feature points are the tips of both eyebrows of the person, and the distance between the feature points is a distance between the tips of the eyebrows of the person.
輝度検出部が、人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出するステップと、
推定部が、前記顔判定情報取得部が取得した前記顔判定情報と、前記輝度検出部が検出した前記輝度とに基づき、前記人の覚醒度合いを推定するステップ
とを備えた覚醒度推定方法。a step in which the face determination information acquisition unit acquires face determination information indicating whether the person has a face with wrinkles between the eyebrows;
a step in which the brightness detection unit detects brightness in a captured image in which a range where a human face should exist;
An arousal degree estimation method, comprising: an estimating section estimating the arousal degree of the person based on the face determination information acquired by the face determination information acquisition section and the brightness detected by the brightness detection section.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/043119 WO2023095229A1 (en) | 2021-11-25 | 2021-11-25 | Wakefulness estimation device and wakefulness estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023095229A1 JPWO2023095229A1 (en) | 2023-06-01 |
JP7403729B2 true JP7403729B2 (en) | 2023-12-22 |
Family
ID=86539106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023561121A Active JP7403729B2 (en) | 2021-11-25 | 2021-11-25 | Awakening level estimation device and arousal level estimation method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7403729B2 (en) |
DE (1) | DE112021008239T5 (en) |
WO (1) | WO2023095229A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008212298A (en) | 2007-03-01 | 2008-09-18 | Toyota Central R&D Labs Inc | Sleepiness judging apparatus and program |
JP2008242602A (en) | 2007-03-26 | 2008-10-09 | Denso Corp | Drowsiness alarm apparatus and program |
JP2010142345A (en) | 2008-12-17 | 2010-07-01 | Aisin Seiki Co Ltd | Opened/closed eye recognizing apparatus and program |
JP2011043961A (en) | 2009-08-20 | 2011-03-03 | Toyota Motor Corp | Driver monitoring device |
JP2014013448A (en) | 2012-07-03 | 2014-01-23 | Daiwa House Industry Co Ltd | Unpleasantness degree estimation system and unpleasantness degree estimation method |
WO2020121425A1 (en) | 2018-12-12 | 2020-06-18 | 三菱電機株式会社 | State determination device, state determination method, and state determination program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007245911A (en) * | 2006-03-15 | 2007-09-27 | Omron Corp | Monitoring device and method, recording medium and program |
JP2009096384A (en) * | 2007-10-18 | 2009-05-07 | Aisin Seiki Co Ltd | Driving assistance system and method |
JP5045492B2 (en) * | 2008-02-27 | 2012-10-10 | トヨタ自動車株式会社 | Awakening level estimation device |
-
2021
- 2021-11-25 WO PCT/JP2021/043119 patent/WO2023095229A1/en active Application Filing
- 2021-11-25 JP JP2023561121A patent/JP7403729B2/en active Active
- 2021-11-25 DE DE112021008239.6T patent/DE112021008239T5/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008212298A (en) | 2007-03-01 | 2008-09-18 | Toyota Central R&D Labs Inc | Sleepiness judging apparatus and program |
JP2008242602A (en) | 2007-03-26 | 2008-10-09 | Denso Corp | Drowsiness alarm apparatus and program |
JP2010142345A (en) | 2008-12-17 | 2010-07-01 | Aisin Seiki Co Ltd | Opened/closed eye recognizing apparatus and program |
JP2011043961A (en) | 2009-08-20 | 2011-03-03 | Toyota Motor Corp | Driver monitoring device |
JP2014013448A (en) | 2012-07-03 | 2014-01-23 | Daiwa House Industry Co Ltd | Unpleasantness degree estimation system and unpleasantness degree estimation method |
WO2020121425A1 (en) | 2018-12-12 | 2020-06-18 | 三菱電機株式会社 | State determination device, state determination method, and state determination program |
Also Published As
Publication number | Publication date |
---|---|
DE112021008239T5 (en) | 2024-08-22 |
JPWO2023095229A1 (en) | 2023-06-01 |
WO2023095229A1 (en) | 2023-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6695503B2 (en) | Method and system for monitoring the condition of a vehicle driver | |
CN104573623B (en) | Face detection device and method | |
JP5109922B2 (en) | Driver monitoring device and program for driver monitoring device | |
JP6303297B2 (en) | Terminal device, gaze detection program, and gaze detection method | |
JP6187817B2 (en) | Face detection apparatus, method and program | |
US8345922B2 (en) | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil | |
JP4915413B2 (en) | Detection apparatus and method, and program | |
JP6090129B2 (en) | Viewing area estimation device | |
JP2006293909A (en) | Driver sight line direction detecting device | |
JP4776581B2 (en) | Sleep state detection method, sleep state detection device, sleep state detection system, and computer program | |
JPWO2018134875A1 (en) | Trap detection device, snooze determination device, and trap detection method | |
JP4623172B2 (en) | Pupil detection device, program for pupil detection device, and pupil detection method | |
JP3905544B2 (en) | Face image processing device | |
JP7403729B2 (en) | Awakening level estimation device and arousal level estimation method | |
WO2022113275A1 (en) | Sleep detection device and sleep detection system | |
JPH0981756A (en) | Face image processor | |
JP2007034436A (en) | Arousal estimation device and method | |
JP2017134777A (en) | Operation determination program, operation determination method and control unit | |
JP7374386B2 (en) | Condition determination device and condition determination method | |
JP4623171B2 (en) | Pupil detection device, program for pupil detection device, and pupil detection method | |
CN108614958A (en) | Method of controlling security, device and mobile terminal, the storage medium of application program | |
JP2008129901A (en) | Glasses detection device, image processor, glasses detection method and computer program | |
KR20150046889A (en) | Tail gate opening angle control device using camera image, and the method of thereof | |
CN107273847B (en) | Iris acquisition method and apparatus, electronic device, and computer-readable storage medium | |
CN108537552B (en) | Payment method, device and system based on lens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231004 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7403729 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |