JP7281733B2 - MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM - Google Patents
MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM Download PDFInfo
- Publication number
- JP7281733B2 JP7281733B2 JP2019077409A JP2019077409A JP7281733B2 JP 7281733 B2 JP7281733 B2 JP 7281733B2 JP 2019077409 A JP2019077409 A JP 2019077409A JP 2019077409 A JP2019077409 A JP 2019077409A JP 7281733 B2 JP7281733 B2 JP 7281733B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- information
- subject
- state
- consciousness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 144
- 238000000034 method Methods 0.000 title claims description 75
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 2
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000008569 process Effects 0.000 claims description 58
- 210000000744 eyelid Anatomy 0.000 claims description 32
- 210000001508 eye Anatomy 0.000 claims description 25
- 230000004397 blinking Effects 0.000 claims description 21
- 208000003443 Unconsciousness Diseases 0.000 description 35
- 238000003384 imaging method Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 16
- 238000000605 extraction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000004399 eye closure Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 206010010071 Coma Diseases 0.000 description 2
- 208000032140 Sleepiness Diseases 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 2
- 208000010513 Stupor Diseases 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 210000003109 clavicle Anatomy 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000004297 night vision Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010047700 Vomiting Diseases 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005187 foaming Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 206010042772 syncope Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Description
本開示は、一般に監視システム、移動体、監視方法及びプログラムに関し、より詳細には、対象者の意識状態を監視するための監視システム、移動体、監視方法及びプログラムに関する。 TECHNICAL FIELD The present disclosure generally relates to a monitoring system, mobile object, monitoring method and program, and more particularly to a monitoring system, mobile object, monitoring method and program for monitoring the state of consciousness of a subject.
特許文献1には、運転者の脇見又は居眠り等を監視する監視システム(運転者監視装置)が記載されている。この監視システムでは、運転者の顔に輝点パターンを投影し、運転者の顔に投影した輝点パターンを撮像手段にて撮像する。
さらに、撮像して得た画像をデータ処理手段が処理して運転者の顔をサンプリングし、各サンプリング点の3次元位置データを求め、この3次元位置データを処理して運転者の顔の上下、左右、斜めの傾きを求める。そして、顔の傾きによって運転者の状態を判定手段が判定する。 Further, the data processing means processes the captured image to sample the driver's face, obtains three-dimensional position data of each sampling point, and processes the three-dimensional position data to obtain the top and bottom of the driver's face. , left, right, and oblique tilts. Then, the judging means judges the state of the driver based on the inclination of the face.
特許文献1に記載のような監視システムでは、例えば、単に対象者(運転者)が一時的に下を向いている場合でも、対象者が居眠りをしているように誤った判定がなされることがある。
In the monitoring system as described in
本開示は上記事由に鑑みてなされており、誤った判定を生じにくくすることが可能な監視システム、移動体、監視方法及びプログラムを提供することを目的とする。 The present disclosure has been made in view of the above reasons, and aims to provide a monitoring system, a moving object, a monitoring method, and a program that make it difficult for erroneous determinations to occur.
本開示の一態様に係る監視システムは、顔情報取得部と、モデル取得部と、判定部と、顔位置取得部と、を備える。前記顔情報取得部は、顔情報を取得する。前記顔情報は、対象者の顔の各部位の状態に関する情報である。前記モデル取得部は、前記モデル情報を取得する。前記モデル情報は、複数の特徴点を含み、前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関する情報である。前記判定部は、前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する。前記顔位置取得部は、前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する。前記顔位置情報は、前記判定部での前記意識状態の判定に用いられる。前記判定部は、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。 A monitoring system according to one aspect of the present disclosure includes a face information acquisition unit, a model acquisition unit, a determination unit, and a face position acquisition unit . The face information acquisition unit acquires face information. The face information is information about the state of each part of the subject's face. The model acquisition unit acquires the model information. The model information is information relating to a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body. The determination unit determines the state of consciousness of the subject based on both the face information and the model information. The face position acquisition unit acquires face position information regarding at least one of the position and orientation of the face of the subject. The face position information is used for determination of the state of consciousness by the determination unit. The determination unit changes a determination algorithm based on a correlation between the face position included in the face position information and the face position included in the model information.
本開示の一態様に係る移動体は、前記監視システムと、前記監視システムが搭載される移動体本体と、を備える。 A mobile object according to an aspect of the present disclosure includes the monitoring system and a mobile body on which the monitoring system is mounted.
本開示の一態様に係る監視方法は、第1取得処理と、第2取得処理と、判定処理と、顔位置取得処理と、を有する。前記第1取得処理は、顔情報を取得する処理である。前記顔情報は、対象者の顔の各部位の状態に関する情報である。前記第2取得処理は、モデル情報を取得する処理である。前記モデル情報は、複数の特徴点を含み、前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関する情報である。前記判定処理は、前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する処理である。前記顔位置取得処理は、前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する処理である。前記顔位置情報は、前記判定処理での前記意識状態の判定に用いられる。前記判定処理では、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。
A monitoring method according to an aspect of the present disclosure includes first acquisition processing, second acquisition processing, determination processing, and face position acquisition processing . The first acquisition process is a process of acquiring face information. The face information is information about the state of each part of the subject's face. The second acquisition process is a process of acquiring model information. The model information is information relating to a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body. The determination process is a process of determining the subject's state of consciousness based on both the face information and the model information. The face position acquisition processing is processing for acquiring face position information regarding at least one of the position and orientation of the face of the subject. The face position information is used to determine the state of consciousness in the determination process. In the determination process, a determination algorithm is changed based on the correlation between the face position included in the face position information and the face position included in the model information.
本開示の一態様に係るプログラムは、前記監視方法を、1以上のプロセッサに実行させるためのプログラムである。 A program according to an aspect of the present disclosure is a program for causing one or more processors to execute the monitoring method.
本開示によれば、誤った判定を生じにくくすることが可能である、という利点がある。 According to the present disclosure, there is an advantage that it is possible to make erroneous determinations less likely to occur.
(実施形態1)
(1)概要
まず、本実施形態に係る監視システム1の概要について、図1A~図3Cを参照して説明する。
(Embodiment 1)
(1) Overview First, an overview of a
監視システム1は、対象者H1(図2参照)の意識状態を監視するためのシステムである。具体的には、監視システム1によれば、対象者H1の意識の有無(意識喪失/意識清明)等を監視することが可能である。
The
例えば、自動車等の分野においては、この種の監視システム1は、ドライバモニタリングシステムとして普及し始めている。ドライバモニタリングシステムは、対象者H1である自動車の運転者(driver)の状態(意識状態を含む)を監視することで運転者の脇見又は居眠り等を検出し、運転者の異常を検出した際には警報を出したり、自動車を制御したりする。本実施形態に係る監視システム1は、一例として、自動車に搭載されることにより、このようなドライバモニタリングシステムとして使用可能である。
For example, in the field of automobiles, etc., this type of
本実施形態に係る監視システム1は、図1Aに示すように、顔情報取得部13と、モデル取得部15と、判定部16と、を備えている。顔情報取得部13は、顔情報を取得する。顔情報は、対象者H1の顔F1(図2参照)の各部位の状態に関する情報である。モデル取得部15は、モデル情報を取得する。モデル情報は、複数の特徴点P1~P7(図3B参照)を含み、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1(図3B参照)に関する情報である。判定部16は、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定する。
A
この構成によれば、対象者H1の顔F1の各部位の状態に関する顔情報だけでなく、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関するモデル情報にも基づいて、対象者H1の意識状態が判定される。そのため、顔情報のみから対象者H1の意識状態が判定される場合に比較すると、対象者H1の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者H1が一時的に下を向いているような場合に、対象者H1が居眠りをしているとの誤った判定が生じにくい。結果的に、監視システム1によれば、誤った判定を生じにくくすることが可能である。
According to this configuration, the consciousness of the subject H1 is determined based on not only the face information about the state of each part of the face F1 of the subject H1, but also the model information about the posture model M1 representing at least the posture of the upper body of the subject H1. status is determined. Therefore, compared to the case where the state of consciousness of the subject H1 is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject H1. Therefore, for example, when the subject H1 is simply looking down temporarily, it is difficult to make an erroneous determination that the subject H1 is dozing off. As a result, according to the
(2)詳細
以下、本実施形態に係る監視システム1及び移動体4の詳細について、図1A~図7Bを参照して説明する。
(2) Details Details of the
(2.1)前提
本実施形態に係る監視システム1は、図1Bに示すように、移動体本体41に搭載され、移動体本体41と共に移動体4を構成する。すなわち、本実施形態に係る移動体4は、監視システム1と、移動体本体41と、を備えている。移動体本体41には、監視システム1が搭載されている。本実施形態では一例として、移動体4は航空機であって、移動体本体41は航空機の機体である。ここでは特に、移動体4が旅客を輸送するための民間の旅客機(飛行機)である場合を想定する。
(2.1) Assumptions As shown in FIG. 1B, the
また、本実施形態に係る監視システム1での意識状態の監視対象となる対象者H1は、航空機からなる移動体4の操縦者(pilot)である。対象者H1となる移動体4の操縦者は、移動体4の操縦室に乗り込み、航空機からなる移動体4の操縦を行う。本実施形態では一例として、移動体4には、機長及び副操縦士の2名の操縦者が乗っており、監視システム1は、2名の操縦者の各々を対象者H1として、各対象者H1の意識状態を監視することと仮定する。ただし、以下では特に断りが無い限り、1名の対象者H1(ここでは操縦者)に着目して説明することとする。
A subject H1 whose state of consciousness is to be monitored by the
本開示でいう「意識状態」とは、例えば、対象者H1の意識水準(意識レベル)又は覚醒度等を意味し、意識喪失(意識消失又は失神を含む)/意識清明の状態に大別される。ここでいう意識水準には、一例として、清明(alert)、傾眠(somnolence)、昏迷(stupor)及び昏睡(coma)等が含まれる。さらに、意識清明とは、意識がある状態であって、まず「覚醒」していること、加えて周囲を「認識」できる状態であり、開眼、言葉及び動作等で外界からの刺激又は情報に「反応」できることも必要である。これに対し、意識喪失は、何らかの形で意識清明でなくなった状態を意味する。本開示においては、つまり意識水準の一時的な低下現象で、かつ必ず覚醒可能な状態である睡眠(居眠りを含む)についても、意識喪失に含まれる。本実施形態では一例として、監視システム1は、対象者H1の意識状態について、意識清明に相当する「正常」の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定する。
The "state of consciousness" in the present disclosure means, for example, the level of consciousness (level of consciousness) or the degree of arousal of the subject H1, and is roughly divided into a state of loss of consciousness (including loss of consciousness or fainting) / state of clear consciousness. be. The level of consciousness referred to here includes, for example, alert, somnolence, stupor, coma, and the like. Furthermore, lucid consciousness is a state of being conscious, first of all, being “awakened”, and being able to “recognize” the surroundings, and being able to respond to stimuli or information from the outside world by opening the eyes, words and actions, etc. It is also necessary to be able to "react". Conversely, unconsciousness refers to the state of being unconscious in some way. In the present disclosure, sleep (including dozing off), which is a phenomenon in which the level of consciousness is temporarily lowered and is always awakeable, is also included in unconsciousness. In this embodiment, as an example, the
本開示でいう「顔F1の各部位の状態」は、対象者H1の顔F1の各パーツの状態であって、例えば、まぶた、口、眼球(目)、鼻、眉、眉間又は耳等の状態である。例えば、「まぶた」の状態であれば、上まぶたF11及び下まぶたF12間の距離であるまぶた間距離D1(図3A参照)、まぶたの形状、並びに、まぶた間距離D1から推定される「まばたき」の有無、及び閉眼/開眼の区別等を含む。「口」の状態であれば、口角の位置、唇の形状、閉口/開口の区別、口から泡を吹いているか否か、及び吐血の有無等を含む。「眼球」の状態であれば、眼球の動き(視線の動き)、白目をむいているか否か及び瞳孔の開き具合等を含む。本実施形態では一例として、顔情報が表す顔F1の各部位の状態は、少なくとも対象者H1の「まぶた」の状態を含んでいる。 The “state of each part of the face F1” in the present disclosure refers to the state of each part of the face F1 of the subject H1, such as the eyelids, mouth, eyeballs (eyes), nose, eyebrows, between the eyebrows, or ears. state. For example, in the state of "eyelids", the distance D1 between the upper eyelids F11 and the lower eyelids F12 (see FIG. 3A), the shape of the eyelids, and the "blinking" estimated from the distance D1 between the eyelids including the presence/absence of eyes and the distinction between eyes closed/eyes open. Mouth conditions include the position of the corners of the mouth, the shape of the lips, whether the mouth is closed or open, whether the mouth is foaming, and whether blood is being vomited. In the case of the "eyeball" state, the movement of the eyeball (movement of the line of sight), whether or not the white of the eye is turned, the degree of dilation of the pupil, and the like are included. As an example in this embodiment, the state of each part of the face F1 represented by the face information includes at least the state of the "eyelids" of the subject H1.
本開示でいう「姿勢モデル」は、対象者H1の少なくとも上半身の姿勢を表すモデルデータからなり、少なくとも複数の特徴点P1~P7を含んでいる。本実施形態では一例として、姿勢モデルM1は、複数の特徴点P1~P7間を、直線でつないだ骨格線モデルある。 The “posture model” referred to in the present disclosure consists of model data representing at least the posture of the subject H1's upper body, and includes at least a plurality of feature points P1 to P7. In this embodiment, as an example, the posture model M1 is a skeletal line model in which a plurality of feature points P1 to P7 are connected by straight lines.
本開示でいう「特徴点」は、人体の各部位に相当する点であって、例えば、顔F1の中心、左右一対の鎖骨の中心、肩又は肘等に対応付けられる。本実施形態では一例として、姿勢モデルM1は、図3Bに示すように、対象者H1の上半身(へそから頭頂部までの間)に設定された7つの部位にそれぞれ対応する、7つの特徴点P1~P7を含んでいる。特徴点P1は顔F1の中心、特徴点P2は左右一対の鎖骨の中心、特徴点P3は右肩、特徴点P4は右肘、特徴点P5は左肩、特徴点P6は左肘、特徴点P7はへそ、にそれぞれ相当する。これら7つの特徴点P1~P7のうち、P1-P2間、P3-P4間、P5-P6間、P2-P3間、P3-P5間、及びP2-P7間が直線でつながることにより、姿勢モデルM1が構成されている。 A “feature point” in the present disclosure is a point corresponding to each part of the human body, and is associated with, for example, the center of the face F1, the center of a pair of left and right clavicles, shoulders or elbows. In this embodiment, as an example, the posture model M1 includes seven feature points P1 corresponding to seven parts set on the upper body (from the navel to the top of the head) of the subject H1, as shown in FIG. 3B. ~P7 included. The feature point P1 is the center of the face F1, the feature point P2 is the center of a pair of left and right clavicles, the feature point P3 is the right shoulder, the feature point P4 is the right elbow, the feature point P5 is the left shoulder, the feature point P6 is the left elbow, and the feature point P7. corresponds to navel, respectively. Of these seven feature points P1 to P7, the posture model M1 is configured.
本実施形態では一例として、このような姿勢モデルM1に関するモデル情報は、撮像装置2(図1A参照)で撮影される画像Im1(図2参照)から抽出される。本開示でいう「画像」は、動画(動画像)及び静止画(静止画像)を含む。さらに、「動画」は、コマ撮り等により得られる複数の静止画にて構成される画像を含む。本実施形態では一例として、画像Im1は時間経過に伴って変化する画像(つまり動画)である。 As an example in the present embodiment, such model information about the posture model M1 is extracted from an image Im1 (see FIG. 2) captured by the imaging device 2 (see FIG. 1A). The “image” referred to in the present disclosure includes moving images (moving images) and still images (still images). Furthermore, "moving image" includes an image composed of a plurality of still images obtained by frame-by-frame shooting or the like. In this embodiment, as an example, the image Im1 is an image (that is, moving image) that changes over time.
(2.2)構成
次に、本実施形態に係る監視システム1及び移動体4の構成について説明する。
(2.2) Configuration Next, configurations of the
監視システム1には、図1Aに示すように、撮像装置2及び制御システム3が接続される。撮像装置2及び制御システム3は、監視システム1と共に、移動体4の移動体本体41に搭載されている。つまり、本実施形態に係る移動体4は、監視システム1及び移動体本体41に加えて、撮像装置2及び制御システム3を更に備えている。
An
本実施形態では、撮像装置2及び制御システム3は、監視システム1の構成要素には含まれないこととするが、撮像装置2及び制御システム3の少なくとも一方は、監視システム1の構成要素に含まれてもよい。
In this embodiment, the
本実施形態においては、顔情報とモデル情報とは、いずれも画像Im1から抽出される。すなわち、監視システム1での対象者H1の意識状態の判定には、顔情報とモデル情報とが用いられるが、これら顔情報及びモデル情報は、いずれも撮像装置2で撮影される画像Im1から抽出される。言い換えれば、判定部16での意識状態の判定に用いられる顔情報は画像Im1から抽出され、判定部16での意識状態の判定に用いられるモデル情報についても画像Im1から抽出される。
In this embodiment, both face information and model information are extracted from the image Im1. That is, face information and model information are used to determine the state of consciousness of the subject H1 in the
さらに、本実施形態では、判定部16が判定に用いる情報は、画像Im1のみから抽出される。すなわち、上述したように、判定部16での意識状態の判定に用いられる顔情報及びモデル情報は、いずれも画像Im1から抽出される情報である。さらに、詳しくは後述するが、本実施形態に係る監視システム1では、判定部16での意識状態の判定には、顔情報及びモデル情報に加えて、顔位置情報が用いられる。そして、この顔位置情報についても、顔情報及びモデル情報と同様に画像Im1から抽出される。そのため、監視システム1では、例えば、心拍数、体温及び姿勢等の情報を検知するための生体センサ、又は、対象者H1の動きを検出するための加速度センサ若しくは角速度センサ等を用いることなく、対象者H1の意識状態の判定が可能である。
Furthermore, in the present embodiment, the information used by the
撮像装置2は、モデル情報等を抽出するための画像Im1を撮影する装置であって、カメラを含んでいる。本実施形態では、撮像装置2は、その画角内に少なくとも対象者H1の上半身(頭部を含む)が含まれるように設置されている。本実施形態では、対象者H1は移動体4(航空機)の操縦者であるので、撮像装置2のカメラは、移動体4の操縦室において対象者H1(操縦者)を前方から撮影可能なように、対象者H1の前方に設置されている。さらに、2名の操縦者の各々が対象者H1であるので、1名の対象者H1につき1台のカメラが設置されることが好ましい。
The
本実施形態では、撮像装置2は、対象者H1(操縦者)による操縦の邪魔にならず、かつ暗所でも撮影可能なように、例えば、赤外線カメラのような暗視カメラを含んでいる。より詳細には、一例として、撮像装置2で撮影される画像Im1は、モーションJPEG(Motion JPEG)等の時系列に沿った複数の静止画にて構成される、30fpsの動画である。撮像装置2で撮像された画像Im1は、例えば、リアルタイムで又はバッファ等を介して、監視システム1に出力される。
In this embodiment, the
制御システム3は、監視システム1からの出力信号を受けて動作するシステムである。監視システム1からの出力信号には、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)が含まれている。そのため、制御システム3は、対象者H1の意識状態の判定結果に応じて動作可能である。
The
本実施形態では、制御システム3は、対象者H1の意識状態の判定結果に応じて、適宜、通報を行う。一例として、操縦者である対象者H1の意識状態の判定結果が「意識喪失」であれば、制御システム3は、他の乗務員(他の操縦者又は客室乗務員等)と、管制塔との少なくとも一方に対して、異常を知らせる通報を行う。さらに、制御システム3は、対象者H1の意識状態の判定結果に応じて、移動体4に搭載されている監視システム1以外の設備システム(表示システム等)を制御してもよいし、移動体本体41の操縦を自動操縦に切り替える等、移動体本体41を制御してもよい。
In the present embodiment, the
本実施形態では、監視システム1は、図1Aに示すように、顔情報取得部13、モデル取得部15及び判定部16に加えて、入力部11、抽出部12、顔位置取得部14及び出力部17を更に備えている。すなわち、本実施形態に係る監視システム1は、入力部11と、抽出部12と、顔情報取得部13と、顔位置取得部14と、モデル取得部15と、判定部16と、出力部17と、を備えている。
In this embodiment, as shown in FIG. 1A, the
本実施形態では一例として、監視システム1は、1以上のプロセッサ及び1以上のメモリを有するコンピュータシステム(サーバ、クラウドコンピューティングを含む)を主構成とする。プロセッサは、メモリに記録されているプログラムを実行することにより、監視システム1の機能を実現する。プログラムは、予めメモリに記録されていてもよいし、メモリカードのような非一時的記録媒体に記録されて提供されたり、電気通信回線を通して提供されたりしてもよい。言い換えれば、上記プログラムは、1以上のプロセッサを、監視システム1として機能させるためのプログラムである。
In this embodiment, as an example, the
入力部11は、撮像装置2に接続されている。入力部11には、撮像装置2で撮影された画像Im1が入力される。本実施形態では、入力部11は、リアルタイムで、撮像装置2から通信により、動画(動画像)からなる画像Im1を取得する。ここで、入力部11に入力される画像Im1は、撮像装置2から出力されたデータそのものでなくてもよい。例えば、入力部11に入力される画像Im1は、必要に応じて適宜データの圧縮、他のデータ形式への変換、又は撮影された画像から一部を切り出す加工、ピント調整、明度調整、若しくはコントラスト調整等の加工が施されていてもよい。
The
抽出部12は、入力部11に入力された画像Im1から、対象者H1の意識状態の判定に必要な種々の情報を抽出する。抽出部12は、画像Im1について画像処理を適宜行うことで、これら種々の情報を抽出する。本実施形態では、上述したように、判定部16での意識状態の判定には、顔情報、モデル情報及び顔位置情報が用いられる。そのため、抽出部12は、これら顔情報、モデル情報及び顔位置情報を画像Im1から抽出する。顔情報は、対象者H1の顔F1の各部位の状態に関する情報である。モデル情報は、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関する情報である。また、顔位置情報は、対象者H1の顔F1の位置と向きとの少なくとも一方に関する情報である。すなわち、抽出部12は、例えば、図2に示すように、画像Im1内に、対象者H1の顔F1が含まれる顔領域R1を設定し、顔領域R1から、少なくとも顔情報及び顔位置情報を抽出する。
The
抽出部12は、例えば、HOG(Histograms of Oriented Gradients)特徴量、又は畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等を用いて、対象者H1の意識状態の判定に必要な種々の情報を抽出してもよい。
The
顔情報取得部13は、対象者H1の顔F1の各部位の状態に関する顔情報を取得する。顔情報は、判定部16での意識状態の判定に用いられる。本実施形態では、顔情報は、抽出部12にて画像Im1から抽出されるので、顔情報取得部13は、抽出部12で抽出された顔情報を抽出部12から取得する。
The face
上述した通り、本実施形態では一例として、顔情報が表す顔F1の各部位の状態は、少なくとも対象者H1の「まぶた」の状態を含んでいる。すなわち、顔情報は、対象者H1のまぶたの状態に関する情報を含んでいる。そのため、顔情報取得部13が取得する顔情報は、図3Aに示すように、上まぶたF11と、下まぶたF12と、の間の距離である、まぶた間距離D1を含んでいる。一例として、まぶた間距離D1が所定距離以下である状態が一定時間継続すると、対象者H1の状態が「閉眼」にあることが推定される。
As described above, in the present embodiment, as an example, the state of each part of the face F1 represented by the face information includes at least the state of the "eyelids" of the subject H1. That is, the face information includes information regarding the condition of the eyelids of the subject H1. Therefore, the face information acquired by the face
顔位置取得部14は、対象者H1の顔F1の位置と向きとの少なくとも一方に関する顔位置情報を取得する。顔位置情報は、判定部16での意識状態の判定に用いられる。本実施形態では、顔位置情報は、抽出部12にて画像Im1から抽出されるので、顔位置取得部14は、抽出部12で抽出された顔位置情報を抽出部12から取得する。ここで、本実施形態では一例として、顔位置情報は、図3Cに示すように、対象者H1の顔F1の中心から、顔F1が向けられている方向に延びるベクトルA1で表される情報を含んでいる。つまり、顔位置情報は、対象者H1の顔F1の中心の位置の情報と、顔F1の向きの情報と、の両方を含んでいる。図3Cの例では、対象者H1の顔F1は撮像装置2のカメラの方向に向いているため、顔位置情報に含まれるベクトルA1は、顔F1の中心から真正面に向けて延びる矢印となる。
The face
モデル取得部15は、複数の特徴点P1~P7を含み、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関するモデル情報を取得する。モデル情報は、判定部16での意識状態の判定に用いられる。本実施形態では、モデル情報は、抽出部12にて画像Im1から抽出されるので、モデル取得部15は、抽出部12で抽出されたモデル情報を抽出部12から取得する。上述した通り、本実施形態では一例として、姿勢モデルM1は、対象者H1の上半身に設定された7つの部位にそれぞれ対応する、7つの特徴点P1~P7を含んでいる。そのため、モデル取得部15が取得するモデル情報は、図3Bに示すように、画像Im1における対象者H1の上半身に重ねて生成される姿勢モデルM1に関する情報である。
The
ここで、姿勢モデルM1における特徴点P3-P4をつなぐ直線、及び特徴点P5-P6をつなぐ直線についての、鉛直線に対する角度θ1,θ2(図3B参照)は、対象者H1の腕(上腕部)の角度に相当する。さらに、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3(図6B及び図7B参照)は、対象者H1の上半身の傾斜角度に相当する。本実施形態では、このような対象者H1の腕(上腕部)の角度θ1,θ2の情報、及び対象者H1の上半身の角度θ3の情報も、モデル取得部15が取得するモデル情報に含まれる。
Here, the angles θ1 and θ2 (see FIG. 3B) of the straight line connecting the feature points P3 and P4 and the straight line connecting the feature points P5 and P6 in the posture model M1 with respect to the vertical line are the arms (upper arms) of the subject H1. ). Furthermore, the angle θ3 (see FIGS. 6B and 7B) of the straight line connecting the feature points P2-P7 in the posture model M1 with respect to the vertical line corresponds to the inclination angle of the upper body of the subject H1. In the present embodiment, the model information acquired by the
ここにおいて、本実施形態では、判定部16での意識状態の判定に用いられる顔情報、モデル情報及び顔位置情報は、同一の画像Im1から、抽出部12にて抽出される。つまり、1つの画像Im1から、顔情報、モデル情報及び顔位置情報が抽出可能であるため、顔情報、モデル情報及び顔位置情報の各々を抽出するために、複数のカメラを設置する必要が無い。よって、本実施形態では、少なくとも顔情報取得部13及びモデル取得部15は、同一の画像Im1から顔情報及びモデル情報を取得することになる。
Here, in the present embodiment, the
図3A~図3C等においては、画像Im1の具体例を示しているが、顔領域R1、姿勢モデルM1、ベクトルA1及び参照符号は説明のために表記しているに過ぎず、これらが実際に画像Im1に含まれている訳ではない。 3A to 3C and the like show a specific example of the image Im1, but the face region R1, posture model M1, vector A1, and reference numerals are only shown for the sake of explanation. It is not included in the image Im1.
判定部16は、対象者H1の意識状態を判定する機能を有する。判定部16は、少なくとも顔情報及びモデル情報の両方に基づいて、対象者H1の意識状態を判定する。本実施形態では、判定部16は、基本的には、顔情報、モデル情報及び顔位置情報に基づいて、対象者H1の意識状態を判定する。本実施形態では一例として、判定部16は、対象者H1の意識状態について、意識清明に相当する「正常」の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定する。
The
ここで、判定部16は、顔情報、モデル情報及び顔位置情報の各々を所定の判定時間にわたって蓄積し、蓄積されたこれらの情報を統合して、対象者H1の意識状態を判定(推定)する。一例として、判定時間が5分であるとすれば、判定部16は、判定時間に当たる5分間は、顔情報、モデル情報及び顔位置情報の各々を蓄積するだけで、判定までは行わない。そして、判定時間に当たる5分が経過した時点で、蓄積されている顔情報、モデル情報及び顔位置情報を統合し、対象者H1の意識状態を判定(推定)する。そのため、例えば、判定時間内に、一時的に、意識喪失に当たると判定し得る状況が生じたとしても、判定時間全体を通して、正常(意識清明)と判定される場合には、判定部16は正常(意識清明)と判定することができる。反対に、判定時間内に、一時的に、意識清明に当たると判定し得る状況が生じたとしても、判定時間全体を通して、意識喪失と判定される場合には、判定部16は意識喪失と判定することができる。
Here, the
また、詳しくは「(2.3.2)判定動作」の欄で説明するが、判定部16は、顔情報、モデル情報及び顔位置情報の各々の信頼度を加味して、対象者H1の意識状態を判定する際の、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを変更可能である。つまり、本実施形態では、判定部16は、対象者H1の意識状態を判定するに際して、顔情報、モデル情報及び顔位置情報の全てを常に用いるのではなく、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを適宜変更する。その結果、判定部16は、例えば、顔情報、モデル情報及び顔位置情報のうちの顔情報のみに基づいて、対象者H1の意識状態を判定することもある。
Further, details will be described in the section "(2.3.2) Judgment operation", but the
判定部16は、例えば、深層学習(Deep Learning)等の機械学習により学習する機能を有していることが好ましい。この場合、判定部16は、顔情報、モデル情報及び顔位置情報が学習済みの分類器に入力されることで、対象者H1の意識状態を判定する。
The
出力部17は、判定部16の判定結果を受けて、制御システム3に対して出力信号を出力する。出力部17は、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)を出力信号に含めて、通信により制御システム3に出力信号を送信する。出力部17は、少なくとも判定結果が意識喪失である場合には、即座に制御システム3に出力信号を出力することが好ましい。一方、判定結果が正常(意識清明)である場合には、出力部17は、制御システム3に出力信号を即座に出力しなくてもよい。
The
さらに、出力部17は、対象者H1の意識状態(正常/意識喪失)という判定部16の判定結果に加えて、この判定結果の確率(確からしさ)を出力してもよい。例えば、判定部16が70%の確率で「意識喪失」と判定した場合に、出力部17は、「意識喪失」という判定結果に加えて、この判定結果の確率が「70%」であることを出力する。
Furthermore, the
(2.3)動作
次に、本実施形態に係る監視システム1の動作、つまり本実施形態に係る監視方法について説明する。
(2.3) Operation Next, the operation of the
以下では、航空機からなる移動体4が離陸した後、着陸を開始するまでの間の期間を監視期間とし、この監視期間に、監視システム1が対象者H1(操縦者)の意識状態の監視を行うことと仮定する。特に、ここでは移動体4が離陸してから着陸を開始するまでの間は、移動体本体41が自動操縦(autopilot)により巡航していることを前提とする。つまり、監視システム1は、移動体4が自動操縦により巡航している監視期間中において、移動体4の操縦者である対象者H1の意識状態を監視する。
In the following, the monitoring period is defined as a period from when the moving object 4, which is an aircraft, takes off until it starts to land. Assuming you do. In particular, it is assumed here that the
さらに、判定部16が対象者H1の意識状態を判定する周期となる判定時間は、ここでは5分であることと仮定する。つまり、判定部16は、顔情報、モデル情報及び顔位置情報の各々を5分の判定時間にわたって蓄積し、判定時間に当たる5分が経過する度に、蓄積されたこれらの情報を統合して、対象者H1の意識状態を判定する。
Furthermore, it is assumed here that the determination time, which is a period in which the
(2.3.1)全体動作
図4は、監視期間における監視システム1の全体動作、つまり監視方法の全体的な流れの一例を示すフローチャートである。
(2.3.1) Overall Operation FIG. 4 is a flowchart showing an example of the overall operation of the
すなわち、監視システム1は、監視期間が開始すると、まずは撮像装置2で撮影された画像Im1を、入力部11にて撮像装置2から取得する(S1)。画像Im1を取得すると、監視システム1は、取得した画像Im1から、抽出部12にて、顔情報、モデル情報及び顔位置情報の抽出を行う。
That is, when the monitoring period starts, the
そして、監視システム1は、顔情報取得部13にて顔情報を取得し(S2)、顔位置取得部14にて顔位置情報を取得し(S3)、モデル取得部15にてモデル情報を取得する(S4)。その後、監視システム1は、判定時間(ここでは5分)が経過したか否かを判断する(S5)。判定時間が経過していなければ、処理S1に戻って、画像Im1の取得以降の処理を繰り返す。
Then, the
一方、判定時間が経過すると、監視システム1は、判定部16にて、対象者H1の意識状態を判定する判定処理を実行する(S6)。この判定処理S6では、判定部16は、少なくとも、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定可能である。判定処理S6について詳しくは、「(2.3.2)判定動作」の欄で説明する。
On the other hand, when the determination time has elapsed, the
判定処理S6が終了すると、監視システム1は、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)を含む出力信号を、出力部17にて制御システム3に出力する(S7)。これにより、例えば、判定処理S6での判定結果が「意識喪失」であれば、制御システム3は、他の乗務員(他の操縦者又は客室乗務員等)と、管制塔との少なくとも一方に対して、異常を知らせる通報を行う。
When the determination process S6 is completed, the
監視システム1は、監視期間にわたって、上述したような処理S1~S7を繰り返し実行する。図4のフローチャートは、監視システム1の全体動作の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。例えば、処理S2~S4の順番が変更され、モデル取得部15にてモデル情報を取得した後(S4)、顔位置取得部14にて顔位置情報を取得し(S3)、その後に顔情報取得部13にて顔情報を取得してもよい(S2)。
The
(2.3.2)判定動作
以下、監視システム1による対象者H1の意識状態の判定の動作、つまり図4における判定処理S6について、詳しく説明する。
(2.3.2) Determining Operation Hereinafter, the operation of determining the state of consciousness of the subject H1 by the
図5は、判定処理(図4のS6)における判定部16の動作の一例を示すフローチャートである。図5のフローチャートにおいて、判定部16が、対象者H1の意識状態の判定にモデル情報を用いる処理(S16,S17)には網掛けを付している。言い換えれば、図5において、網掛けが付されていない処理は、対象者H1の意識状態の判定にモデル情報が用いられない処理である。
FIG. 5 is a flow chart showing an example of the operation of the
判定部16は、判定処理が開始すると、まずは対象者H1の「まぶた」を検出できたか否かを判断する(S11)。例えば、まぶた(上まぶたF11、下まぶた位F12)が画像Im1から鮮明に認識可能であれば、まぶたを検出できたと判断し(S11:Yes)、まぶたが画像Im1において鮮明に認識できなければ、まぶたを検出できないと判断する(S11:No)。まぶたの検出の可否は、例えば、顔情報取得部13が取得する顔情報に含まれている。
When the determination process starts, the
まぶたが検出された場合(S11:Yes)、判定部16は、まばたきの有無、及び閉眼の有無を判断する(S12)。まばたきの有無、及び閉眼の有無については、顔情報取得部13が取得する顔情報に基づいて判断される。例えば、対象者H1が所定時間(一例として1分)にわたって「まばたき」をしていない場合、「まばたき」なしと判断し、まぶた間距離D1が所定距離以下である状態が一定時間(一例として1分)継続している場合、閉眼と判断する(S12:Yes)。一方、「まばたき」ありと判断され、かつ開眼と判断される場合には、処理S12は「No」と判断される。
If the eyelids are detected (S11: Yes), the
そして、「まばたき」なし、又は閉眼と判断されると(S12:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。一方、「まばたき」ありと判断され、かつ開眼と判断されると(S12:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
Then, if it is determined that there is no "blinking" or that the eyes are closed (S12: Yes), the
ここで、まばたきの有無、及び閉眼の有無の判断結果から意識状態を判定する場合(S12)においては、判定部16は、顔情報のみから、対象者H1の意識状態を判定することになる。つまり、判定部16は、顔情報だけでなく、モデル情報、更には顔位置情報に基づいても、対象者H1の意識状態を判定可能であるところ、本実施形態ではデフォルトとして、顔情報の優先度を最も高くしている。そのため、顔情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定には顔情報が優先的に用いられ、判定部16は、顔情報のみから、対象者H1の意識状態を判定することが可能である。顔情報に基づく判定の信頼度は、対象者H1の「まぶた」を検出できたか否か(S11)によって推定され、まぶたが検出された場合(S11:Yes)には、顔情報に基づく判定の信頼度は閾値以上であると推定する。
Here, in the case of determining the state of consciousness from the determination result of whether or not blinking and whether or not the eyes are closed (S12), the
これに対して、まぶたが検出されない場合(S11:No)、つまり、顔情報に基づく判定の信頼度は閾値未満である場合、判定部16は、対象者H1の顔F1の向きが硬直しているか否かを判断する(S13)。顔F1の向きの硬直については、顔位置取得部14が取得する顔位置情報に基づいて判断される。例えば、顔F1の向きの変化量の一定時間(一例として1分)の積分値が所定値未満であれば、顔F1の向きの硬直ありと判断し(S13:Yes)、上記積分値が所定値以上であれば、顔F1の向きの硬直なしと判断する(S13:No)。
On the other hand, if the eyelids are not detected (S11: No), that is, if the reliability of the determination based on the face information is less than the threshold, the
そして、顔F1の向きの硬直ありと判断されると(S13:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。ここで、顔F1の向きの硬直の有無の判断結果から意識状態を判定する場合(S13)においては、判定部16は、顔位置情報から、対象者H1の意識状態を判定することになる。つまり、本実施形態ではデフォルトとして、顔情報の優先度が最も高く、その次に顔位置情報の優先度が高く設定されている。そのため、まぶたが検出されず(S11:No)、顔情報に基づく判定の信頼度が閾値未満の場合には、対象者H1の意識状態の判定には顔位置情報が優先的に用いられ、判定部16は、顔位置情報に基づいて、対象者H1の意識状態を判定することが可能である。
When it is determined that the orientation of the face F1 is rigid (S13: Yes), the
一方で、顔F1の向きの硬直なしと判断されると(S13:No)、判定部16は、対象者H1の顔F1の位置を検出できたか否かを判断する(S14)。例えば、対象者H1の顔F1が画像Im1から鮮明に認識可能であれば、顔F1の位置を検出できたと判断し(S14:Yes)、顔F1が画像Im1において鮮明に認識できなければ、顔F1の位置を検出できないと判断する(S14:No)。顔F1の位置の検出の可否は、例えば、顔位置取得部14が取得する顔位置情報に含まれている。
On the other hand, when it is determined that the orientation of the face F1 is not rigid (S13: No), the
顔F1の位置を検出できた場合(S14:Yes)、判定部16は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるか否かを判断する(S15)。例えば、顔位置情報に含まれる顔F1の中心位置と、姿勢モデルM1に含まれる特徴点P1の位置と、の間隔が所定値未満であれば、両者間に相関があると判断し(S15:Yes)、上記間隔が所定値以上であれば、両者間に相関がないと判断する(S15:No)。
If the position of the face F1 can be detected (S14: Yes), the determining
そして、2つの顔位置の間に相関があると判断されると(S15:Yes)、判定部16は、対象者H1の身体(上半身)が硬直しているか否かを判断する(S16)。身体の硬直については、モデル取得部15が取得するモデル情報に基づいて判断される。例えば、姿勢モデルM1における複数の特徴点P1~P7の位置、及び/又は対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間(一例として1分)の積分値が所定値未満であれば、身体の硬直ありと判断する(S16:Yes)。一方、上記積分値が所定値以上であれば、身体の硬直なしと判断する(S16:No)。
When it is determined that there is a correlation between the two face positions (S15: Yes), the
身体の硬直ありと判断されると(S16:Yes)、判定部16は、対象者H1の上半身の傾倒の有無を判断する(S17)。上半身の傾倒については、モデル取得部15が取得するモデル情報のうち、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3に基づいて判断される。例えば、角度θ3が基準角度未満であれば、対象者H1の上半身の傾倒なしと判断し(S17:No)、角度θ3が基準角度以上であれば、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。
When it is determined that the body is rigid (S16: Yes), the
そして、対象者H1の身体の硬直ありと判断され(S16:Yes)、かつ対象者H1の上半身の傾倒ありと判断されると(S17:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。一方、対象者H1の身体の硬直なし(S16:No)、又は対象者H1の上半身の傾倒なしと判断されると(S17:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
When it is determined that the body of the subject H1 is stiff (S16: Yes) and that the upper body of the subject H1 is tilted (S17: Yes), the
ここで、身体の硬直の有無、及び上半身の傾倒の有無の判断結果から意識状態を判定する場合(S16,S17)においては、判定部16は、モデル情報から、対象者H1の意識状態を判定することになる。つまり、本実施形態ではデフォルトとして、顔情報の優先度が最も高く、その次に顔位置情報の優先度が高く、そしてモデル情報の優先度が最も低く設定されている。そのため、顔情報及び顔位置情報からでは、対象者H1の意識状態の判定ができず、かつモデル情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定にはモデル情報が用いられ、判定部16は、モデル情報から、対象者H1の意識状態を判定する。モデル情報に基づく判定の信頼度は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるか否か(S15)によって推定される。両者間に相関がある場合(S15:Yes)には、モデル情報に基づく判定の信頼度は閾値以上であると推定する。
Here, in the case of determining the state of consciousness from the determination results of the presence or absence of body stiffness and the presence or absence of tilting of the upper body (S16, S17), the
一方、顔F1の位置を検出できない場合(S14:No)、又は顔位置に相関がない場合(S15:No)には、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。これらの場合においては、判定部16は、モデル情報を用いずに、対象者H1の意識状態を判定することになる。つまり、顔位置を検出できない場合(S14:No)、又は顔位置に相関がない場合(S15:No)には、モデル情報に基づく判定の信頼度は閾値未満である判断して、判定部16は、モデル情報を用いずに、対象者H1の意識状態を判定する。
On the other hand, if the position of the face F1 cannot be detected (S14: No), or if there is no correlation between the face positions (S15: No), the
監視システム1は、判定処理においては、上述したような処理S11~S19を実行する。図5のフローチャートは、判定処理の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。
The
以上説明したように、本実施形態では、判定部16は、対象者H1の意識状態の判定に際して、顔情報、モデル情報及び顔位置情報の各々の信頼度を加味して、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを変更可能である。図5の例では、優先度が高い順から、顔情報、顔位置情報、モデル情報となるように、顔情報、モデル情報及び顔位置情報の優先度がデフォルトで規定されている。そして、顔情報に基づく判定の信頼度が低い場合には、顔情報に代えて顔位置情報が優先的に用いられるといったように、個々の信頼度を加味して、顔情報、モデル情報及び顔位置情報の優先度又は重み付けが変更される。
As described above, in this embodiment, when determining the state of consciousness of the subject H1, the
特に、本実施形態では、判定部16は、顔情報に基づく判定の信頼度が閾値以上であれば、顔情報に基づき意識状態を判定し、顔情報に基づく判定の信頼度が閾値未満であれば、モデル情報に基づき意識状態を判定する。このように、デフォルトでは顔情報の優先度をモデル情報よりも高くしつつ、顔情報に基づく判定の信頼度が不十分である場合に限り、判定部16は、顔情報以外の情報(モデル情報)に基づいて、対象者H1の意識状態の判定を行う。その結果、比較的に信頼性の高い顔情報を用いた判定が優先的に行われることとなり、監視システム1における対象者H1の意識状態の判定の信頼性が高くなる。
In particular, in the present embodiment, the
また、本実施形態では、上述したように、判定部16は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。つまり、判定部16は、両者の間に相関があれば(S15:Yes)、モデル情報に基づいて、対象者H1の意識状態を判定し(S16,S17)、両者の間に相関がなければ(S15:No)、対象者H1の意識状態にモデル情報を用いない。要するに、両者間に相関がある場合(S15:Yes)には、モデル情報の信頼度は十分に高いと推定し、モデル情報を用いるように、判定部16での判定のアルゴリズムが変化する。
Further, in the present embodiment, as described above, the
さらに、判定部16は、モデル情報における対象者H1の上半身の硬直度合いと、対象者H1の上半身の姿勢と、の少なくとも一方に基づいて、意識状態を判定する。要するに、モデル情報に基づいて対象者H1の意識状態を判定する場合においては、判定部16は、身体の硬直の有無、及び上半身の傾倒の有無の両方に基づいて意識状態を判定する(S16,S17)。ここで、身体の硬直の有無(S16)が、対象者H1の上半身の硬直度合いに相当し、上半身の傾倒の有無(S17)が、対象者H1の上半身の姿勢に相当する。このように、本実施形態では、モデル情報における対象者H1の上半身の硬直度合いと、対象者H1の上半身の姿勢と、の両方を、対象者H1の意識状態の判定に用いている。
Furthermore, the
また、図5のフローチャートでは、処理S12において、判定部16は、まばたきの有無、及び閉眼の有無をまとめて判断しているが、この例に限らず、まばたきの有無、及び閉眼の有無を個別に判断してもよい。このとき、判定部16は、対象者H1のまばたきが検出されない場合と、対象者H1の閉眼が検出された場合とで、判定のアルゴリズムを変えてもよい。
In addition, in the flowchart of FIG. 5, in the process S12, the
一例として、まばたきが検出されない場合、閉眼が検出された場合のいずれの場合でも、判定部16は、即座に意識喪失の状態と判定するのではなく、顔情報以外の情報、つまり顔位置情報又はモデル情報に基づいて、対象者H1の意識状態を判定する。そして、判定部16は、まばたきが検出されない場合には、対象者H1の意識状態の判定に顔位置情報を優先的に用い、閉眼が検出された場合には、対象者H1の意識状態の判定にモデル情報を優先的に用いる。このように、判定部16は、まばたきが検出されない場合と、閉眼が検出された場合とで、その後の、対象者H1の意識状態を判定に用いる情報(顔情報、顔位置情報及びモデル情報)の優先度を変化させることができる。また、判定部16は、まばたきが検出されない場合と、閉眼が検出された場合とで、その後の、対象者H1の意識状態を判定に用いる情報(顔情報、顔位置情報及びモデル情報)の、信頼度、又は判定時間を変化させてもよい。
As an example, even if blinking is not detected or eye closure is detected, the
(2.3.3)具体例
次に、監視システム1による対象者H1の意識状態の判定の具体例について、図6A~図7Bを参照して説明する。
(2.3.3) Specific Example Next, a specific example of determination of the state of consciousness of the subject H1 by the
図6A及び図6Bは、対象者H1が一時的に下を向いている場合において、監視システム1による対象者H1の意識状態の判定を行う例を示す。図6Aは、対象者H1の意識状態が正常(意識清明)なケースを示し、図6Bは、対象者H1の意識状態が意識喪失であるケースを示す。
6A and 6B show an example in which the
図6A及び図6Bにおいては、いずれも対象者H1が下を向いているために、対象者H1のまぶたが検出されず(図5のS11:No)、かつ顔F1の向きの硬直なしと判断される(S13:No)ことと仮定する。さらに、いずれも顔F1の位置が検出され(S14:Yes)、かつ顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるため(S15:Yes)、判定部16は、モデル情報に基づいて対象者H1の意識状態を判定する。
In both FIGS. 6A and 6B, since the subject H1 is facing downward, the eyelids of the subject H1 are not detected (S11 in FIG. 5: No), and it is determined that the orientation of the face F1 is not stiff. (S13: No). Furthermore, in both cases, the position of the face F1 is detected (S14: Yes), and there is a correlation between the position of the face F1 included in the face position information and the position of the face F1 included in the model information (S15 : Yes), the
ここで、図6Aの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値以上であることで、判定部16は、対象者H1の身体の硬直なしと判断する(S16:No)。その結果、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
Here, in the example of FIG. 6A, the
一方、図6Bの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値未満であることで、判定部16は、対象者H1の身体の硬直ありと判断する(S16:Yes)。さらに、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3が基準角度以上であるので、判定部16は、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。その結果、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。
On the other hand, in the example of FIG. 6B , the
また、図7A及び図7Bは、対象者H1がサングラスをかけている(装着している)場合において、監視システム1による対象者H1の意識状態の判定を行う例を示す。図7Aは、対象者H1の意識状態が正常(意識清明)なケースを示し、図7Bは、対象者H1の意識状態が意識喪失であるケースを示す。
7A and 7B show an example in which the
図7A及び図7Bにおいては、いずれも対象者H1がサングラスをかけているために、対象者H1のまぶたが検出されず(図5のS11:No)、かつ顔F1の向きの硬直なしと判断される(S13:No)ことと仮定する。さらに、いずれも顔F1の位置が検出され(S14:Yes)、かつ顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるため(S15:Yes)、判定部16は、モデル情報に基づいて対象者H1の意識状態を判定する。
In both FIGS. 7A and 7B, since the subject H1 is wearing sunglasses, the eyelids of the subject H1 are not detected (S11 in FIG. 5: No), and it is determined that the orientation of the face F1 is not stiff. (S13: No). Furthermore, in both cases, the position of the face F1 is detected (S14: Yes), and there is a correlation between the position of the face F1 included in the face position information and the position of the face F1 included in the model information (S15 : Yes), the
ここで、図7Aの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値以上であることで、判定部16は、対象者H1の身体の硬直なしと判断する(S16:No)。その結果、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
Here, in the example of FIG. 7A, the
一方、図7Bの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値未満であることで、判定部16は、対象者H1の身体の硬直ありと判断する(S16:Yes)。さらに、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3が基準角度以上であるので、判定部16は、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。その結果、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。
On the other hand, in the example of FIG. 7B , the
このように、対象者H1が一時的に下を向いていたり、対象者H1がサングラスをかけていたりして、対象者H1の顔F1の各部位(まぶた等)の状態が認識できない場合であっても、本実施形態に係る監視システム1では、対象者H1の意識状態を判定できる。
In this way, even if the target person H1 is temporarily looking down or is wearing sunglasses, the state of each part (eyelids, etc.) of the face F1 of the target person H1 cannot be recognized. However, the
ところで、判定部16は、対象者H1の腕(上腕部)の角度θ1,θ2に関して、変化量の積分値のような腕の動きの有無に係る判断だけでなく、腕の動きが他動的な動きか否か、を更に判断してもよい。すなわち、対象者H1が移動体4に乗っていることを前提とすれば、移動体本体41の揺れ(振動)等により、対象者H1の意思によらずに、対象者H1の腕が振り子のように揺れることが考えられる。そのため、図6B又は図7Bに示すように、たとえ対象者H1の意識状態が意識喪失の状態にあっても、脱力状態にある対象者H1の腕が、他動的に動く可能性がある。そこで、判定部16は、腕の動きに関しては、垂直に垂れ下がった状態を基調にして揺れている場合等の、他動的な動きを判断し、他動的な動きであれば、対象者H1の身体の硬直ありと判断することが好ましい(S16:Yes)。同様の判断は、腕に限らず、例えば、頭部等についても適用可能である。
By the way, regarding the angles θ1 and θ2 of the arm (upper arm) of the subject H1, the
また、対象者H1の上半身の傾倒の有無の判断(S17)についても、角度θ3に基づく判断に限らず、他のパラメータに基づいて、対象者H1の上半身の傾倒の有無が判断されてもよい。一例として、姿勢モデルM1における特徴点P3-P5をつなぐ直線についての、水平線に対する角度は、対象者H1の両肩の傾斜角度に相当するので、この傾斜角度を用いて、対象者H1の上半身の傾倒の有無を判断してもよい。この場合、両肩の傾斜角度が基準角度未満であれば、対象者H1の上半身の傾倒なしと判断し(S17:No)、両肩の傾斜角度が基準角度以上であれば、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。 Further, the determination of whether or not the upper body of the subject H1 is tilted (S17) is not limited to the determination based on the angle θ3, and whether or not the upper body of the subject H1 is tilted may be determined based on other parameters. . As an example, the angle of the straight line connecting the feature points P3-P5 in the posture model M1 with respect to the horizontal corresponds to the inclination angle of the shoulders of the subject H1. You may judge the presence or absence of inclination. In this case, if the inclination angle of both shoulders is less than the reference angle, it is determined that the upper body of the subject H1 is not inclined (S17: No). It is determined that the upper body is tilted (S17: Yes).
(2.3.4)その他の機能
その他の機能として、本実施形態に係る監視システム1は、モデル情報における姿勢モデルM1の特徴点P1~P7を補完する補完機能を有している。
(2.3.4) Other Functions As other functions, the
すなわち、図8に示すように、撮像装置2の画角内に、対象者H1の上半身の全体が含まれておらず、姿勢モデルM1の特徴点P1~P7のいずれかが、画像Im1内に収まらない場合がある。特に、対象者H1が座る椅子が前後に移動可能である場合において、椅子を前方に移動させると、撮像装置2のカメラに対象者H1が近づくことになるため、図8のような画像Im1となりやすい。図8の例では、「へそ」に相当する特徴点P7が画像Im1からはみ出している。
That is, as shown in FIG. 8, the entire upper body of the subject H1 is not included within the angle of view of the
このような場合において、監視システム1は、画像Im1内の対象者H1の位置等から、特徴点P7の位置を推定し、特徴点P7を補完する。上記補完機能によれば、本実施形態に係る監視システム1では、モデル情報は、モデル情報を抽出するための画像Im1外の対象者H1の身体の部位に相当する点を、複数の特徴点P1~P7の少なくとも1つに含むことができる。これにより、例えば、撮像装置2のカメラを必要以上に広角にする必要が無く、画像Im1における顔F1の各部位(上まぶたF11及び下まぶたF12等)の解像度の向上を図りやすい。
In such a case, the
(3)変形例
実施形態1は、本開示の様々な実施形態の一つに過ぎない。実施形態1は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。本開示において説明する各図は、模式的な図であり、各図中の各構成要素の大きさ及び厚さそれぞれの比が、必ずしも実際の寸法比を反映しているとは限らない。また、実施形態1に係る監視システム1と同様の機能は、監視方法、プログラム又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係る監視方法は、第1取得処理(図4の「S2」に相当)と、第2取得処理(図4の「S3」に相当)と、判定処理(図4の「S6」に相当)と、を有する。第1取得処理は、顔情報を取得する処理である。顔情報は、対象者H1の顔F1の各部位の状態に関する情報である。第2取得処理は、複数の特徴点P1~P7を含み、モデル情報を取得する処理である。モデル情報は、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関する情報である。判定処理は、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定する処理である。一態様に係るプログラムは、上記の監視方法を、1以上のプロセッサに実行させるためのプログラムである。
(3)
以下、実施形態1の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。 Modifications of the first embodiment are listed below. Modifications described below can be applied in combination as appropriate.
本開示における監視システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における監視システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
A
また、監視システム1の少なくとも一部の機能が、1つの筐体内に集約されていることは監視システム1に必須の構成ではなく、監視システム1の構成要素は、複数の筐体に分散して設けられていてもよい。例えば、監視システム1のうちの顔情報取得部13、顔位置取得部14及びモデル取得部15が、判定部16とは別の筐体に設けられていてもよい。さらに、監視システム1の少なくとも一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
In addition, it is not essential for the
反対に、実施形態1において、複数の装置に分散されている複数の機能の少なくとも一部が、1つの筐体内に集約されていてもよい。例えば、監視システム1と撮像装置2とに分散されている機能が、1つの筐体内に集約されていてもよい。
Conversely, in
また、対象者H1の意識状態の判定結果の出力の態様は、制御システム3への出力に限らない。例えば、出力部17は、対象者H1の意識状態の判定結果を、情報端末への送信、表示、音(音声を含む)出力、非一時的記録媒体への記録(書き込み)及び印刷(プリントアウト)等により、出力してもよい。
Further, the mode of outputting the determination result of the state of consciousness of the subject H1 is not limited to the output to the
また、監視システム1を備える移動体4は、飛行機に限らず、ヘリコプタ又は飛行船等の航空機であってもよい。さらに、監視システム1を備える移動体4は、航空機に限らず、例えば、自動車(四輪車)、二輪車、電車、電動カート、建設機械又は船舶等であってもよい。例えば、移動体4が自動車である場合、監視システム1は、自動車からなる移動体4の運転者を対象者H1として、運転者からなる対象者H1の意識状態を監視してもよい。
Further, the mobile object 4 equipped with the
また、移動体本体41に搭載される監視システム1にて意識状態が監視される対象者H1は、移動体4を操縦する操縦者(自動車の場合の運転者等を含む)に限らず、例えば、客室乗務員又は車掌等の、操縦者以外の乗務員であってもよい。さらに、対象者H1は、乗務員にも限らず、例えば、客又は同乗者であってもよい。
Further, the subject H1 whose state of consciousness is monitored by the
また、監視システム1は、移動体4に用いられる構成に限らず、例えば、建物又は屋外等に居る対象者H1の意識状態の監視に用いられてもよい。この場合の対象者H1は、機械の操作、実験、試験、計測又は工作等の何らかの作業を行っている作業者であってもよいし、住宅等の建物内の居住者であってもよい。
Moreover, the
また、実施形態1では、監視システム1は、対象者H1の意識状態について、「正常」(意識清明)の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定するが、この構成に限らない。例えば、監視システム1は、清明、傾眠、昏迷及び昏睡等の3段階以上の意識水準を、対象者H1の意識状態として判定してもよい。
In addition, in the first embodiment, the
また、画像Im1を取得するための撮像装置2は、物体そのものを撮影する構成に限られず、例えば、サーモグラフィカメラなどのように、空間及び物体の温度を画素値とする熱画像を画像として撮影してもよい。また、例えば、ToF(Time-of-Flight)方式の距離画像カメラのように、距離を画素値とする距離画像を画像として撮影してもよい。
Further, the
また、実施形態1では、撮像装置2は、例えば、赤外線カメラのような暗視カメラを含んでいるが、これに限らず、例えば、照明装置及びカメラを含んでいてもよい。
Further, in
また、実施形態1では、複数名の対象者H1(操縦者)を撮影するために、1名の対象者H1につき1台のカメラが設置されているが、この構成に限らず、例えば、1台のカメラで複数名の対象者H1を撮影してもよい。 Further, in the first embodiment, one camera is installed for one target person H1 in order to photograph a plurality of target persons H1 (operators). A single camera may be used to photograph a plurality of subjects H1.
また、判定部16が判定に用いる情報は、画像Im1のみから抽出される構成に限らず、例えば、画像Im1に代えて、又は画像Im1と共に、生体センサ、加速度センサ又は角速度センサ等で検知される情報が、対象者H1の意識状態の判定に用いられてもよい。さらに、判定部16は、航空機からなる移動体4の操縦桿、ペダル又は計器類のスイッチ等の、対象者H1が操作し得る操作部の操作状況も加味して、対象者H1の意識状態を判定してもよい。これにより、対象者H1が、略静止した姿勢で操縦桿を操作している場合等において、監視システム1が意識喪失と誤判定することを低減できる。
Further, the information used for determination by the
また、実施形態1では、判定部16は、対象者H1の意識状態を判定するに際して、顔情報及びモデル情報の各々の優先度に従って、顔情報に基づく判定が好ましくない場合に限り、モデル情報に基づく判定を行うが、このような構成に限らない。すなわち、例えば、判定部16は、顔情報及びモデル情報の両方に基づいて、対象者H1の意識状態を判定すればよく、顔情報及びモデル情報に優先度がなく、顔情報及びモデル情報の両方を統合的に用いて、対象者H1の意識状態を判定してもよい。この場合に、顔情報及びモデル情報の各々に対して重み付けをすることで、判定部16は、対象者H1の意識状態の判定に寄与する顔情報及びモデル情報の比重を調整してもよい。
Further, in the first embodiment, when determining the state of consciousness of the subject H1, the
さらに、判定部16は、顔情報とモデル情報との両方に基づいて対象者H1の意識状態を判定する機能を、少なくとも有していればよく、例えば、判定のアルゴリズムを切替可能であってもよい。一例として、判定のアルゴリズムを切り替えることで、判定部16は、顔情報とモデル情報とのいずれか一方のみに基づいて、対象者H1の意識状態を判定するように動作してもよい。
Furthermore, the
(実施形態2)
本実施形態に係る監視システム1は、図9に示すように、監視システム1による対象者H1の意識状態の判定の動作、つまり図4における判定処理S6のアルゴリズムが、実施形態1に係る監視システム1と相違する。以下、実施形態1と同様の構成については、共通の符号を付して適宜説明を省略する。
(Embodiment 2)
In the
図9は、判定処理(図4のS6)における判定部16の動作の一例を示すフローチャートである。図9のフローチャートにおいて、判定部16が、対象者H1の意識状態の判定にモデル情報を用いる処理(S21,S22)には網掛けを付している。言い換えれば、図9において、網掛けが付されていない処理は、対象者H1の意識状態の判定にモデル情報が用いられない処理である。
FIG. 9 is a flow chart showing an example of the operation of the
判定部16は、判定処理が開始すると、まずは対象者H1の身体(上半身)が硬直しているか否かを判断する(S21)。身体の硬直については、モデル取得部15が取得するモデル情報に基づいて判断される(図5の処理S16に相当)。対象者H1の身体の硬直の有無については、実施形態1と同様に、例えば、腕の動きにつき、垂直に垂れ下がった状態を基調にして揺れている場合等の、他動的な動きであるか否かを考慮して判断してもよい。
When the determination process starts, the
身体の硬直ありと判断されると(S21:Yes)、判定部16は、対象者H1の上半身の傾倒の有無を判断する(S22)。上半身の傾倒については、モデル取得部15が取得するモデル情報のうち、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3に基づいて判断される(図5の処理S17に相当)。対象者H1の上半身の傾倒の有無については、実施形態1と同様に、例えば、姿勢モデルM1における特徴点P3-P5をつなぐ直線についての、水平線に対する角度に基づいて判断してもよい。
When it is determined that the body is rigid (S21: Yes), the
そして、対象者H1の身体の硬直ありと判断され(S21:Yes)、かつ対象者H1の上半身の傾倒ありと判断されると(S22:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。一方、対象者H1の身体の硬直なしと判断されると(S21:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S26)。
When it is determined that the body of the subject H1 is stiff (S21: Yes) and that the upper body of the subject H1 is tilted (S22: Yes), the
また、対象者H1の上半身の傾倒なしと判断されると(S22:No)、判定部16は、対象者H1の顔F1の向きが硬直しているか否かを判断する(S23)。顔F1の向きの硬直については、顔位置取得部14が取得する顔位置情報に基づいて判断される(図5の処理S13に相当)。
Further, when it is determined that the upper body of the subject H1 is not tilted (S22: No), the
そして、顔F1の向きの硬直ありと判断されると(S23:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。ここで、顔F1の向きの硬直の有無の判断結果から意識状態を判定する場合(S23)においては、判定部16は、顔位置情報から、対象者H1の意識状態を判定することになる。
When it is determined that the orientation of the face F1 is rigid (S23: Yes), the
一方で、顔F1の向きの硬直なしと判断されると(S23:No)、判定部16は、まばたきの有無、及び閉眼の有無を判断する(S24)。まばたきの有無、及び閉眼の有無については、顔情報取得部13が取得する顔情報に基づいて判断される(図5の処理S12に相当)。
On the other hand, when it is determined that the orientation of the face F1 is not rigid (S23: No), the determining
そして、「まばたき」なし、又は閉眼と判断されると(S24:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。一方、「まばたき」ありと判断され、かつ開眼と判断されると(S24:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S26)。
Then, if it is determined that there is no "blinking" or that the eyes are closed (S24: Yes), the
このように、本実施形態ではデフォルトとして、モデル情報の優先度が最も高く、その次に顔位置情報の優先度が高く、そして顔情報の優先度が最も低く設定されている。そのため、モデル情報及び顔位置情報からでは、対象者H1の意識状態の判定ができず、かつ顔情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定には顔情報が用いられ、判定部16は、顔情報から、対象者H1の意識状態を判定する。
Thus, in this embodiment, as a default, model information is set to have the highest priority, face position information has the next highest priority, and face information has the lowest priority. Therefore, if the state of consciousness of the subject H1 cannot be determined from the model information and the face position information, and the reliability of the face information is equal to or higher than the threshold, the state of consciousness of the subject H1 is determined using the face information. is used, and the
本実施形態に係る監視システム1は、判定処理においては、上述したような処理S21~S26を実行する。図9のフローチャートは、判定処理の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。
The
実施形態2で説明した種々の構成(変形例を含む)は、実施形態1で説明した種々の構成(変形例を含む)と適宜組み合わせて採用可能である。 Various configurations (including modifications) described in the second embodiment can be employed in appropriate combination with various configurations (including modifications) described in the first embodiment.
(まとめ)
以上説明したように、第1の態様に係る監視システム(1)は、顔情報取得部(13)と、モデル取得部(15)と、判定部(16)と、を備える。顔情報取得部(13)は、顔情報を取得する。顔情報は、対象者(H1)の顔(F1)の各部位の状態に関する情報である。モデル取得部(15)は、モデル情報を取得する。モデル情報は、複数の特徴点(P1~P7)を含み、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関する情報である。判定部(16)は、顔情報と、モデル情報と、の両方に基づいて、対象者(H1)の意識状態を判定する。
(summary)
As described above, the monitoring system (1) according to the first aspect includes a face information acquisition section (13), a model acquisition section (15), and a determination section (16). A face information acquisition unit (13) acquires face information. The face information is information about the state of each part of the face (F1) of the subject (H1). A model acquisition unit (15) acquires model information. The model information is information about a posture model (M1) that includes a plurality of feature points (P1 to P7) and represents at least the posture of the subject's (H1) upper body. A determination unit (16) determines the state of consciousness of the subject (H1) based on both the face information and the model information.
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、監視システム(1)によれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the monitoring system (1), it is possible to make it difficult to make an erroneous determination.
第2の態様に係る監視システム(1)では、第1の態様において、判定部(16)は、顔情報に基づく判定の信頼度が閾値以上であれば、顔情報に基づき意識状態を判定し、顔情報に基づく判定の信頼度が閾値未満であれば、モデル情報に基づき意識状態を判定する。 In the monitoring system (1) according to the second aspect, in the first aspect, the determination unit (16) determines the state of consciousness based on the face information if the reliability of the determination based on the face information is equal to or greater than a threshold. , the state of consciousness is determined based on the model information if the reliability of the determination based on the face information is less than the threshold.
この態様によれば、意識状態の判定に、モデル情報よりも顔情報が優先的に用いられるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, face information is preferentially used to determine the state of consciousness rather than model information, so it is easy to improve the reliability of determination of the state of consciousness.
第3の態様に係る監視システム(1)は、第1又は2の態様において、顔位置取得部(14)を更に備える。顔位置取得部(14)は、対象者(H1)の顔(F1)の位置と向きとの少なくとも一方に関する顔位置情報を取得する。顔位置情報は、判定部(16)での意識状態の判定に用いられる。 A monitoring system (1) according to a third aspect, in the first or second aspect, further comprises a face position acquisition section (14). A face position acquisition unit (14) acquires face position information regarding at least one of the position and orientation of the face (F1) of the subject (H1). The face position information is used for determination of the state of consciousness in the determining section (16).
この態様によれば、意識状態の判定に、顔位置情報が更に用いられるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since the face position information is further used to determine the state of consciousness, it is easy to improve the reliability of determination of the state of consciousness.
第4の態様に係る監視システム(1)では、第3の態様において、判定部(16)は、顔位置情報に含まれる顔(F1)の位置と、モデル情報に含まれる顔(F1)の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。 In the monitoring system (1) according to the fourth aspect, in the third aspect, the determination unit (16) determines the position of the face (F1) included in the face position information and the position of the face (F1) included in the model information. The determination algorithm is changed based on the correlation between the position and the position.
この態様によれば、モデル情報の信頼度に応じて、判定のアルゴリズムを変えることができるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since the determination algorithm can be changed according to the reliability of the model information, it is easy to improve the reliability of determination of the state of consciousness.
第5の態様に係る監視システム(1)では、第1~4のいずれかの態様において、顔情報は、対象者(H1)のまぶたの状態に関する情報を含む。 In the monitoring system (1) according to the fifth aspect, in any one of the first to fourth aspects, the face information includes information regarding the condition of the eyelids of the subject (H1).
この態様によれば、対象者(H1)のまぶたの状態から、例えば、まばたきの有無、又は閉眼等を推定することができ、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, it is possible to estimate, for example, the presence or absence of blinking, closed eyes, or the like from the state of the eyelids of the subject (H1), and it is easy to improve the reliability of determination of the state of consciousness.
第6の態様に係る監視システム(1)では、第5の態様において、判定部(16)は、対象者(H1)のまばたきが検出されない場合と、対象者(H1)の閉眼が検出された場合とで、判定のアルゴリズムを変える。 In the monitoring system (1) according to the sixth aspect, in the fifth aspect, the determination unit (16) determines whether blinking of the subject (H1) is not detected or when closed eyes of the subject (H1) are detected. Change the judgment algorithm depending on the situation.
この態様によれば、状況に応じて判定のアルゴリズムを変えることができるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since the determination algorithm can be changed according to the situation, it is easy to improve the reliability of determination of the state of consciousness.
第7の態様に係る監視システム(1)では、第1~6のいずれかの態様において、顔情報とモデル情報とは、いずれも画像(Im1)から抽出される。 In the monitoring system (1) according to the seventh aspect, in any one of the first to sixth aspects, both the face information and the model information are extracted from the image (Im1).
この態様によれば、顔情報とモデル情報とを、画像(Im1)から比較的簡単に得ることができる。 According to this aspect, face information and model information can be obtained relatively easily from the image (Im1).
第8の態様に係る監視システム(1)では、第7の態様において、判定部(16)が判定に用いる情報は、画像(Im1)のみから抽出される。 In the monitoring system (1) according to the eighth aspect, in the seventh aspect, the information used by the determination section (16) for determination is extracted only from the image (Im1).
この態様によれば、画像(Im1)を得るための撮像装置(2)以外のセンサ等を用いる必要が無い。 According to this aspect, there is no need to use a sensor or the like other than the imaging device (2) for obtaining the image (Im1).
第9の態様に係る監視システム(1)では、第7又は8の態様において、顔情報取得部(13)及びモデル取得部(15)は、同一の画像(Im1)から顔情報及びモデル情報を取得する。 In the monitoring system (1) according to the ninth aspect, in the seventh or eighth aspect, the face information acquisition section (13) and the model acquisition section (15) acquire face information and model information from the same image (Im1). get.
この態様によれば、画像(Im1)を得るための撮像装置(2)が1台であっても、顔情報及びモデル情報を取得することが可能となる。 According to this aspect, it is possible to acquire face information and model information even with a single imaging device (2) for obtaining an image (Im1).
第10の態様に係る監視システム(1)では、第7~9のいずれかの態様において、モデル情報は、モデル情報を抽出するための画像(Im1)外の対象者(H1)の身体の部位に相当する点を、複数の特徴点(P1~P7)の少なくとも1つに含む。 In the monitoring system (1) according to the tenth aspect, in any one of the seventh to ninth aspects, the model information is a body part of the subject (H1) outside the image (Im1) for extracting the model information is included in at least one of the plurality of feature points (P1 to P7).
この態様によれば、画像(Im1)の撮像装置(2)を必要以上に広角にする必要が無く、例えば、画像(Im1)における顔(F1)の各部位の解像度の向上を図りやすい。 According to this aspect, there is no need to widen the angle of the imaging device (2) for the image (Im1), and for example, it is easy to improve the resolution of each part of the face (F1) in the image (Im1).
第11の態様に係る監視システム(1)では、第1~10のいずれかの態様において、判定部(16)は、モデル情報における対象者(H1)の上半身の硬直度合いと、対象者(H1)の上半身の姿勢と、の少なくとも一方に基づいて、意識状態を判定する。 In the monitoring system (1) according to the eleventh aspect, in any one of the first to tenth aspects, the determination unit (16) determines the degree of stiffness of the upper body of the subject (H1) in the model information and the degree of stiffness of the subject (H1 ), the state of consciousness is determined based on at least one of the posture of the upper half of the body of
この態様によれば、モデル情報における対象者(H1)の上半身の硬直度合いと、対象者(H1)の上半身の姿勢との少なくとも一方が判定に用いられるため、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since at least one of the degree of stiffness of the upper body of the subject (H1) and the posture of the upper body of the subject (H1) in the model information is used for determination, the reliability of determination of the state of consciousness is improved. easy to plan.
第12の態様に係る移動体(4)は、第1~11のいずれかの態様に係る監視システム(1)と、監視システム(1)が搭載される移動体本体(41)と、を備える。 A mobile body (4) according to a twelfth aspect comprises the monitoring system (1) according to any one of the first to eleventh aspects, and a mobile body (41) on which the monitoring system (1) is mounted. .
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、移動体(4)によれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the moving body (4), it is possible to make erroneous determination less likely to occur.
第13の態様に係る監視方法は、第1取得処理と、第2取得処理と、判定処理と、を有する。第1取得処理は、顔情報を取得する処理である。顔情報は、対象者(H1)の顔(F1)の各部位の状態に関する情報である。第2取得処理は、モデル情報を取得する処理である。モデル情報は、複数の特徴点(P1~P7)を含み、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関する情報である。判定処理は、顔情報と、モデル情報と、の両方に基づいて、対象者(H1)の意識状態を判定する処理である。 A monitoring method according to a thirteenth aspect includes a first acquisition process, a second acquisition process, and a determination process. The first acquisition process is a process of acquiring face information. The face information is information about the state of each part of the face (F1) of the subject (H1). The second acquisition process is a process of acquiring model information. The model information is information about a posture model (M1) that includes a plurality of feature points (P1 to P7) and represents at least the posture of the subject's (H1) upper body. The determination process is a process of determining the state of consciousness of the subject (H1) based on both face information and model information.
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、監視方法によれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the monitoring method, it is possible to make erroneous determinations less likely to occur.
第14の態様に係るプログラムは、第13の態様に係る監視方法を、1以上のプロセッサに実行させるためのプログラムである。 A program according to a fourteenth aspect is a program for causing one or more processors to execute the monitoring method according to the thirteenth aspect.
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、上記プログラムによれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the above program, it is possible to make erroneous determination less likely to occur.
上記態様に限らず、実施形態1及び実施形態2に係る監視システム(1)の種々の構成(変形例を含む)は、監視方法又はプログラムにて具現化可能である。
Various configurations (including modifications) of the monitoring system (1) according to
第2~11の態様に係る構成については、監視システム(1)に必須の構成ではなく、適宜省略可能である。 The configurations according to the second to eleventh aspects are not essential to the monitoring system (1) and can be omitted as appropriate.
1 監視システム
4 移動体
13 顔情報取得部
14 顔位置取得部
15 モデル取得部
16 判定部
41 移動体本体
F1 顔
H1 対象者
Im1 画像
M1 姿勢モデル
P1~P7 特徴点
1 monitoring system 4 moving
Claims (12)
複数の特徴点を含み前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関するモデル情報を取得するモデル取得部と、
前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する判定部と、
前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する顔位置取得部と、を備え、
前記顔位置情報は、前記判定部での前記意識状態の判定に用いられ、
前記判定部は、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える、
監視システム。 a face information acquisition unit that acquires face information about the state of each part of the face of the subject;
a model acquisition unit that acquires model information about a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body;
a determination unit that determines the subject's state of consciousness based on both the face information and the model information;
a face position acquisition unit that acquires face position information regarding at least one of the position and orientation of the face of the subject ;
The face position information is used for determination of the state of consciousness by the determination unit,
The determination unit changes a determination algorithm based on a correlation between the position of the face included in the face position information and the position of the face included in the model information.
Monitoring system.
請求項1に記載の監視システム。 The determination unit determines the state of consciousness based on the face information if the reliability of the determination based on the face information is equal to or greater than a threshold, and if the reliability of the determination based on the face information is less than the threshold, determining the state of consciousness based on the model information;
A surveillance system according to claim 1 .
請求項1又は2に記載の監視システム。 3. The surveillance system according to claim 1 or 2.
請求項3に記載の監視システム。 4. A surveillance system according to claim 3.
請求項1~4のいずれか1項に記載の監視システム。 The monitoring system according to any one of claims 1-4.
請求項5に記載の監視システム。 A surveillance system according to claim 5 .
請求項5又は6に記載の監視システム。 7. A surveillance system according to claim 5 or 6.
請求項5~7のいずれか1項に記載の監視システム。 A monitoring system according to any one of claims 5-7.
請求項1~8のいずれか1項に記載の監視システム。 A monitoring system according to any one of claims 1-8.
前記監視システムが搭載される移動体本体と、を備える、 a mobile body on which the monitoring system is mounted;
移動体。 Mobile.
複数の特徴点を含み前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関するモデル情報を取得する第2取得処理と、 a second acquisition process for acquiring model information about a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body;
前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する判定処理と、 a determination process for determining the subject's state of consciousness based on both the face information and the model information;
前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する顔位置取得処理と、を有し、 a face position acquisition process for acquiring face position information regarding at least one of the position and orientation of the face of the subject;
前記顔位置情報は、前記判定処理での前記意識状態の判定に用いられ、 The face position information is used to determine the state of consciousness in the determination process,
前記判定処理では、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える、 In the determination process, a determination algorithm is changed based on a correlation between the position of the face included in the face position information and the position of the face included in the model information.
監視方法。 Monitoring method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019077409A JP7281733B2 (en) | 2019-04-15 | 2019-04-15 | MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019077409A JP7281733B2 (en) | 2019-04-15 | 2019-04-15 | MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020177303A JP2020177303A (en) | 2020-10-29 |
JP7281733B2 true JP7281733B2 (en) | 2023-05-26 |
Family
ID=72936756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019077409A Active JP7281733B2 (en) | 2019-04-15 | 2019-04-15 | MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7281733B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7460867B2 (en) | 2021-12-24 | 2024-04-03 | パナソニックオートモーティブシステムズ株式会社 | Estimation device, estimation method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007172237A (en) | 2005-12-21 | 2007-07-05 | Denso Corp | Estimation device |
JP5124592B2 (en) | 2007-01-18 | 2013-01-23 | シーメンス コーポレーション | System and method for detecting and tracking a vehicle |
JP2017210013A (en) | 2016-05-23 | 2017-11-30 | 株式会社デンソー | Driver state detection device and driver state detection method |
JP2017217472A (en) | 2016-06-02 | 2017-12-14 | オムロン株式会社 | State estimation device, state estimation method, and state estimation program |
JP2018127112A (en) | 2017-02-08 | 2018-08-16 | パナソニックIpマネジメント株式会社 | Arousal level estimation device and arousal level estimation method |
JP2018195166A (en) | 2017-05-19 | 2018-12-06 | 富士通株式会社 | Posture determination program, posture determination device and posture determination method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2962006B2 (en) * | 1991-10-31 | 1999-10-12 | 株式会社島津製作所 | Aircraft pilot awareness detection device |
JP4085539B2 (en) * | 1999-09-12 | 2008-05-14 | 義隆 平野 | Aircraft autopilot activated by brain waves |
JP6379720B2 (en) * | 2014-06-23 | 2018-08-29 | 株式会社デンソー | Driver inoperability detection device |
-
2019
- 2019-04-15 JP JP2019077409A patent/JP7281733B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007172237A (en) | 2005-12-21 | 2007-07-05 | Denso Corp | Estimation device |
JP5124592B2 (en) | 2007-01-18 | 2013-01-23 | シーメンス コーポレーション | System and method for detecting and tracking a vehicle |
JP2017210013A (en) | 2016-05-23 | 2017-11-30 | 株式会社デンソー | Driver state detection device and driver state detection method |
JP2017217472A (en) | 2016-06-02 | 2017-12-14 | オムロン株式会社 | State estimation device, state estimation method, and state estimation program |
JP2018127112A (en) | 2017-02-08 | 2018-08-16 | パナソニックIpマネジメント株式会社 | Arousal level estimation device and arousal level estimation method |
JP2018195166A (en) | 2017-05-19 | 2018-12-06 | 富士通株式会社 | Posture determination program, posture determination device and posture determination method |
Also Published As
Publication number | Publication date |
---|---|
JP2020177303A (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104573623B (en) | Face detection device and method | |
KR102391279B1 (en) | Driving condition monitoring method and device, driver monitoring system and vehicle | |
US11615632B2 (en) | Abnormality detection device and abnormality detection program | |
KR102305914B1 (en) | Driving management methods and systems, in-vehicle intelligent systems, electronic devices, media | |
JP6695503B2 (en) | Method and system for monitoring the condition of a vehicle driver | |
EP1320830B1 (en) | Facial image processing system | |
JP5109922B2 (en) | Driver monitoring device and program for driver monitoring device | |
JP4898026B2 (en) | Face / Gaze Recognition Device Using Stereo Camera | |
WO2017208529A1 (en) | Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium | |
CN110155349A (en) | Peripheral vision in man-machine interface | |
EP2860665A2 (en) | Face detection apparatus, and face detection method | |
US11455810B2 (en) | Driver attention state estimation | |
WO2019067903A1 (en) | Head pose estimation from local eye region | |
CN109543651A (en) | A kind of driver's dangerous driving behavior detection method | |
JP6584717B2 (en) | Face orientation estimation apparatus and face orientation estimation method | |
KR20190083155A (en) | Apparatus and method for detecting state of vehicle driver | |
JP7281733B2 (en) | MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM | |
Avizzano et al. | Real-time embedded vision system for the watchfulness analysis of train drivers | |
WO2021070611A1 (en) | Image processing device and non-transitory computer-readable medium | |
KR20110065304A (en) | System and method of drowsy driving recognition based on the personalized template of a driver | |
WO2020255238A1 (en) | Information processing device, program, and information processing method | |
WO2021262166A1 (en) | Operator evaluation and vehicle control based on eyewear data | |
US11077814B2 (en) | Occupant eye(s) observation device | |
WO2021070609A1 (en) | Image processing device and non-transitory computer-readable medium | |
JP7412514B1 (en) | Cabin monitoring method and cabin monitoring system that implements the above cabin monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7281733 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |