JP7281733B2 - MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM - Google Patents

MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM Download PDF

Info

Publication number
JP7281733B2
JP7281733B2 JP2019077409A JP2019077409A JP7281733B2 JP 7281733 B2 JP7281733 B2 JP 7281733B2 JP 2019077409 A JP2019077409 A JP 2019077409A JP 2019077409 A JP2019077409 A JP 2019077409A JP 7281733 B2 JP7281733 B2 JP 7281733B2
Authority
JP
Japan
Prior art keywords
face
information
subject
state
consciousness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077409A
Other languages
Japanese (ja)
Other versions
JP2020177303A (en
Inventor
知里 山下
孝好 古山
啓一郎 折笠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019077409A priority Critical patent/JP7281733B2/en
Publication of JP2020177303A publication Critical patent/JP2020177303A/en
Application granted granted Critical
Publication of JP7281733B2 publication Critical patent/JP7281733B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、一般に監視システム、移動体、監視方法及びプログラムに関し、より詳細には、対象者の意識状態を監視するための監視システム、移動体、監視方法及びプログラムに関する。 TECHNICAL FIELD The present disclosure generally relates to a monitoring system, mobile object, monitoring method and program, and more particularly to a monitoring system, mobile object, monitoring method and program for monitoring the state of consciousness of a subject.

特許文献1には、運転者の脇見又は居眠り等を監視する監視システム(運転者監視装置)が記載されている。この監視システムでは、運転者の顔に輝点パターンを投影し、運転者の顔に投影した輝点パターンを撮像手段にて撮像する。 Patent Literature 1 describes a monitoring system (driver monitoring device) that monitors whether a driver is looking aside or dozing off. In this monitoring system, a luminescent spot pattern is projected onto the driver's face, and an imaging means captures an image of the luminescent spot pattern projected onto the driver's face.

さらに、撮像して得た画像をデータ処理手段が処理して運転者の顔をサンプリングし、各サンプリング点の3次元位置データを求め、この3次元位置データを処理して運転者の顔の上下、左右、斜めの傾きを求める。そして、顔の傾きによって運転者の状態を判定手段が判定する。 Further, the data processing means processes the captured image to sample the driver's face, obtains three-dimensional position data of each sampling point, and processes the three-dimensional position data to obtain the top and bottom of the driver's face. , left, right, and oblique tilts. Then, the judging means judges the state of the driver based on the inclination of the face.

特開平10-960号公報JP-A-10-960

特許文献1に記載のような監視システムでは、例えば、単に対象者(運転者)が一時的に下を向いている場合でも、対象者が居眠りをしているように誤った判定がなされることがある。 In the monitoring system as described in Patent Literature 1, for example, even if the target person (driver) is temporarily looking down, it is erroneously determined that the target person is dozing off. There is

本開示は上記事由に鑑みてなされており、誤った判定を生じにくくすることが可能な監視システム、移動体、監視方法及びプログラムを提供することを目的とする。 The present disclosure has been made in view of the above reasons, and aims to provide a monitoring system, a moving object, a monitoring method, and a program that make it difficult for erroneous determinations to occur.

本開示の一態様に係る監視システムは、顔情報取得部と、モデル取得部と、判定部と、顔位置取得部と、を備える。前記顔情報取得部は、顔情報を取得する。前記顔情報は、対象者の顔の各部位の状態に関する情報である。前記モデル取得部は、前記モデル情報を取得する。前記モデル情報は、複数の特徴点を含み、前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関する情報である。前記判定部は、前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する。前記顔位置取得部は、前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する。前記顔位置情報は、前記判定部での前記意識状態の判定に用いられる。前記判定部は、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。 A monitoring system according to one aspect of the present disclosure includes a face information acquisition unit, a model acquisition unit, a determination unit, and a face position acquisition unit . The face information acquisition unit acquires face information. The face information is information about the state of each part of the subject's face. The model acquisition unit acquires the model information. The model information is information relating to a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body. The determination unit determines the state of consciousness of the subject based on both the face information and the model information. The face position acquisition unit acquires face position information regarding at least one of the position and orientation of the face of the subject. The face position information is used for determination of the state of consciousness by the determination unit. The determination unit changes a determination algorithm based on a correlation between the face position included in the face position information and the face position included in the model information.

本開示の一態様に係る移動体は、前記監視システムと、前記監視システムが搭載される移動体本体と、を備える。 A mobile object according to an aspect of the present disclosure includes the monitoring system and a mobile body on which the monitoring system is mounted.

本開示の一態様に係る監視方法は、第1取得処理と、第2取得処理と、判定処理と、顔位置取得処理と、を有する。前記第1取得処理は、顔情報を取得する処理である。前記顔情報は、対象者の顔の各部位の状態に関する情報である。前記第2取得処理は、モデル情報を取得する処理である。前記モデル情報は、複数の特徴点を含み、前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関する情報である。前記判定処理は、前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する処理である。前記顔位置取得処理は、前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する処理である。前記顔位置情報は、前記判定処理での前記意識状態の判定に用いられる。前記判定処理では、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。
A monitoring method according to an aspect of the present disclosure includes first acquisition processing, second acquisition processing, determination processing, and face position acquisition processing . The first acquisition process is a process of acquiring face information. The face information is information about the state of each part of the subject's face. The second acquisition process is a process of acquiring model information. The model information is information relating to a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body. The determination process is a process of determining the subject's state of consciousness based on both the face information and the model information. The face position acquisition processing is processing for acquiring face position information regarding at least one of the position and orientation of the face of the subject. The face position information is used to determine the state of consciousness in the determination process. In the determination process, a determination algorithm is changed based on the correlation between the face position included in the face position information and the face position included in the model information.

本開示の一態様に係るプログラムは、前記監視方法を、1以上のプロセッサに実行させるためのプログラムである。 A program according to an aspect of the present disclosure is a program for causing one or more processors to execute the monitoring method.

本開示によれば、誤った判定を生じにくくすることが可能である、という利点がある。 According to the present disclosure, there is an advantage that it is possible to make erroneous determinations less likely to occur.

図1Aは、実施形態1に係る監視システムの構成を示す概略ブロック図である。図1Bは、実施形態1に係る移動体の外観を示す概略斜視図である。1A is a schematic block diagram showing the configuration of a monitoring system according to Embodiment 1. FIG. 1B is a schematic perspective view showing the appearance of the moving body according to the first embodiment; FIG. 図2は、同上の監視システムで用いる画像を示す説明図である。FIG. 2 is an explanatory diagram showing an image used in the same surveillance system. 図3Aは、同上の監視システムで用いる画像において対象者の目元を拡大した説明図である。図3Bは、同上の監視システムで用いる画像に姿勢モデルを重畳した説明図である。図3Cは、同上の監視システムで用いる画像において対象者の顔を拡大した説明図である。FIG. 3A is an explanatory diagram of an enlarged eye area of a subject in an image used in the above monitoring system. FIG. 3B is an explanatory diagram in which a posture model is superimposed on an image used in the monitoring system; FIG. 3C is an explanatory diagram of an enlarged subject's face in the image used in the monitoring system. 図4は、同上の監視システムの全体動作の一例を示すフローチャートである。FIG. 4 is a flow chart showing an example of the overall operation of the above monitoring system. 図5は、同上の監視システムによる対象者の意識状態の判定の動作の一例を示すフローチャートである。FIG. 5 is a flow chart showing an example of the operation of determining the subject's state of consciousness by the above monitoring system. 図6Aは、対象者の意識状態が正常である場合の、同上の監視システムの動作例を説明するための説明図である。図6Bは、対象者の意識状態が意識喪失である場合の、同上の監視システムの動作例を説明するための説明図である。FIG. 6A is an explanatory diagram for explaining an operation example of the monitoring system when the subject's state of consciousness is normal. FIG. 6B is an explanatory diagram for explaining an operation example of the monitoring system when the subject's consciousness state is loss of consciousness. 図7Aは、対象者の意識状態が正常である場合の、同上の監視システムの動作例を説明するための説明図である。図7Bは、対象者の意識状態が意識喪失である場合の、同上の監視システムの動作例を説明するための説明図である。FIG. 7A is an explanatory diagram for explaining an operation example of the monitoring system when the subject's state of consciousness is normal. FIG. 7B is an explanatory diagram for explaining an operation example of the monitoring system when the target person's state of consciousness is loss of consciousness. 図8は、同上の監視システムの補完機能を説明するための説明図である。FIG. 8 is an explanatory diagram for explaining the complementary function of the monitoring system; 図9は、実施形態2に係る監視システムによる対象者の意識状態の判定の動作の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the operation of determining the subject's state of consciousness by the monitoring system according to the second embodiment.

(実施形態1)
(1)概要
まず、本実施形態に係る監視システム1の概要について、図1A~図3Cを参照して説明する。
(Embodiment 1)
(1) Overview First, an overview of a monitoring system 1 according to this embodiment will be described with reference to FIGS. 1A to 3C.

監視システム1は、対象者H1(図2参照)の意識状態を監視するためのシステムである。具体的には、監視システム1によれば、対象者H1の意識の有無(意識喪失/意識清明)等を監視することが可能である。 The monitoring system 1 is a system for monitoring the state of consciousness of a subject H1 (see FIG. 2). Specifically, according to the monitoring system 1, it is possible to monitor whether or not the subject H1 is conscious (loss of consciousness/clear consciousness).

例えば、自動車等の分野においては、この種の監視システム1は、ドライバモニタリングシステムとして普及し始めている。ドライバモニタリングシステムは、対象者H1である自動車の運転者(driver)の状態(意識状態を含む)を監視することで運転者の脇見又は居眠り等を検出し、運転者の異常を検出した際には警報を出したり、自動車を制御したりする。本実施形態に係る監視システム1は、一例として、自動車に搭載されることにより、このようなドライバモニタリングシステムとして使用可能である。 For example, in the field of automobiles, etc., this type of monitoring system 1 is beginning to spread as a driver monitoring system. The driver monitoring system monitors the state (including the state of consciousness) of the driver (driver), who is the target person H1, to detect whether the driver is looking aside or falling asleep. warns and controls the vehicle. As an example, the monitoring system 1 according to this embodiment can be used as such a driver monitoring system by being mounted on an automobile.

本実施形態に係る監視システム1は、図1Aに示すように、顔情報取得部13と、モデル取得部15と、判定部16と、を備えている。顔情報取得部13は、顔情報を取得する。顔情報は、対象者H1の顔F1(図2参照)の各部位の状態に関する情報である。モデル取得部15は、モデル情報を取得する。モデル情報は、複数の特徴点P1~P7(図3B参照)を含み、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1(図3B参照)に関する情報である。判定部16は、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定する。 A monitoring system 1 according to the present embodiment includes a face information acquisition unit 13, a model acquisition unit 15, and a determination unit 16, as shown in FIG. 1A. The face information acquisition unit 13 acquires face information. The face information is information about the state of each part of the face F1 (see FIG. 2) of the subject H1. The model acquisition unit 15 acquires model information. The model information is information about a posture model M1 (see FIG. 3B) that includes a plurality of feature points P1 to P7 (see FIG. 3B) and represents at least the posture of the upper body of the subject H1. The determination unit 16 determines the state of consciousness of the subject H1 based on both the face information and the model information.

この構成によれば、対象者H1の顔F1の各部位の状態に関する顔情報だけでなく、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関するモデル情報にも基づいて、対象者H1の意識状態が判定される。そのため、顔情報のみから対象者H1の意識状態が判定される場合に比較すると、対象者H1の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者H1が一時的に下を向いているような場合に、対象者H1が居眠りをしているとの誤った判定が生じにくい。結果的に、監視システム1によれば、誤った判定を生じにくくすることが可能である。 According to this configuration, the consciousness of the subject H1 is determined based on not only the face information about the state of each part of the face F1 of the subject H1, but also the model information about the posture model M1 representing at least the posture of the upper body of the subject H1. status is determined. Therefore, compared to the case where the state of consciousness of the subject H1 is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject H1. Therefore, for example, when the subject H1 is simply looking down temporarily, it is difficult to make an erroneous determination that the subject H1 is dozing off. As a result, according to the monitoring system 1, it is possible to make erroneous determinations less likely to occur.

(2)詳細
以下、本実施形態に係る監視システム1及び移動体4の詳細について、図1A~図7Bを参照して説明する。
(2) Details Details of the monitoring system 1 and the moving object 4 according to the present embodiment will be described below with reference to FIGS. 1A to 7B.

(2.1)前提
本実施形態に係る監視システム1は、図1Bに示すように、移動体本体41に搭載され、移動体本体41と共に移動体4を構成する。すなわち、本実施形態に係る移動体4は、監視システム1と、移動体本体41と、を備えている。移動体本体41には、監視システム1が搭載されている。本実施形態では一例として、移動体4は航空機であって、移動体本体41は航空機の機体である。ここでは特に、移動体4が旅客を輸送するための民間の旅客機(飛行機)である場合を想定する。
(2.1) Assumptions As shown in FIG. 1B, the monitoring system 1 according to the present embodiment is mounted on a mobile body 41 and constitutes the mobile body 4 together with the mobile body 41 . That is, the mobile body 4 according to this embodiment includes the monitoring system 1 and a mobile body main body 41 . A monitoring system 1 is mounted on the mobile body 41 . In this embodiment, as an example, the mobile body 4 is an aircraft, and the mobile body main body 41 is the airframe of the aircraft. Here, in particular, it is assumed that the moving body 4 is a commercial airliner (airplane) for transporting passengers.

また、本実施形態に係る監視システム1での意識状態の監視対象となる対象者H1は、航空機からなる移動体4の操縦者(pilot)である。対象者H1となる移動体4の操縦者は、移動体4の操縦室に乗り込み、航空機からなる移動体4の操縦を行う。本実施形態では一例として、移動体4には、機長及び副操縦士の2名の操縦者が乗っており、監視システム1は、2名の操縦者の各々を対象者H1として、各対象者H1の意識状態を監視することと仮定する。ただし、以下では特に断りが無い限り、1名の対象者H1(ここでは操縦者)に着目して説明することとする。 A subject H1 whose state of consciousness is to be monitored by the monitoring system 1 according to the present embodiment is a pilot of a moving body 4 made of an aircraft. The operator of the mobile object 4, which is the target person H1, gets into the cockpit of the mobile object 4 and controls the mobile object 4, which is an aircraft. In this embodiment, as an example, two operators, a captain and a copilot, are on board the mobile object 4, and the monitoring system 1 sets each of the two operators as a target person H1, and Suppose we want to monitor the state of consciousness of H1. However, hereinafter, unless otherwise specified, the description will focus on one target person H1 (here, the operator).

本開示でいう「意識状態」とは、例えば、対象者H1の意識水準(意識レベル)又は覚醒度等を意味し、意識喪失(意識消失又は失神を含む)/意識清明の状態に大別される。ここでいう意識水準には、一例として、清明(alert)、傾眠(somnolence)、昏迷(stupor)及び昏睡(coma)等が含まれる。さらに、意識清明とは、意識がある状態であって、まず「覚醒」していること、加えて周囲を「認識」できる状態であり、開眼、言葉及び動作等で外界からの刺激又は情報に「反応」できることも必要である。これに対し、意識喪失は、何らかの形で意識清明でなくなった状態を意味する。本開示においては、つまり意識水準の一時的な低下現象で、かつ必ず覚醒可能な状態である睡眠(居眠りを含む)についても、意識喪失に含まれる。本実施形態では一例として、監視システム1は、対象者H1の意識状態について、意識清明に相当する「正常」の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定する。 The "state of consciousness" in the present disclosure means, for example, the level of consciousness (level of consciousness) or the degree of arousal of the subject H1, and is roughly divided into a state of loss of consciousness (including loss of consciousness or fainting) / state of clear consciousness. be. The level of consciousness referred to here includes, for example, alert, somnolence, stupor, coma, and the like. Furthermore, lucid consciousness is a state of being conscious, first of all, being “awakened”, and being able to “recognize” the surroundings, and being able to respond to stimuli or information from the outside world by opening the eyes, words and actions, etc. It is also necessary to be able to "react". Conversely, unconsciousness refers to the state of being unconscious in some way. In the present disclosure, sleep (including dozing off), which is a phenomenon in which the level of consciousness is temporarily lowered and is always awakeable, is also included in unconsciousness. In this embodiment, as an example, the monitoring system 1 determines whether the subject H1's state of consciousness is in one of two states: a "normal" state corresponding to clear consciousness and a "loss of consciousness" state. .

本開示でいう「顔F1の各部位の状態」は、対象者H1の顔F1の各パーツの状態であって、例えば、まぶた、口、眼球(目)、鼻、眉、眉間又は耳等の状態である。例えば、「まぶた」の状態であれば、上まぶたF11及び下まぶたF12間の距離であるまぶた間距離D1(図3A参照)、まぶたの形状、並びに、まぶた間距離D1から推定される「まばたき」の有無、及び閉眼/開眼の区別等を含む。「口」の状態であれば、口角の位置、唇の形状、閉口/開口の区別、口から泡を吹いているか否か、及び吐血の有無等を含む。「眼球」の状態であれば、眼球の動き(視線の動き)、白目をむいているか否か及び瞳孔の開き具合等を含む。本実施形態では一例として、顔情報が表す顔F1の各部位の状態は、少なくとも対象者H1の「まぶた」の状態を含んでいる。 The “state of each part of the face F1” in the present disclosure refers to the state of each part of the face F1 of the subject H1, such as the eyelids, mouth, eyeballs (eyes), nose, eyebrows, between the eyebrows, or ears. state. For example, in the state of "eyelids", the distance D1 between the upper eyelids F11 and the lower eyelids F12 (see FIG. 3A), the shape of the eyelids, and the "blinking" estimated from the distance D1 between the eyelids including the presence/absence of eyes and the distinction between eyes closed/eyes open. Mouth conditions include the position of the corners of the mouth, the shape of the lips, whether the mouth is closed or open, whether the mouth is foaming, and whether blood is being vomited. In the case of the "eyeball" state, the movement of the eyeball (movement of the line of sight), whether or not the white of the eye is turned, the degree of dilation of the pupil, and the like are included. As an example in this embodiment, the state of each part of the face F1 represented by the face information includes at least the state of the "eyelids" of the subject H1.

本開示でいう「姿勢モデル」は、対象者H1の少なくとも上半身の姿勢を表すモデルデータからなり、少なくとも複数の特徴点P1~P7を含んでいる。本実施形態では一例として、姿勢モデルM1は、複数の特徴点P1~P7間を、直線でつないだ骨格線モデルある。 The “posture model” referred to in the present disclosure consists of model data representing at least the posture of the subject H1's upper body, and includes at least a plurality of feature points P1 to P7. In this embodiment, as an example, the posture model M1 is a skeletal line model in which a plurality of feature points P1 to P7 are connected by straight lines.

本開示でいう「特徴点」は、人体の各部位に相当する点であって、例えば、顔F1の中心、左右一対の鎖骨の中心、肩又は肘等に対応付けられる。本実施形態では一例として、姿勢モデルM1は、図3Bに示すように、対象者H1の上半身(へそから頭頂部までの間)に設定された7つの部位にそれぞれ対応する、7つの特徴点P1~P7を含んでいる。特徴点P1は顔F1の中心、特徴点P2は左右一対の鎖骨の中心、特徴点P3は右肩、特徴点P4は右肘、特徴点P5は左肩、特徴点P6は左肘、特徴点P7はへそ、にそれぞれ相当する。これら7つの特徴点P1~P7のうち、P1-P2間、P3-P4間、P5-P6間、P2-P3間、P3-P5間、及びP2-P7間が直線でつながることにより、姿勢モデルM1が構成されている。 A “feature point” in the present disclosure is a point corresponding to each part of the human body, and is associated with, for example, the center of the face F1, the center of a pair of left and right clavicles, shoulders or elbows. In this embodiment, as an example, the posture model M1 includes seven feature points P1 corresponding to seven parts set on the upper body (from the navel to the top of the head) of the subject H1, as shown in FIG. 3B. ~P7 included. The feature point P1 is the center of the face F1, the feature point P2 is the center of a pair of left and right clavicles, the feature point P3 is the right shoulder, the feature point P4 is the right elbow, the feature point P5 is the left shoulder, the feature point P6 is the left elbow, and the feature point P7. corresponds to navel, respectively. Of these seven feature points P1 to P7, the posture model M1 is configured.

本実施形態では一例として、このような姿勢モデルM1に関するモデル情報は、撮像装置2(図1A参照)で撮影される画像Im1(図2参照)から抽出される。本開示でいう「画像」は、動画(動画像)及び静止画(静止画像)を含む。さらに、「動画」は、コマ撮り等により得られる複数の静止画にて構成される画像を含む。本実施形態では一例として、画像Im1は時間経過に伴って変化する画像(つまり動画)である。 As an example in the present embodiment, such model information about the posture model M1 is extracted from an image Im1 (see FIG. 2) captured by the imaging device 2 (see FIG. 1A). The “image” referred to in the present disclosure includes moving images (moving images) and still images (still images). Furthermore, "moving image" includes an image composed of a plurality of still images obtained by frame-by-frame shooting or the like. In this embodiment, as an example, the image Im1 is an image (that is, moving image) that changes over time.

(2.2)構成
次に、本実施形態に係る監視システム1及び移動体4の構成について説明する。
(2.2) Configuration Next, configurations of the monitoring system 1 and the moving body 4 according to this embodiment will be described.

監視システム1には、図1Aに示すように、撮像装置2及び制御システム3が接続される。撮像装置2及び制御システム3は、監視システム1と共に、移動体4の移動体本体41に搭載されている。つまり、本実施形態に係る移動体4は、監視システム1及び移動体本体41に加えて、撮像装置2及び制御システム3を更に備えている。 An imaging device 2 and a control system 3 are connected to the monitoring system 1, as shown in FIG. 1A. The imaging device 2 and the control system 3 are mounted on a mobile body 41 of the mobile body 4 together with the monitoring system 1 . That is, the moving body 4 according to this embodiment further includes the imaging device 2 and the control system 3 in addition to the monitoring system 1 and the moving body main body 41 .

本実施形態では、撮像装置2及び制御システム3は、監視システム1の構成要素には含まれないこととするが、撮像装置2及び制御システム3の少なくとも一方は、監視システム1の構成要素に含まれてもよい。 In this embodiment, the imaging device 2 and the control system 3 are not included in the components of the monitoring system 1, but at least one of the imaging device 2 and the control system 3 is included in the components of the monitoring system 1. may be

本実施形態においては、顔情報とモデル情報とは、いずれも画像Im1から抽出される。すなわち、監視システム1での対象者H1の意識状態の判定には、顔情報とモデル情報とが用いられるが、これら顔情報及びモデル情報は、いずれも撮像装置2で撮影される画像Im1から抽出される。言い換えれば、判定部16での意識状態の判定に用いられる顔情報は画像Im1から抽出され、判定部16での意識状態の判定に用いられるモデル情報についても画像Im1から抽出される。 In this embodiment, both face information and model information are extracted from the image Im1. That is, face information and model information are used to determine the state of consciousness of the subject H1 in the monitoring system 1, and both of these face information and model information are extracted from the image Im1 captured by the imaging device 2. be done. In other words, face information used for determination of the state of consciousness by the determination unit 16 is extracted from the image Im1, and model information used for determination of the state of consciousness by the determination unit 16 is also extracted from the image Im1.

さらに、本実施形態では、判定部16が判定に用いる情報は、画像Im1のみから抽出される。すなわち、上述したように、判定部16での意識状態の判定に用いられる顔情報及びモデル情報は、いずれも画像Im1から抽出される情報である。さらに、詳しくは後述するが、本実施形態に係る監視システム1では、判定部16での意識状態の判定には、顔情報及びモデル情報に加えて、顔位置情報が用いられる。そして、この顔位置情報についても、顔情報及びモデル情報と同様に画像Im1から抽出される。そのため、監視システム1では、例えば、心拍数、体温及び姿勢等の情報を検知するための生体センサ、又は、対象者H1の動きを検出するための加速度センサ若しくは角速度センサ等を用いることなく、対象者H1の意識状態の判定が可能である。 Furthermore, in the present embodiment, the information used by the determination unit 16 for determination is extracted only from the image Im1. That is, as described above, both the face information and the model information used for the determination of the state of consciousness by the determination unit 16 are information extracted from the image Im1. Furthermore, in the monitoring system 1 according to the present embodiment, in addition to face information and model information, face position information is used for determination of the state of consciousness by the determination unit 16, although details will be described later. This face position information is also extracted from the image Im1 in the same manner as the face information and the model information. Therefore, in the monitoring system 1, for example, the subject can be It is possible to determine the state of consciousness of the person H1.

撮像装置2は、モデル情報等を抽出するための画像Im1を撮影する装置であって、カメラを含んでいる。本実施形態では、撮像装置2は、その画角内に少なくとも対象者H1の上半身(頭部を含む)が含まれるように設置されている。本実施形態では、対象者H1は移動体4(航空機)の操縦者であるので、撮像装置2のカメラは、移動体4の操縦室において対象者H1(操縦者)を前方から撮影可能なように、対象者H1の前方に設置されている。さらに、2名の操縦者の各々が対象者H1であるので、1名の対象者H1につき1台のカメラが設置されることが好ましい。 The imaging device 2 is a device for capturing an image Im1 for extracting model information and the like, and includes a camera. In this embodiment, the imaging device 2 is installed so that at least the upper half of the body (including the head) of the subject H1 is included within the angle of view. In this embodiment, the target person H1 is the operator of the mobile object 4 (aircraft), so the camera of the imaging device 2 is arranged so that the target person H1 (operator) can be photographed from the front in the cockpit of the mobile object 4. , is installed in front of the subject H1. Furthermore, since each of the two operators is the subject H1, it is preferable to install one camera per subject H1.

本実施形態では、撮像装置2は、対象者H1(操縦者)による操縦の邪魔にならず、かつ暗所でも撮影可能なように、例えば、赤外線カメラのような暗視カメラを含んでいる。より詳細には、一例として、撮像装置2で撮影される画像Im1は、モーションJPEG(Motion JPEG)等の時系列に沿った複数の静止画にて構成される、30fpsの動画である。撮像装置2で撮像された画像Im1は、例えば、リアルタイムで又はバッファ等を介して、監視システム1に出力される。 In this embodiment, the imaging device 2 includes, for example, a night vision camera such as an infrared camera so as not to interfere with the operation of the subject H1 (operator) and to allow imaging even in a dark place. More specifically, as an example, the image Im1 captured by the imaging device 2 is a 30 fps moving image composed of a plurality of time-series still images such as Motion JPEG (Motion JPEG). An image Im1 captured by the imaging device 2 is output to the monitoring system 1, for example, in real time or via a buffer or the like.

制御システム3は、監視システム1からの出力信号を受けて動作するシステムである。監視システム1からの出力信号には、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)が含まれている。そのため、制御システム3は、対象者H1の意識状態の判定結果に応じて動作可能である。 The control system 3 is a system that operates upon receiving an output signal from the monitoring system 1 . The output signal from the monitoring system 1 contains at least the determination result of the subject H1's state of consciousness (normal/unconscious). Therefore, the control system 3 can operate according to the determination result of the consciousness state of the subject H1.

本実施形態では、制御システム3は、対象者H1の意識状態の判定結果に応じて、適宜、通報を行う。一例として、操縦者である対象者H1の意識状態の判定結果が「意識喪失」であれば、制御システム3は、他の乗務員(他の操縦者又は客室乗務員等)と、管制塔との少なくとも一方に対して、異常を知らせる通報を行う。さらに、制御システム3は、対象者H1の意識状態の判定結果に応じて、移動体4に搭載されている監視システム1以外の設備システム(表示システム等)を制御してもよいし、移動体本体41の操縦を自動操縦に切り替える等、移動体本体41を制御してもよい。 In the present embodiment, the control system 3 notifies appropriately according to the determination result of the consciousness state of the subject H1. As an example, if the determination result of the state of consciousness of the target person H1 who is the operator is "loss of consciousness", the control system 3 determines whether other crew members (other pilots, cabin crew members, etc.) and the control tower A notification is sent to one of them to inform them of the abnormality. Furthermore, the control system 3 may control equipment systems (such as a display system) other than the monitoring system 1 mounted on the mobile body 4 according to the determination result of the consciousness state of the subject H1. The moving body main body 41 may be controlled such as by switching the operation of the main body 41 to autopilot.

本実施形態では、監視システム1は、図1Aに示すように、顔情報取得部13、モデル取得部15及び判定部16に加えて、入力部11、抽出部12、顔位置取得部14及び出力部17を更に備えている。すなわち、本実施形態に係る監視システム1は、入力部11と、抽出部12と、顔情報取得部13と、顔位置取得部14と、モデル取得部15と、判定部16と、出力部17と、を備えている。 In this embodiment, as shown in FIG. 1A, the monitoring system 1 includes an input unit 11, an extraction unit 12, a face position acquisition unit 14 and an output A portion 17 is further provided. That is, the monitoring system 1 according to this embodiment includes an input unit 11, an extraction unit 12, a face information acquisition unit 13, a face position acquisition unit 14, a model acquisition unit 15, a determination unit 16, and an output unit 17. and have.

本実施形態では一例として、監視システム1は、1以上のプロセッサ及び1以上のメモリを有するコンピュータシステム(サーバ、クラウドコンピューティングを含む)を主構成とする。プロセッサは、メモリに記録されているプログラムを実行することにより、監視システム1の機能を実現する。プログラムは、予めメモリに記録されていてもよいし、メモリカードのような非一時的記録媒体に記録されて提供されたり、電気通信回線を通して提供されたりしてもよい。言い換えれば、上記プログラムは、1以上のプロセッサを、監視システム1として機能させるためのプログラムである。 In this embodiment, as an example, the monitoring system 1 is mainly composed of a computer system (including servers and cloud computing) having one or more processors and one or more memories. The processor implements the functions of the monitoring system 1 by executing programs recorded in the memory. The program may be recorded in memory in advance, recorded in a non-temporary recording medium such as a memory card and provided, or provided through an electric communication line. In other words, the program is a program for causing one or more processors to function as the monitoring system 1 .

入力部11は、撮像装置2に接続されている。入力部11には、撮像装置2で撮影された画像Im1が入力される。本実施形態では、入力部11は、リアルタイムで、撮像装置2から通信により、動画(動画像)からなる画像Im1を取得する。ここで、入力部11に入力される画像Im1は、撮像装置2から出力されたデータそのものでなくてもよい。例えば、入力部11に入力される画像Im1は、必要に応じて適宜データの圧縮、他のデータ形式への変換、又は撮影された画像から一部を切り出す加工、ピント調整、明度調整、若しくはコントラスト調整等の加工が施されていてもよい。 The input unit 11 is connected to the imaging device 2 . An image Im<b>1 captured by the imaging device 2 is input to the input unit 11 . In the present embodiment, the input unit 11 acquires an image Im1 composed of a moving image (moving image) from the imaging device 2 by communication in real time. Here, the image Im1 input to the input unit 11 may not be the data output from the imaging device 2 itself. For example, the image Im1 input to the input unit 11 can be appropriately compressed, converted to another data format, processed by cutting out a part of the captured image, adjusted in focus, adjusted in brightness, or adjusted in contrast as necessary. Processing such as adjustment may be applied.

抽出部12は、入力部11に入力された画像Im1から、対象者H1の意識状態の判定に必要な種々の情報を抽出する。抽出部12は、画像Im1について画像処理を適宜行うことで、これら種々の情報を抽出する。本実施形態では、上述したように、判定部16での意識状態の判定には、顔情報、モデル情報及び顔位置情報が用いられる。そのため、抽出部12は、これら顔情報、モデル情報及び顔位置情報を画像Im1から抽出する。顔情報は、対象者H1の顔F1の各部位の状態に関する情報である。モデル情報は、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関する情報である。また、顔位置情報は、対象者H1の顔F1の位置と向きとの少なくとも一方に関する情報である。すなわち、抽出部12は、例えば、図2に示すように、画像Im1内に、対象者H1の顔F1が含まれる顔領域R1を設定し、顔領域R1から、少なくとも顔情報及び顔位置情報を抽出する。 The extraction unit 12 extracts, from the image Im<b>1 input to the input unit 11 , various information necessary for determining the state of consciousness of the subject H<b>1 . The extraction unit 12 extracts these various types of information by appropriately performing image processing on the image Im1. In this embodiment, as described above, face information, model information, and face position information are used for determination of the state of consciousness by the determination unit 16 . Therefore, the extraction unit 12 extracts the face information, the model information, and the face position information from the image Im1. The face information is information about the state of each part of the face F1 of the subject H1. The model information is information about the posture model M1 representing at least the posture of the subject H1's upper body. The face position information is information regarding at least one of the position and orientation of the face F1 of the subject H1. That is, for example, as shown in FIG. 2, the extraction unit 12 sets a face region R1 including the face F1 of the subject H1 in the image Im1, and extracts at least face information and face position information from the face region R1. Extract.

抽出部12は、例えば、HOG(Histograms of Oriented Gradients)特徴量、又は畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等を用いて、対象者H1の意識状態の判定に必要な種々の情報を抽出してもよい。 The extraction unit 12 extracts various kinds of information necessary for determining the state of consciousness of the subject H1 using, for example, a HOG (Histograms of Oriented Gradients) feature amount, a convolutional neural network (CNN), or the like. may

顔情報取得部13は、対象者H1の顔F1の各部位の状態に関する顔情報を取得する。顔情報は、判定部16での意識状態の判定に用いられる。本実施形態では、顔情報は、抽出部12にて画像Im1から抽出されるので、顔情報取得部13は、抽出部12で抽出された顔情報を抽出部12から取得する。 The face information acquisition unit 13 acquires face information regarding the state of each part of the face F1 of the subject H1. The face information is used by the determination unit 16 to determine the state of consciousness. In the present embodiment, the face information is extracted from the image Im1 by the extractor 12 , so the face information acquirer 13 acquires the face information extracted by the extractor 12 from the extractor 12 .

上述した通り、本実施形態では一例として、顔情報が表す顔F1の各部位の状態は、少なくとも対象者H1の「まぶた」の状態を含んでいる。すなわち、顔情報は、対象者H1のまぶたの状態に関する情報を含んでいる。そのため、顔情報取得部13が取得する顔情報は、図3Aに示すように、上まぶたF11と、下まぶたF12と、の間の距離である、まぶた間距離D1を含んでいる。一例として、まぶた間距離D1が所定距離以下である状態が一定時間継続すると、対象者H1の状態が「閉眼」にあることが推定される。 As described above, in the present embodiment, as an example, the state of each part of the face F1 represented by the face information includes at least the state of the "eyelids" of the subject H1. That is, the face information includes information regarding the condition of the eyelids of the subject H1. Therefore, the face information acquired by the face information acquisition unit 13 includes an inter-eyelid distance D1, which is the distance between the upper eyelid F11 and the lower eyelid F12, as shown in FIG. 3A. As an example, when the inter-eyelid distance D1 is equal to or less than a predetermined distance for a certain period of time, it is estimated that the subject H1 is in the "eyes closed" state.

顔位置取得部14は、対象者H1の顔F1の位置と向きとの少なくとも一方に関する顔位置情報を取得する。顔位置情報は、判定部16での意識状態の判定に用いられる。本実施形態では、顔位置情報は、抽出部12にて画像Im1から抽出されるので、顔位置取得部14は、抽出部12で抽出された顔位置情報を抽出部12から取得する。ここで、本実施形態では一例として、顔位置情報は、図3Cに示すように、対象者H1の顔F1の中心から、顔F1が向けられている方向に延びるベクトルA1で表される情報を含んでいる。つまり、顔位置情報は、対象者H1の顔F1の中心の位置の情報と、顔F1の向きの情報と、の両方を含んでいる。図3Cの例では、対象者H1の顔F1は撮像装置2のカメラの方向に向いているため、顔位置情報に含まれるベクトルA1は、顔F1の中心から真正面に向けて延びる矢印となる。 The face position acquisition unit 14 acquires face position information regarding at least one of the position and orientation of the face F1 of the subject H1. The face position information is used by the determination unit 16 to determine the state of consciousness. In this embodiment, the face position information is extracted from the image Im1 by the extraction unit 12, so the face position acquisition unit 14 acquires the face position information extracted by the extraction unit 12 from the extraction unit 12. FIG. Here, as an example in this embodiment, as shown in FIG. 3C, the face position information is information represented by a vector A1 extending from the center of the face F1 of the subject H1 in the direction in which the face F1 is directed. contains. That is, the face position information includes both information on the position of the center of the face F1 of the subject H1 and information on the orientation of the face F1. In the example of FIG. 3C, the face F1 of the subject H1 faces the camera of the imaging device 2, so the vector A1 included in the face position information is an arrow extending straight from the center of the face F1.

モデル取得部15は、複数の特徴点P1~P7を含み、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関するモデル情報を取得する。モデル情報は、判定部16での意識状態の判定に用いられる。本実施形態では、モデル情報は、抽出部12にて画像Im1から抽出されるので、モデル取得部15は、抽出部12で抽出されたモデル情報を抽出部12から取得する。上述した通り、本実施形態では一例として、姿勢モデルM1は、対象者H1の上半身に設定された7つの部位にそれぞれ対応する、7つの特徴点P1~P7を含んでいる。そのため、モデル取得部15が取得するモデル情報は、図3Bに示すように、画像Im1における対象者H1の上半身に重ねて生成される姿勢モデルM1に関する情報である。 The model acquisition unit 15 acquires model information about a posture model M1 that includes a plurality of feature points P1 to P7 and represents at least the posture of the upper body of the subject H1. The model information is used for determination of the state of consciousness by the determination unit 16 . In the present embodiment, the model information is extracted from the image Im1 by the extraction unit 12 , so the model acquisition unit 15 acquires the model information extracted by the extraction unit 12 from the extraction unit 12 . As described above, in this embodiment, as an example, the posture model M1 includes seven feature points P1 to P7 respectively corresponding to seven parts set on the upper body of the subject H1. Therefore, the model information acquired by the model acquisition unit 15 is, as shown in FIG. 3B, information relating to the posture model M1 generated superimposed on the upper body of the subject H1 in the image Im1.

ここで、姿勢モデルM1における特徴点P3-P4をつなぐ直線、及び特徴点P5-P6をつなぐ直線についての、鉛直線に対する角度θ1,θ2(図3B参照)は、対象者H1の腕(上腕部)の角度に相当する。さらに、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3(図6B及び図7B参照)は、対象者H1の上半身の傾斜角度に相当する。本実施形態では、このような対象者H1の腕(上腕部)の角度θ1,θ2の情報、及び対象者H1の上半身の角度θ3の情報も、モデル取得部15が取得するモデル情報に含まれる。 Here, the angles θ1 and θ2 (see FIG. 3B) of the straight line connecting the feature points P3 and P4 and the straight line connecting the feature points P5 and P6 in the posture model M1 with respect to the vertical line are the arms (upper arms) of the subject H1. ). Furthermore, the angle θ3 (see FIGS. 6B and 7B) of the straight line connecting the feature points P2-P7 in the posture model M1 with respect to the vertical line corresponds to the inclination angle of the upper body of the subject H1. In the present embodiment, the model information acquired by the model acquisition unit 15 also includes information on the angles θ1 and θ2 of the arms (upper arms) of the subject H1 and information on the angle θ3 of the upper body of the subject H1. .

ここにおいて、本実施形態では、判定部16での意識状態の判定に用いられる顔情報、モデル情報及び顔位置情報は、同一の画像Im1から、抽出部12にて抽出される。つまり、1つの画像Im1から、顔情報、モデル情報及び顔位置情報が抽出可能であるため、顔情報、モデル情報及び顔位置情報の各々を抽出するために、複数のカメラを設置する必要が無い。よって、本実施形態では、少なくとも顔情報取得部13及びモデル取得部15は、同一の画像Im1から顔情報及びモデル情報を取得することになる。 Here, in the present embodiment, the extraction unit 12 extracts the face information, the model information, and the face position information used for the determination of the state of consciousness by the determination unit 16 from the same image Im1. That is, since face information, model information, and face position information can be extracted from one image Im1, there is no need to install a plurality of cameras to extract each of the face information, model information, and face position information. . Therefore, in this embodiment, at least the face information acquisition unit 13 and the model acquisition unit 15 acquire face information and model information from the same image Im1.

図3A~図3C等においては、画像Im1の具体例を示しているが、顔領域R1、姿勢モデルM1、ベクトルA1及び参照符号は説明のために表記しているに過ぎず、これらが実際に画像Im1に含まれている訳ではない。 3A to 3C and the like show a specific example of the image Im1, but the face region R1, posture model M1, vector A1, and reference numerals are only shown for the sake of explanation. It is not included in the image Im1.

判定部16は、対象者H1の意識状態を判定する機能を有する。判定部16は、少なくとも顔情報及びモデル情報の両方に基づいて、対象者H1の意識状態を判定する。本実施形態では、判定部16は、基本的には、顔情報、モデル情報及び顔位置情報に基づいて、対象者H1の意識状態を判定する。本実施形態では一例として、判定部16は、対象者H1の意識状態について、意識清明に相当する「正常」の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定する。 The determination unit 16 has a function of determining the state of consciousness of the subject H1. The determination unit 16 determines the state of consciousness of the subject H1 based on at least both the face information and the model information. In this embodiment, the determination unit 16 basically determines the state of consciousness of the subject H1 based on face information, model information, and face position information. In the present embodiment, as an example, the determination unit 16 determines which of two states, a "normal" state corresponding to clear consciousness and a "loss of consciousness" state, is the state of consciousness of the subject H1. .

ここで、判定部16は、顔情報、モデル情報及び顔位置情報の各々を所定の判定時間にわたって蓄積し、蓄積されたこれらの情報を統合して、対象者H1の意識状態を判定(推定)する。一例として、判定時間が5分であるとすれば、判定部16は、判定時間に当たる5分間は、顔情報、モデル情報及び顔位置情報の各々を蓄積するだけで、判定までは行わない。そして、判定時間に当たる5分が経過した時点で、蓄積されている顔情報、モデル情報及び顔位置情報を統合し、対象者H1の意識状態を判定(推定)する。そのため、例えば、判定時間内に、一時的に、意識喪失に当たると判定し得る状況が生じたとしても、判定時間全体を通して、正常(意識清明)と判定される場合には、判定部16は正常(意識清明)と判定することができる。反対に、判定時間内に、一時的に、意識清明に当たると判定し得る状況が生じたとしても、判定時間全体を通して、意識喪失と判定される場合には、判定部16は意識喪失と判定することができる。 Here, the determination unit 16 accumulates each of the face information, the model information, and the face position information for a predetermined determination time, integrates the accumulated information, and determines (estimates) the state of consciousness of the subject H1. do. As an example, if the determination time is 5 minutes, the determination unit 16 only accumulates face information, model information, and face position information during the determination time of 5 minutes, and does not perform determination. Then, when 5 minutes corresponding to the determination time have passed, the accumulated face information, model information, and face position information are integrated to determine (estimate) the state of consciousness of the subject H1. Therefore, for example, even if a situation that can be determined as loss of consciousness occurs temporarily within the determination time, if the determination is normal (clear consciousness) throughout the determination time, the determination unit 16 is normal. (clear consciousness) can be determined. On the other hand, even if a situation where it can be determined that the consciousness is clear temporarily occurs during the determination time, the determination unit 16 determines that the consciousness is lost if the loss of consciousness is determined throughout the determination time. be able to.

また、詳しくは「(2.3.2)判定動作」の欄で説明するが、判定部16は、顔情報、モデル情報及び顔位置情報の各々の信頼度を加味して、対象者H1の意識状態を判定する際の、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを変更可能である。つまり、本実施形態では、判定部16は、対象者H1の意識状態を判定するに際して、顔情報、モデル情報及び顔位置情報の全てを常に用いるのではなく、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを適宜変更する。その結果、判定部16は、例えば、顔情報、モデル情報及び顔位置情報のうちの顔情報のみに基づいて、対象者H1の意識状態を判定することもある。 Further, details will be described in the section "(2.3.2) Judgment operation", but the judgment unit 16 considers the reliability of each of the face information, the model information, and the face position information, It is possible to change the priority or weighting of face information, model information, and face position information when determining the state of consciousness. That is, in the present embodiment, the determination unit 16 does not always use all of the face information, the model information, and the face position information when determining the state of consciousness of the subject H1. change the priority or weighting of As a result, the determination unit 16 may determine the state of consciousness of the subject H1 based only on the face information among the face information, the model information, and the face position information, for example.

判定部16は、例えば、深層学習(Deep Learning)等の機械学習により学習する機能を有していることが好ましい。この場合、判定部16は、顔情報、モデル情報及び顔位置情報が学習済みの分類器に入力されることで、対象者H1の意識状態を判定する。 The determination unit 16 preferably has a function of learning by machine learning such as deep learning. In this case, the determining unit 16 determines the state of consciousness of the subject H1 by inputting the face information, the model information, and the face position information into the learned classifier.

出力部17は、判定部16の判定結果を受けて、制御システム3に対して出力信号を出力する。出力部17は、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)を出力信号に含めて、通信により制御システム3に出力信号を送信する。出力部17は、少なくとも判定結果が意識喪失である場合には、即座に制御システム3に出力信号を出力することが好ましい。一方、判定結果が正常(意識清明)である場合には、出力部17は、制御システム3に出力信号を即座に出力しなくてもよい。 The output unit 17 receives the determination result of the determination unit 16 and outputs an output signal to the control system 3 . The output unit 17 includes at least the determination result (normal/unconsciousness) of the state of consciousness of the subject H1 in the output signal, and transmits the output signal to the control system 3 by communication. Preferably, the output unit 17 immediately outputs an output signal to the control system 3 at least when the determination result is loss of consciousness. On the other hand, when the determination result is normal (clear consciousness), the output unit 17 does not have to output the output signal to the control system 3 immediately.

さらに、出力部17は、対象者H1の意識状態(正常/意識喪失)という判定部16の判定結果に加えて、この判定結果の確率(確からしさ)を出力してもよい。例えば、判定部16が70%の確率で「意識喪失」と判定した場合に、出力部17は、「意識喪失」という判定結果に加えて、この判定結果の確率が「70%」であることを出力する。 Furthermore, the output unit 17 may output the probability (probability) of the determination result in addition to the determination result of the determination unit 16 indicating the state of consciousness (normal/unconscious) of the subject H1. For example, when the determination unit 16 determines that “loss of consciousness” has a probability of 70%, the output unit 17 outputs the determination result of “loss of consciousness” and adds that the probability of this determination result is “70%”. to output

(2.3)動作
次に、本実施形態に係る監視システム1の動作、つまり本実施形態に係る監視方法について説明する。
(2.3) Operation Next, the operation of the monitoring system 1 according to this embodiment, that is, the monitoring method according to this embodiment will be described.

以下では、航空機からなる移動体4が離陸した後、着陸を開始するまでの間の期間を監視期間とし、この監視期間に、監視システム1が対象者H1(操縦者)の意識状態の監視を行うことと仮定する。特に、ここでは移動体4が離陸してから着陸を開始するまでの間は、移動体本体41が自動操縦(autopilot)により巡航していることを前提とする。つまり、監視システム1は、移動体4が自動操縦により巡航している監視期間中において、移動体4の操縦者である対象者H1の意識状態を監視する。 In the following, the monitoring period is defined as a period from when the moving object 4, which is an aircraft, takes off until it starts to land. Assuming you do. In particular, it is assumed here that the mobile body 41 is cruising by autopilot during the period from when the mobile body 4 takes off until it starts landing. In other words, the monitoring system 1 monitors the state of consciousness of the subject H1 who is the operator of the moving body 4 during the monitoring period when the moving body 4 is cruising by autopilot.

さらに、判定部16が対象者H1の意識状態を判定する周期となる判定時間は、ここでは5分であることと仮定する。つまり、判定部16は、顔情報、モデル情報及び顔位置情報の各々を5分の判定時間にわたって蓄積し、判定時間に当たる5分が経過する度に、蓄積されたこれらの情報を統合して、対象者H1の意識状態を判定する。 Furthermore, it is assumed here that the determination time, which is a period in which the determination unit 16 determines the state of consciousness of the subject H1, is 5 minutes. That is, the determination unit 16 accumulates each of the face information, the model information, and the face position information for the determination time of 5 minutes, and integrates the accumulated information each time the determination time of 5 minutes elapses. Determine the state of consciousness of the subject H1.

(2.3.1)全体動作
図4は、監視期間における監視システム1の全体動作、つまり監視方法の全体的な流れの一例を示すフローチャートである。
(2.3.1) Overall Operation FIG. 4 is a flowchart showing an example of the overall operation of the monitoring system 1 during the monitoring period, that is, the overall flow of the monitoring method.

すなわち、監視システム1は、監視期間が開始すると、まずは撮像装置2で撮影された画像Im1を、入力部11にて撮像装置2から取得する(S1)。画像Im1を取得すると、監視システム1は、取得した画像Im1から、抽出部12にて、顔情報、モデル情報及び顔位置情報の抽出を行う。 That is, when the monitoring period starts, the monitoring system 1 first acquires an image Im1 captured by the imaging device 2 from the imaging device 2 by the input unit 11 (S1). When the image Im1 is acquired, the monitoring system 1 extracts face information, model information, and face position information from the acquired image Im1 by the extraction unit 12 .

そして、監視システム1は、顔情報取得部13にて顔情報を取得し(S2)、顔位置取得部14にて顔位置情報を取得し(S3)、モデル取得部15にてモデル情報を取得する(S4)。その後、監視システム1は、判定時間(ここでは5分)が経過したか否かを判断する(S5)。判定時間が経過していなければ、処理S1に戻って、画像Im1の取得以降の処理を繰り返す。 Then, the monitoring system 1 acquires face information with the face information acquisition unit 13 (S2), acquires face position information with the face position acquisition unit 14 (S3), and acquires model information with the model acquisition unit 15. (S4). After that, the monitoring system 1 determines whether or not the determination time (here, 5 minutes) has passed (S5). If the determination time has not elapsed, the process returns to step S1 and repeats the processes after the acquisition of the image Im1.

一方、判定時間が経過すると、監視システム1は、判定部16にて、対象者H1の意識状態を判定する判定処理を実行する(S6)。この判定処理S6では、判定部16は、少なくとも、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定可能である。判定処理S6について詳しくは、「(2.3.2)判定動作」の欄で説明する。 On the other hand, when the determination time has elapsed, the monitoring system 1 executes determination processing for determining the state of consciousness of the subject H1 in the determination unit 16 (S6). In this determination process S6, the determination unit 16 can determine the state of consciousness of the subject H1 based on at least both the face information and the model information. The determination processing S6 will be described in detail in the section "(2.3.2) Determination operation".

判定処理S6が終了すると、監視システム1は、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)を含む出力信号を、出力部17にて制御システム3に出力する(S7)。これにより、例えば、判定処理S6での判定結果が「意識喪失」であれば、制御システム3は、他の乗務員(他の操縦者又は客室乗務員等)と、管制塔との少なくとも一方に対して、異常を知らせる通報を行う。 When the determination process S6 is completed, the monitoring system 1 outputs an output signal including at least the determination result (normal/unconsciousness) of the state of consciousness of the subject H1 to the control system 3 through the output unit 17 (S7). As a result, for example, if the determination result in the determination process S6 is "loss of consciousness", the control system 3 is directed to at least one of the other crew members (other pilots, cabin crew members, etc.) and the control tower. , make a report to notify of an abnormality.

監視システム1は、監視期間にわたって、上述したような処理S1~S7を繰り返し実行する。図4のフローチャートは、監視システム1の全体動作の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。例えば、処理S2~S4の順番が変更され、モデル取得部15にてモデル情報を取得した後(S4)、顔位置取得部14にて顔位置情報を取得し(S3)、その後に顔情報取得部13にて顔情報を取得してもよい(S2)。 The monitoring system 1 repeatedly executes the processes S1 to S7 as described above over the monitoring period. The flowchart of FIG. 4 is merely an example of the overall operation of the monitoring system 1, and processing may be omitted or added as appropriate, and the order of processing may be changed as appropriate. For example, the order of the processes S2 to S4 is changed, and after model information is acquired by the model acquisition unit 15 (S4), face position information is acquired by the face position acquisition unit 14 (S3), and then face information is acquired. Face information may be acquired by the unit 13 (S2).

(2.3.2)判定動作
以下、監視システム1による対象者H1の意識状態の判定の動作、つまり図4における判定処理S6について、詳しく説明する。
(2.3.2) Determining Operation Hereinafter, the operation of determining the state of consciousness of the subject H1 by the monitoring system 1, that is, the determining process S6 in FIG. 4 will be described in detail.

図5は、判定処理(図4のS6)における判定部16の動作の一例を示すフローチャートである。図5のフローチャートにおいて、判定部16が、対象者H1の意識状態の判定にモデル情報を用いる処理(S16,S17)には網掛けを付している。言い換えれば、図5において、網掛けが付されていない処理は、対象者H1の意識状態の判定にモデル情報が用いられない処理である。 FIG. 5 is a flow chart showing an example of the operation of the determination unit 16 in the determination process (S6 in FIG. 4). In the flowchart of FIG. 5, the processes (S16, S17) in which the determination unit 16 uses the model information to determine the state of consciousness of the subject H1 are shaded. In other words, in FIG. 5, the non-shaded processes are processes in which the model information is not used to determine the state of consciousness of the subject H1.

判定部16は、判定処理が開始すると、まずは対象者H1の「まぶた」を検出できたか否かを判断する(S11)。例えば、まぶた(上まぶたF11、下まぶた位F12)が画像Im1から鮮明に認識可能であれば、まぶたを検出できたと判断し(S11:Yes)、まぶたが画像Im1において鮮明に認識できなければ、まぶたを検出できないと判断する(S11:No)。まぶたの検出の可否は、例えば、顔情報取得部13が取得する顔情報に含まれている。 When the determination process starts, the determination unit 16 first determines whether or not the "eyelids" of the subject H1 have been detected (S11). For example, if the eyelids (upper eyelid position F11, lower eyelid position F12) can be clearly recognized from the image Im1, it is determined that the eyelids have been detected (S11: Yes), and if the eyelids cannot be clearly recognized in the image Im1, It is determined that the eyelids cannot be detected (S11: No). Whether the eyelids can be detected is included in the face information acquired by the face information acquisition unit 13, for example.

まぶたが検出された場合(S11:Yes)、判定部16は、まばたきの有無、及び閉眼の有無を判断する(S12)。まばたきの有無、及び閉眼の有無については、顔情報取得部13が取得する顔情報に基づいて判断される。例えば、対象者H1が所定時間(一例として1分)にわたって「まばたき」をしていない場合、「まばたき」なしと判断し、まぶた間距離D1が所定距離以下である状態が一定時間(一例として1分)継続している場合、閉眼と判断する(S12:Yes)。一方、「まばたき」ありと判断され、かつ開眼と判断される場合には、処理S12は「No」と判断される。 If the eyelids are detected (S11: Yes), the determination unit 16 determines whether or not the subject is blinking and whether or not the eyes are closed (S12). The presence or absence of blinking and the presence or absence of closed eyes are determined based on the face information acquired by the face information acquiring section 13 . For example, if the subject H1 does not "blink" for a predetermined time (one minute as an example), it is determined that there is no "blinking", and the distance D1 between the eyelids is equal to or less than the predetermined distance for a certain time (one minute as an example). minutes), it is determined that the eyes are closed (S12: Yes). On the other hand, if it is determined that the subject is "blinking" and that the eye is open, the determination in step S12 is "No".

そして、「まばたき」なし、又は閉眼と判断されると(S12:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。一方、「まばたき」ありと判断され、かつ開眼と判断されると(S12:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。 Then, if it is determined that there is no "blinking" or that the eyes are closed (S12: Yes), the determination unit 16 determines that the subject H1 is in a state of unconsciousness (S18). On the other hand, when it is determined that there is "blinking" and that the eyes are open (S12: No), the determining unit 16 determines that the subject H1 is in a normal state of consciousness (clear consciousness) (S19). ).

ここで、まばたきの有無、及び閉眼の有無の判断結果から意識状態を判定する場合(S12)においては、判定部16は、顔情報のみから、対象者H1の意識状態を判定することになる。つまり、判定部16は、顔情報だけでなく、モデル情報、更には顔位置情報に基づいても、対象者H1の意識状態を判定可能であるところ、本実施形態ではデフォルトとして、顔情報の優先度を最も高くしている。そのため、顔情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定には顔情報が優先的に用いられ、判定部16は、顔情報のみから、対象者H1の意識状態を判定することが可能である。顔情報に基づく判定の信頼度は、対象者H1の「まぶた」を検出できたか否か(S11)によって推定され、まぶたが検出された場合(S11:Yes)には、顔情報に基づく判定の信頼度は閾値以上であると推定する。 Here, in the case of determining the state of consciousness from the determination result of whether or not blinking and whether or not the eyes are closed (S12), the determination unit 16 determines the state of consciousness of the subject H1 only from the face information. That is, the determining unit 16 can determine the state of consciousness of the subject H1 based not only on face information but also on model information and face position information. highest degree. Therefore, when the reliability of the face information is equal to or higher than the threshold, the face information is preferentially used to determine the state of consciousness of the subject H1. It is possible to determine the state. The reliability of the determination based on the face information is estimated by whether or not the "eyelids" of the subject H1 have been detected (S11). Confidence is assumed to be greater than or equal to the threshold.

これに対して、まぶたが検出されない場合(S11:No)、つまり、顔情報に基づく判定の信頼度は閾値未満である場合、判定部16は、対象者H1の顔F1の向きが硬直しているか否かを判断する(S13)。顔F1の向きの硬直については、顔位置取得部14が取得する顔位置情報に基づいて判断される。例えば、顔F1の向きの変化量の一定時間(一例として1分)の積分値が所定値未満であれば、顔F1の向きの硬直ありと判断し(S13:Yes)、上記積分値が所定値以上であれば、顔F1の向きの硬直なしと判断する(S13:No)。 On the other hand, if the eyelids are not detected (S11: No), that is, if the reliability of the determination based on the face information is less than the threshold, the determination unit 16 determines that the orientation of the face F1 of the subject H1 is stiff. It is determined whether or not there is (S13). The rigidity of the orientation of the face F1 is determined based on the face position information acquired by the face position acquisition section 14 . For example, if the integrated value of the amount of change in the orientation of the face F1 over a certain period of time (one minute, for example) is less than a predetermined value, it is determined that the orientation of the face F1 is stiff (S13: Yes), and the integrated value reaches the predetermined value. If it is equal to or greater than the value, it is determined that the orientation of the face F1 is not rigid (S13: No).

そして、顔F1の向きの硬直ありと判断されると(S13:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。ここで、顔F1の向きの硬直の有無の判断結果から意識状態を判定する場合(S13)においては、判定部16は、顔位置情報から、対象者H1の意識状態を判定することになる。つまり、本実施形態ではデフォルトとして、顔情報の優先度が最も高く、その次に顔位置情報の優先度が高く設定されている。そのため、まぶたが検出されず(S11:No)、顔情報に基づく判定の信頼度が閾値未満の場合には、対象者H1の意識状態の判定には顔位置情報が優先的に用いられ、判定部16は、顔位置情報に基づいて、対象者H1の意識状態を判定することが可能である。 When it is determined that the orientation of the face F1 is rigid (S13: Yes), the determination unit 16 determines that the subject H1 is in a state of unconsciousness (S18). Here, when determining the state of consciousness from the determination result of the presence or absence of rigidity in the orientation of the face F1 (S13), the determination unit 16 determines the state of consciousness of the subject H1 from the face position information. That is, in this embodiment, as a default, the priority of face information is set to be the highest, followed by the priority of face position information. Therefore, when the eyelids are not detected (S11: No) and the reliability of the determination based on the face information is less than the threshold, the face position information is preferentially used to determine the state of consciousness of the subject H1. The unit 16 can determine the state of consciousness of the subject H1 based on the face position information.

一方で、顔F1の向きの硬直なしと判断されると(S13:No)、判定部16は、対象者H1の顔F1の位置を検出できたか否かを判断する(S14)。例えば、対象者H1の顔F1が画像Im1から鮮明に認識可能であれば、顔F1の位置を検出できたと判断し(S14:Yes)、顔F1が画像Im1において鮮明に認識できなければ、顔F1の位置を検出できないと判断する(S14:No)。顔F1の位置の検出の可否は、例えば、顔位置取得部14が取得する顔位置情報に含まれている。 On the other hand, when it is determined that the orientation of the face F1 is not rigid (S13: No), the determination unit 16 determines whether or not the position of the face F1 of the subject H1 has been detected (S14). For example, if the face F1 of the subject H1 can be clearly recognized from the image Im1, it is determined that the position of the face F1 has been detected (S14: Yes). It is determined that the position of F1 cannot be detected (S14: No). Whether or not the position of the face F1 can be detected is included in the face position information acquired by the face position acquisition unit 14, for example.

顔F1の位置を検出できた場合(S14:Yes)、判定部16は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるか否かを判断する(S15)。例えば、顔位置情報に含まれる顔F1の中心位置と、姿勢モデルM1に含まれる特徴点P1の位置と、の間隔が所定値未満であれば、両者間に相関があると判断し(S15:Yes)、上記間隔が所定値以上であれば、両者間に相関がないと判断する(S15:No)。 If the position of the face F1 can be detected (S14: Yes), the determining unit 16 determines whether there is a correlation between the position of the face F1 included in the face position information and the position of the face F1 included in the model information. It is determined whether or not (S15). For example, if the distance between the center position of the face F1 included in the face position information and the position of the feature point P1 included in the posture model M1 is less than a predetermined value, it is determined that there is a correlation between the two (S15: Yes), if the interval is equal to or greater than the predetermined value, it is determined that there is no correlation between the two (S15: No).

そして、2つの顔位置の間に相関があると判断されると(S15:Yes)、判定部16は、対象者H1の身体(上半身)が硬直しているか否かを判断する(S16)。身体の硬直については、モデル取得部15が取得するモデル情報に基づいて判断される。例えば、姿勢モデルM1における複数の特徴点P1~P7の位置、及び/又は対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間(一例として1分)の積分値が所定値未満であれば、身体の硬直ありと判断する(S16:Yes)。一方、上記積分値が所定値以上であれば、身体の硬直なしと判断する(S16:No)。 When it is determined that there is a correlation between the two face positions (S15: Yes), the determination unit 16 determines whether or not the body (upper body) of the subject H1 is rigid (S16). Body stiffness is determined based on the model information acquired by the model acquisition unit 15 . For example, the position of the plurality of feature points P1 to P7 in the posture model M1 and/or the integral value of the amount of change in the angles θ1 and θ2 of the arm (upper arm) of the subject H1 over a certain period of time (one minute as an example) is predetermined. If it is less than the value, it is determined that the body is rigid (S16: Yes). On the other hand, if the integrated value is equal to or greater than the predetermined value, it is determined that the body is not rigid (S16: No).

身体の硬直ありと判断されると(S16:Yes)、判定部16は、対象者H1の上半身の傾倒の有無を判断する(S17)。上半身の傾倒については、モデル取得部15が取得するモデル情報のうち、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3に基づいて判断される。例えば、角度θ3が基準角度未満であれば、対象者H1の上半身の傾倒なしと判断し(S17:No)、角度θ3が基準角度以上であれば、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。 When it is determined that the body is rigid (S16: Yes), the determination unit 16 determines whether or not the upper body of the subject H1 is tilted (S17). The inclination of the upper body is determined based on the angle θ3 of the straight line connecting the feature points P2 to P7 in the posture model M1 with respect to the vertical line among the model information acquired by the model acquisition unit 15. FIG. For example, if the angle θ3 is less than the reference angle, it is determined that the upper body of the subject H1 is not tilted (S17: No), and if the angle θ3 is equal to or greater than the reference angle, it is determined that the upper body of the subject H1 is tilted. (S17: Yes).

そして、対象者H1の身体の硬直ありと判断され(S16:Yes)、かつ対象者H1の上半身の傾倒ありと判断されると(S17:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。一方、対象者H1の身体の硬直なし(S16:No)、又は対象者H1の上半身の傾倒なしと判断されると(S17:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。 When it is determined that the body of the subject H1 is stiff (S16: Yes) and that the upper body of the subject H1 is tilted (S17: Yes), the determination unit 16 determines the state of consciousness of the subject H1. is in a state of unconsciousness (S18). On the other hand, when it is determined that the subject H1 does not have body stiffness (S16: No) or that the subject H1 does not tilt the upper body (S17: No), the determination unit 16 determines that the subject H1 has a normal state of consciousness. (S19).

ここで、身体の硬直の有無、及び上半身の傾倒の有無の判断結果から意識状態を判定する場合(S16,S17)においては、判定部16は、モデル情報から、対象者H1の意識状態を判定することになる。つまり、本実施形態ではデフォルトとして、顔情報の優先度が最も高く、その次に顔位置情報の優先度が高く、そしてモデル情報の優先度が最も低く設定されている。そのため、顔情報及び顔位置情報からでは、対象者H1の意識状態の判定ができず、かつモデル情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定にはモデル情報が用いられ、判定部16は、モデル情報から、対象者H1の意識状態を判定する。モデル情報に基づく判定の信頼度は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるか否か(S15)によって推定される。両者間に相関がある場合(S15:Yes)には、モデル情報に基づく判定の信頼度は閾値以上であると推定する。 Here, in the case of determining the state of consciousness from the determination results of the presence or absence of body stiffness and the presence or absence of tilting of the upper body (S16, S17), the determination unit 16 determines the state of consciousness of the subject H1 from the model information. will do. That is, in this embodiment, as a default, the priority of face information is set to be the highest, followed by the priority of face position information, and the priority of model information to the lowest. Therefore, if the state of consciousness of the subject H1 cannot be determined from the face information and the face position information, and the reliability of the model information is equal to or higher than the threshold, the model information is used to determine the state of consciousness of the subject H1. is used, and the determination unit 16 determines the state of consciousness of the subject H1 from the model information. The reliability of the determination based on the model information is estimated by whether there is a correlation between the position of the face F1 included in the face position information and the position of the face F1 included in the model information (S15). If there is a correlation between the two (S15: Yes), it is estimated that the reliability of the determination based on the model information is greater than or equal to the threshold.

一方、顔F1の位置を検出できない場合(S14:No)、又は顔位置に相関がない場合(S15:No)には、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。これらの場合においては、判定部16は、モデル情報を用いずに、対象者H1の意識状態を判定することになる。つまり、顔位置を検出できない場合(S14:No)、又は顔位置に相関がない場合(S15:No)には、モデル情報に基づく判定の信頼度は閾値未満である判断して、判定部16は、モデル情報を用いずに、対象者H1の意識状態を判定する。 On the other hand, if the position of the face F1 cannot be detected (S14: No), or if there is no correlation between the face positions (S15: No), the determination unit 16 determines that the state of consciousness of the subject H1 is normal (clear consciousness). (S19). In these cases, the determination unit 16 determines the state of consciousness of the subject H1 without using model information. In other words, when the face position cannot be detected (S14: No), or when there is no correlation between the face positions (S15: No), the determination unit 16 determines that the reliability of the determination based on the model information is less than the threshold. determines the state of consciousness of the subject H1 without using model information.

監視システム1は、判定処理においては、上述したような処理S11~S19を実行する。図5のフローチャートは、判定処理の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。 The monitoring system 1 executes the processes S11 to S19 as described above in the determination process. The flowchart of FIG. 5 is merely an example of determination processing, and processing may be omitted or added as appropriate, and the order of processing may be changed as appropriate.

以上説明したように、本実施形態では、判定部16は、対象者H1の意識状態の判定に際して、顔情報、モデル情報及び顔位置情報の各々の信頼度を加味して、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを変更可能である。図5の例では、優先度が高い順から、顔情報、顔位置情報、モデル情報となるように、顔情報、モデル情報及び顔位置情報の優先度がデフォルトで規定されている。そして、顔情報に基づく判定の信頼度が低い場合には、顔情報に代えて顔位置情報が優先的に用いられるといったように、個々の信頼度を加味して、顔情報、モデル情報及び顔位置情報の優先度又は重み付けが変更される。 As described above, in this embodiment, when determining the state of consciousness of the subject H1, the determination unit 16 considers the reliability of each of the face information, the model information, and the face position information. and the priority or weighting of face position information can be changed. In the example of FIG. 5, the priorities of face information, model information, and face position information are defined by default such that the order of priority is face information, face position information, and model information. Then, when the reliability of determination based on face information is low, face position information is preferentially used instead of face information. The priority or weighting of location information is changed.

特に、本実施形態では、判定部16は、顔情報に基づく判定の信頼度が閾値以上であれば、顔情報に基づき意識状態を判定し、顔情報に基づく判定の信頼度が閾値未満であれば、モデル情報に基づき意識状態を判定する。このように、デフォルトでは顔情報の優先度をモデル情報よりも高くしつつ、顔情報に基づく判定の信頼度が不十分である場合に限り、判定部16は、顔情報以外の情報(モデル情報)に基づいて、対象者H1の意識状態の判定を行う。その結果、比較的に信頼性の高い顔情報を用いた判定が優先的に行われることとなり、監視システム1における対象者H1の意識状態の判定の信頼性が高くなる。 In particular, in the present embodiment, the determination unit 16 determines the state of consciousness based on the face information if the reliability of the determination based on the face information is equal to or greater than the threshold, and if the reliability of the determination based on the face information is less than the threshold. For example, the state of consciousness is determined based on the model information. In this way, while the priority of face information is higher than that of model information by default, only when the reliability of determination based on face information is insufficient, the determination unit 16 uses information other than face information (model information). ), the state of consciousness of the subject H1 is determined. As a result, determination using face information with relatively high reliability is preferentially performed, and the reliability of determination of the state of consciousness of the subject H1 in the monitoring system 1 increases.

また、本実施形態では、上述したように、判定部16は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。つまり、判定部16は、両者の間に相関があれば(S15:Yes)、モデル情報に基づいて、対象者H1の意識状態を判定し(S16,S17)、両者の間に相関がなければ(S15:No)、対象者H1の意識状態にモデル情報を用いない。要するに、両者間に相関がある場合(S15:Yes)には、モデル情報の信頼度は十分に高いと推定し、モデル情報を用いるように、判定部16での判定のアルゴリズムが変化する。 Further, in the present embodiment, as described above, the determination unit 16 uses the determination algorithm based on the correlation between the position of the face F1 included in the face position information and the position of the face F1 included in the model information. change. That is, if there is a correlation between the two (S15: Yes), the determination unit 16 determines the state of consciousness of the subject H1 based on the model information (S16, S17). (S15: No), the model information is not used for the state of consciousness of the subject H1. In short, when there is a correlation between the two (S15: Yes), the reliability of the model information is estimated to be sufficiently high, and the determination algorithm in the determination unit 16 changes so that the model information is used.

さらに、判定部16は、モデル情報における対象者H1の上半身の硬直度合いと、対象者H1の上半身の姿勢と、の少なくとも一方に基づいて、意識状態を判定する。要するに、モデル情報に基づいて対象者H1の意識状態を判定する場合においては、判定部16は、身体の硬直の有無、及び上半身の傾倒の有無の両方に基づいて意識状態を判定する(S16,S17)。ここで、身体の硬直の有無(S16)が、対象者H1の上半身の硬直度合いに相当し、上半身の傾倒の有無(S17)が、対象者H1の上半身の姿勢に相当する。このように、本実施形態では、モデル情報における対象者H1の上半身の硬直度合いと、対象者H1の上半身の姿勢と、の両方を、対象者H1の意識状態の判定に用いている。 Furthermore, the determination unit 16 determines the state of consciousness based on at least one of the degree of stiffness of the upper body of the subject H1 and the posture of the upper body of the subject H1 in the model information. In short, when determining the state of consciousness of the subject H1 based on the model information, the determining unit 16 determines the state of consciousness based on both the presence or absence of body rigidity and the presence or absence of tilting of the upper body (S16, S17). Here, the presence or absence of stiffness of the body (S16) corresponds to the degree of stiffness of the upper body of the subject H1, and the presence or absence of leaning of the upper body (S17) corresponds to the posture of the upper body of the subject H1. Thus, in this embodiment, both the degree of stiffness of the upper body of the subject H1 and the posture of the upper body of the subject H1 in the model information are used to determine the state of consciousness of the subject H1.

また、図5のフローチャートでは、処理S12において、判定部16は、まばたきの有無、及び閉眼の有無をまとめて判断しているが、この例に限らず、まばたきの有無、及び閉眼の有無を個別に判断してもよい。このとき、判定部16は、対象者H1のまばたきが検出されない場合と、対象者H1の閉眼が検出された場合とで、判定のアルゴリズムを変えてもよい。 In addition, in the flowchart of FIG. 5, in the process S12, the determination unit 16 collectively determines the presence or absence of blinking and the presence or absence of closed eyes. You can judge At this time, the determination unit 16 may change the determination algorithm depending on whether blinking of the subject H1 is not detected or when closing the eyes of the subject H1 is detected.

一例として、まばたきが検出されない場合、閉眼が検出された場合のいずれの場合でも、判定部16は、即座に意識喪失の状態と判定するのではなく、顔情報以外の情報、つまり顔位置情報又はモデル情報に基づいて、対象者H1の意識状態を判定する。そして、判定部16は、まばたきが検出されない場合には、対象者H1の意識状態の判定に顔位置情報を優先的に用い、閉眼が検出された場合には、対象者H1の意識状態の判定にモデル情報を優先的に用いる。このように、判定部16は、まばたきが検出されない場合と、閉眼が検出された場合とで、その後の、対象者H1の意識状態を判定に用いる情報(顔情報、顔位置情報及びモデル情報)の優先度を変化させることができる。また、判定部16は、まばたきが検出されない場合と、閉眼が検出された場合とで、その後の、対象者H1の意識状態を判定に用いる情報(顔情報、顔位置情報及びモデル情報)の、信頼度、又は判定時間を変化させてもよい。 As an example, even if blinking is not detected or eye closure is detected, the determination unit 16 does not immediately determine the state of unconsciousness, but information other than face information, that is, face position information or The state of consciousness of the subject H1 is determined based on the model information. The determining unit 16 preferentially uses the face position information to determine the state of consciousness of the subject H1 when blinking is not detected, and determines the state of consciousness of the subject H1 when closed eyes are detected. preferentially use model information. In this way, the determination unit 16 determines the information (face information, face position information, and model information) used for determining the state of consciousness of the subject H1 after that when blinking is not detected and when eye closure is detected. priority can be changed. In addition, the determination unit 16 determines whether information (face information, face position information, and model information) used to determine the state of consciousness of the subject H1 after that, when blinking is not detected and when eye closure is detected, Reliability or determination time may be changed.

(2.3.3)具体例
次に、監視システム1による対象者H1の意識状態の判定の具体例について、図6A~図7Bを参照して説明する。
(2.3.3) Specific Example Next, a specific example of determination of the state of consciousness of the subject H1 by the monitoring system 1 will be described with reference to FIGS. 6A to 7B.

図6A及び図6Bは、対象者H1が一時的に下を向いている場合において、監視システム1による対象者H1の意識状態の判定を行う例を示す。図6Aは、対象者H1の意識状態が正常(意識清明)なケースを示し、図6Bは、対象者H1の意識状態が意識喪失であるケースを示す。 6A and 6B show an example in which the monitoring system 1 determines the state of consciousness of the subject H1 when the subject H1 is temporarily facing downward. FIG. 6A shows a case in which the target person H1 is in a normal state of consciousness (clear consciousness), and FIG. 6B shows a case in which the target person H1 is unconscious.

図6A及び図6Bにおいては、いずれも対象者H1が下を向いているために、対象者H1のまぶたが検出されず(図5のS11:No)、かつ顔F1の向きの硬直なしと判断される(S13:No)ことと仮定する。さらに、いずれも顔F1の位置が検出され(S14:Yes)、かつ顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるため(S15:Yes)、判定部16は、モデル情報に基づいて対象者H1の意識状態を判定する。 In both FIGS. 6A and 6B, since the subject H1 is facing downward, the eyelids of the subject H1 are not detected (S11 in FIG. 5: No), and it is determined that the orientation of the face F1 is not stiff. (S13: No). Furthermore, in both cases, the position of the face F1 is detected (S14: Yes), and there is a correlation between the position of the face F1 included in the face position information and the position of the face F1 included in the model information (S15 : Yes), the determination unit 16 determines the state of consciousness of the subject H1 based on the model information.

ここで、図6Aの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値以上であることで、判定部16は、対象者H1の身体の硬直なしと判断する(S16:No)。その結果、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。 Here, in the example of FIG. 6A, the determination unit 16 determines that the subject H1 It is determined that there is no stiffness in the body of the subject (S16: No). As a result, the determination unit 16 determines that the subject H1 is in a normal state (clear consciousness) (S19).

一方、図6Bの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値未満であることで、判定部16は、対象者H1の身体の硬直ありと判断する(S16:Yes)。さらに、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3が基準角度以上であるので、判定部16は、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。その結果、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。 On the other hand, in the example of FIG. 6B , the determination unit 16 determines that the integrated value of the changes in the angles θ1 and θ2 of the arm (upper arm) of the subject H1 is less than the predetermined value. It is determined that the body is rigid (S16: Yes). Furthermore, since the angle θ3 of the straight line connecting the feature points P2 to P7 in the posture model M1 with respect to the vertical line is greater than or equal to the reference angle, the determination unit 16 determines that the upper body of the subject H1 is tilted (S17: Yes ). As a result, the determination unit 16 determines that the subject H1 is in a state of unconsciousness (S18).

また、図7A及び図7Bは、対象者H1がサングラスをかけている(装着している)場合において、監視システム1による対象者H1の意識状態の判定を行う例を示す。図7Aは、対象者H1の意識状態が正常(意識清明)なケースを示し、図7Bは、対象者H1の意識状態が意識喪失であるケースを示す。 7A and 7B show an example in which the monitoring system 1 determines the state of consciousness of the subject H1 when the subject H1 wears (wears) sunglasses. FIG. 7A shows a case in which the target person H1 is in a normal state of consciousness (clear consciousness), and FIG. 7B shows a case in which the target person H1 is unconscious.

図7A及び図7Bにおいては、いずれも対象者H1がサングラスをかけているために、対象者H1のまぶたが検出されず(図5のS11:No)、かつ顔F1の向きの硬直なしと判断される(S13:No)ことと仮定する。さらに、いずれも顔F1の位置が検出され(S14:Yes)、かつ顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるため(S15:Yes)、判定部16は、モデル情報に基づいて対象者H1の意識状態を判定する。 In both FIGS. 7A and 7B, since the subject H1 is wearing sunglasses, the eyelids of the subject H1 are not detected (S11 in FIG. 5: No), and it is determined that the orientation of the face F1 is not stiff. (S13: No). Furthermore, in both cases, the position of the face F1 is detected (S14: Yes), and there is a correlation between the position of the face F1 included in the face position information and the position of the face F1 included in the model information (S15 : Yes), the determination unit 16 determines the state of consciousness of the subject H1 based on the model information.

ここで、図7Aの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値以上であることで、判定部16は、対象者H1の身体の硬直なしと判断する(S16:No)。その結果、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。 Here, in the example of FIG. 7A, the determination unit 16 determines that the subject H1 It is determined that there is no stiffness in the body of the subject (S16: No). As a result, the determination unit 16 determines that the subject H1 is in a normal state (clear consciousness) (S19).

一方、図7Bの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値未満であることで、判定部16は、対象者H1の身体の硬直ありと判断する(S16:Yes)。さらに、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3が基準角度以上であるので、判定部16は、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。その結果、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。 On the other hand, in the example of FIG. 7B , the determination unit 16 determines that the integrated value of the changes in the angles θ1 and θ2 of the arm (upper arm) of the subject H1 is less than a predetermined value over a predetermined period of time. It is determined that the body is rigid (S16: Yes). Furthermore, since the angle θ3 of the straight line connecting the feature points P2 to P7 in the posture model M1 with respect to the vertical line is greater than or equal to the reference angle, the determination unit 16 determines that the upper body of the subject H1 is tilted (S17: Yes ). As a result, the determination unit 16 determines that the subject H1 is in a state of unconsciousness (S18).

このように、対象者H1が一時的に下を向いていたり、対象者H1がサングラスをかけていたりして、対象者H1の顔F1の各部位(まぶた等)の状態が認識できない場合であっても、本実施形態に係る監視システム1では、対象者H1の意識状態を判定できる。 In this way, even if the target person H1 is temporarily looking down or is wearing sunglasses, the state of each part (eyelids, etc.) of the face F1 of the target person H1 cannot be recognized. However, the monitoring system 1 according to this embodiment can determine the state of consciousness of the subject H1.

ところで、判定部16は、対象者H1の腕(上腕部)の角度θ1,θ2に関して、変化量の積分値のような腕の動きの有無に係る判断だけでなく、腕の動きが他動的な動きか否か、を更に判断してもよい。すなわち、対象者H1が移動体4に乗っていることを前提とすれば、移動体本体41の揺れ(振動)等により、対象者H1の意思によらずに、対象者H1の腕が振り子のように揺れることが考えられる。そのため、図6B又は図7Bに示すように、たとえ対象者H1の意識状態が意識喪失の状態にあっても、脱力状態にある対象者H1の腕が、他動的に動く可能性がある。そこで、判定部16は、腕の動きに関しては、垂直に垂れ下がった状態を基調にして揺れている場合等の、他動的な動きを判断し、他動的な動きであれば、対象者H1の身体の硬直ありと判断することが好ましい(S16:Yes)。同様の判断は、腕に限らず、例えば、頭部等についても適用可能である。 By the way, regarding the angles θ1 and θ2 of the arm (upper arm) of the subject H1, the determination unit 16 not only determines whether or not the arm moves, such as the integrated value of the variation, but also determines whether the arm motion is passive. It may be further determined whether or not the movement is significant. That is, assuming that the target person H1 is on the moving body 4, the movement (vibration) of the moving body main body 41 causes the arm of the target person H1 to move like a pendulum regardless of the intention of the target person H1. It is conceivable that the Therefore, as shown in FIG. 6B or FIG. 7B, even if the subject H1 is unconscious, the arm of the subject H1 who is in a weakened state may passively move. Therefore, regarding the movement of the arm, the determination unit 16 determines a passive movement, such as a case where the arm is swaying based on a state in which it hangs down vertically. (S16: Yes). A similar determination is applicable not only to the arm, but also to the head, for example.

また、対象者H1の上半身の傾倒の有無の判断(S17)についても、角度θ3に基づく判断に限らず、他のパラメータに基づいて、対象者H1の上半身の傾倒の有無が判断されてもよい。一例として、姿勢モデルM1における特徴点P3-P5をつなぐ直線についての、水平線に対する角度は、対象者H1の両肩の傾斜角度に相当するので、この傾斜角度を用いて、対象者H1の上半身の傾倒の有無を判断してもよい。この場合、両肩の傾斜角度が基準角度未満であれば、対象者H1の上半身の傾倒なしと判断し(S17:No)、両肩の傾斜角度が基準角度以上であれば、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。 Further, the determination of whether or not the upper body of the subject H1 is tilted (S17) is not limited to the determination based on the angle θ3, and whether or not the upper body of the subject H1 is tilted may be determined based on other parameters. . As an example, the angle of the straight line connecting the feature points P3-P5 in the posture model M1 with respect to the horizontal corresponds to the inclination angle of the shoulders of the subject H1. You may judge the presence or absence of inclination. In this case, if the inclination angle of both shoulders is less than the reference angle, it is determined that the upper body of the subject H1 is not inclined (S17: No). It is determined that the upper body is tilted (S17: Yes).

(2.3.4)その他の機能
その他の機能として、本実施形態に係る監視システム1は、モデル情報における姿勢モデルM1の特徴点P1~P7を補完する補完機能を有している。
(2.3.4) Other Functions As other functions, the monitoring system 1 according to the present embodiment has a complementary function that complements the feature points P1 to P7 of the posture model M1 in the model information.

すなわち、図8に示すように、撮像装置2の画角内に、対象者H1の上半身の全体が含まれておらず、姿勢モデルM1の特徴点P1~P7のいずれかが、画像Im1内に収まらない場合がある。特に、対象者H1が座る椅子が前後に移動可能である場合において、椅子を前方に移動させると、撮像装置2のカメラに対象者H1が近づくことになるため、図8のような画像Im1となりやすい。図8の例では、「へそ」に相当する特徴点P7が画像Im1からはみ出している。 That is, as shown in FIG. 8, the entire upper body of the subject H1 is not included within the angle of view of the imaging device 2, and any of the feature points P1 to P7 of the posture model M1 is within the image Im1. It may not fit. In particular, when the chair on which the subject H1 sits is movable back and forth, moving the chair forward brings the subject H1 closer to the camera of the imaging device 2, resulting in an image Im1 as shown in FIG. Cheap. In the example of FIG. 8, the feature point P7 corresponding to the "navel" protrudes from the image Im1.

このような場合において、監視システム1は、画像Im1内の対象者H1の位置等から、特徴点P7の位置を推定し、特徴点P7を補完する。上記補完機能によれば、本実施形態に係る監視システム1では、モデル情報は、モデル情報を抽出するための画像Im1外の対象者H1の身体の部位に相当する点を、複数の特徴点P1~P7の少なくとも1つに含むことができる。これにより、例えば、撮像装置2のカメラを必要以上に広角にする必要が無く、画像Im1における顔F1の各部位(上まぶたF11及び下まぶたF12等)の解像度の向上を図りやすい。 In such a case, the monitoring system 1 estimates the position of the feature point P7 from the position of the subject H1 in the image Im1, etc., and interpolates the feature point P7. According to the complementing function described above, in the monitoring system 1 according to the present embodiment, the model information includes points corresponding to parts of the body of the subject H1 outside the image Im1 for extracting the model information as the plurality of feature points P1. ~P7. As a result, for example, there is no need to widen the camera of the imaging device 2 more than necessary, and it is easy to improve the resolution of each part of the face F1 (upper eyelid F11, lower eyelid F12, etc.) in the image Im1.

(3)変形例
実施形態1は、本開示の様々な実施形態の一つに過ぎない。実施形態1は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。本開示において説明する各図は、模式的な図であり、各図中の各構成要素の大きさ及び厚さそれぞれの比が、必ずしも実際の寸法比を反映しているとは限らない。また、実施形態1に係る監視システム1と同様の機能は、監視方法、プログラム又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係る監視方法は、第1取得処理(図4の「S2」に相当)と、第2取得処理(図4の「S3」に相当)と、判定処理(図4の「S6」に相当)と、を有する。第1取得処理は、顔情報を取得する処理である。顔情報は、対象者H1の顔F1の各部位の状態に関する情報である。第2取得処理は、複数の特徴点P1~P7を含み、モデル情報を取得する処理である。モデル情報は、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関する情報である。判定処理は、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定する処理である。一態様に係るプログラムは、上記の監視方法を、1以上のプロセッサに実行させるためのプログラムである。
(3) Modifications Embodiment 1 is merely one of various embodiments of the present disclosure. Embodiment 1 can be modified in various ways according to design and the like, as long as the object of the present disclosure can be achieved. Each drawing described in this disclosure is a schematic drawing, and the ratio of the size and thickness of each component in each drawing does not necessarily reflect the actual dimensional ratio. Also, the same functions as those of the monitoring system 1 according to the first embodiment may be embodied by a monitoring method, a program, or a non-temporary recording medium recording the program. A monitoring method according to one aspect includes a first acquisition process (corresponding to "S2" in FIG. 4), a second acquisition process (corresponding to "S3" in FIG. 4), a determination process (corresponding to "S6" in FIG. equivalent) and The first acquisition process is a process of acquiring face information. The face information is information about the state of each part of the face F1 of the subject H1. The second acquisition process is a process of acquiring model information including a plurality of feature points P1 to P7. The model information is information about the posture model M1 representing at least the posture of the subject H1's upper body. The determination process is a process of determining the state of consciousness of the subject H1 based on both the face information and the model information. A program according to one aspect is a program for causing one or more processors to execute the above monitoring method.

以下、実施形態1の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。 Modifications of the first embodiment are listed below. Modifications described below can be applied in combination as appropriate.

本開示における監視システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における監視システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。 A monitoring system 1 in the present disclosure includes a computer system. A computer system is mainly composed of a processor and a memory as hardware. The functions of the monitoring system 1 in the present disclosure are realized by the processor executing a program recorded in the memory of the computer system. The program may be recorded in advance in the memory of the computer system, may be provided through an electric communication line, or may be recorded in a non-temporary recording medium such as a computer system-readable memory card, optical disk, or hard disk drive. may be provided. A processor in a computer system consists of one or more electronic circuits, including semiconductor integrated circuits (ICs) or large scale integrated circuits (LSIs). The integrated circuit such as IC or LSI referred to here is called differently depending on the degree of integration, and includes integrated circuits called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). In addition, a field-programmable gate array (FPGA) that is programmed after the LSI is manufactured, or a logic device capable of reconfiguring the bonding relationship inside the LSI or reconfiguring the circuit partitions inside the LSI may also be adopted as the processor. can be done. A plurality of electronic circuits may be integrated into one chip, or may be distributed over a plurality of chips. A plurality of chips may be integrated in one device, or may be distributed in a plurality of devices. A computer system, as used herein, includes a microcontroller having one or more processors and one or more memories. Accordingly, the microcontroller also consists of one or more electronic circuits including semiconductor integrated circuits or large scale integrated circuits.

また、監視システム1の少なくとも一部の機能が、1つの筐体内に集約されていることは監視システム1に必須の構成ではなく、監視システム1の構成要素は、複数の筐体に分散して設けられていてもよい。例えば、監視システム1のうちの顔情報取得部13、顔位置取得部14及びモデル取得部15が、判定部16とは別の筐体に設けられていてもよい。さらに、監視システム1の少なくとも一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。 In addition, it is not essential for the monitoring system 1 that at least part of the functions of the monitoring system 1 are integrated in one housing. may be provided. For example, the face information acquisition unit 13, the face position acquisition unit 14, and the model acquisition unit 15 of the monitoring system 1 may be provided in a separate housing from the determination unit 16. FIG. Furthermore, at least part of the functions of the monitoring system 1 may be realized by a cloud (cloud computing) or the like.

反対に、実施形態1において、複数の装置に分散されている複数の機能の少なくとも一部が、1つの筐体内に集約されていてもよい。例えば、監視システム1と撮像装置2とに分散されている機能が、1つの筐体内に集約されていてもよい。 Conversely, in Embodiment 1, at least some of the multiple functions distributed over multiple devices may be integrated into one housing. For example, functions distributed between the monitoring system 1 and the imaging device 2 may be integrated in one housing.

また、対象者H1の意識状態の判定結果の出力の態様は、制御システム3への出力に限らない。例えば、出力部17は、対象者H1の意識状態の判定結果を、情報端末への送信、表示、音(音声を含む)出力、非一時的記録媒体への記録(書き込み)及び印刷(プリントアウト)等により、出力してもよい。 Further, the mode of outputting the determination result of the state of consciousness of the subject H1 is not limited to the output to the control system 3 . For example, the output unit 17 transmits, displays, outputs sound (including voice), records (writes) to a non-temporary recording medium, and prints (prints out) the determination result of the state of consciousness of the subject H1 to the information terminal. ), etc., may be output.

また、監視システム1を備える移動体4は、飛行機に限らず、ヘリコプタ又は飛行船等の航空機であってもよい。さらに、監視システム1を備える移動体4は、航空機に限らず、例えば、自動車(四輪車)、二輪車、電車、電動カート、建設機械又は船舶等であってもよい。例えば、移動体4が自動車である場合、監視システム1は、自動車からなる移動体4の運転者を対象者H1として、運転者からなる対象者H1の意識状態を監視してもよい。 Further, the mobile object 4 equipped with the monitoring system 1 is not limited to an airplane, and may be an aircraft such as a helicopter or an airship. Furthermore, the mobile object 4 equipped with the monitoring system 1 is not limited to an aircraft, and may be, for example, an automobile (four-wheeled vehicle), a two-wheeled vehicle, a train, an electric cart, a construction machine, a ship, or the like. For example, when the mobile object 4 is an automobile, the monitoring system 1 may monitor the consciousness state of the target person H1 who is the driver of the mobile object 4, which is an automobile.

また、移動体本体41に搭載される監視システム1にて意識状態が監視される対象者H1は、移動体4を操縦する操縦者(自動車の場合の運転者等を含む)に限らず、例えば、客室乗務員又は車掌等の、操縦者以外の乗務員であってもよい。さらに、対象者H1は、乗務員にも限らず、例えば、客又は同乗者であってもよい。 Further, the subject H1 whose state of consciousness is monitored by the monitoring system 1 mounted on the mobile body 41 is not limited to the operator (including the driver in the case of an automobile) who operates the mobile body 4. For example, , a cabin attendant or a conductor, etc., other than the pilot. Furthermore, the target person H1 is not limited to a crew member, and may be, for example, a passenger or fellow passenger.

また、監視システム1は、移動体4に用いられる構成に限らず、例えば、建物又は屋外等に居る対象者H1の意識状態の監視に用いられてもよい。この場合の対象者H1は、機械の操作、実験、試験、計測又は工作等の何らかの作業を行っている作業者であってもよいし、住宅等の建物内の居住者であってもよい。 Moreover, the monitoring system 1 is not limited to the configuration used for the mobile body 4, and may be used for monitoring the state of consciousness of the subject H1 who is in a building, outdoors, or the like, for example. In this case, the target person H1 may be a worker who is performing some work such as machine operation, experiment, test, measurement, or work, or may be a resident in a building such as a house.

また、実施形態1では、監視システム1は、対象者H1の意識状態について、「正常」(意識清明)の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定するが、この構成に限らない。例えば、監視システム1は、清明、傾眠、昏迷及び昏睡等の3段階以上の意識水準を、対象者H1の意識状態として判定してもよい。 In addition, in the first embodiment, the monitoring system 1 determines whether the state of consciousness of the subject H1 is "normal" (clear consciousness) or "loss of consciousness". , but not limited to this configuration. For example, the monitoring system 1 may determine three or more levels of consciousness, such as lucidity, somnolence, stupor, and coma, as the state of consciousness of the subject H1.

また、画像Im1を取得するための撮像装置2は、物体そのものを撮影する構成に限られず、例えば、サーモグラフィカメラなどのように、空間及び物体の温度を画素値とする熱画像を画像として撮影してもよい。また、例えば、ToF(Time-of-Flight)方式の距離画像カメラのように、距離を画素値とする距離画像を画像として撮影してもよい。 Further, the imaging device 2 for obtaining the image Im1 is not limited to a configuration for capturing an image of the object itself. may Further, for example, like a ToF (Time-of-Flight) type range image camera, a range image in which the distance is a pixel value may be captured as an image.

また、実施形態1では、撮像装置2は、例えば、赤外線カメラのような暗視カメラを含んでいるが、これに限らず、例えば、照明装置及びカメラを含んでいてもよい。 Further, in Embodiment 1, the imaging device 2 includes, for example, a night vision camera such as an infrared camera, but is not limited to this, and may include, for example, an illumination device and a camera.

また、実施形態1では、複数名の対象者H1(操縦者)を撮影するために、1名の対象者H1につき1台のカメラが設置されているが、この構成に限らず、例えば、1台のカメラで複数名の対象者H1を撮影してもよい。 Further, in the first embodiment, one camera is installed for one target person H1 in order to photograph a plurality of target persons H1 (operators). A single camera may be used to photograph a plurality of subjects H1.

また、判定部16が判定に用いる情報は、画像Im1のみから抽出される構成に限らず、例えば、画像Im1に代えて、又は画像Im1と共に、生体センサ、加速度センサ又は角速度センサ等で検知される情報が、対象者H1の意識状態の判定に用いられてもよい。さらに、判定部16は、航空機からなる移動体4の操縦桿、ペダル又は計器類のスイッチ等の、対象者H1が操作し得る操作部の操作状況も加味して、対象者H1の意識状態を判定してもよい。これにより、対象者H1が、略静止した姿勢で操縦桿を操作している場合等において、監視システム1が意識喪失と誤判定することを低減できる。 Further, the information used for determination by the determination unit 16 is not limited to the configuration extracted only from the image Im1. The information may be used to determine the state of consciousness of subject H1. Furthermore, the determination unit 16 also considers the operation state of the operation unit that can be operated by the subject H1, such as the control stick, pedals, or instrument switches of the moving body 4 made of an aircraft, to determine the state of consciousness of the subject H1. You can judge. As a result, it is possible to reduce erroneous determination of unconsciousness by the monitoring system 1 when the target person H1 is operating the control stick in a substantially stationary posture.

また、実施形態1では、判定部16は、対象者H1の意識状態を判定するに際して、顔情報及びモデル情報の各々の優先度に従って、顔情報に基づく判定が好ましくない場合に限り、モデル情報に基づく判定を行うが、このような構成に限らない。すなわち、例えば、判定部16は、顔情報及びモデル情報の両方に基づいて、対象者H1の意識状態を判定すればよく、顔情報及びモデル情報に優先度がなく、顔情報及びモデル情報の両方を統合的に用いて、対象者H1の意識状態を判定してもよい。この場合に、顔情報及びモデル情報の各々に対して重み付けをすることで、判定部16は、対象者H1の意識状態の判定に寄与する顔情報及びモデル情報の比重を調整してもよい。 Further, in the first embodiment, when determining the state of consciousness of the subject H1, the determination unit 16 follows the priority of each of the face information and the model information, and only when the determination based on the face information is not preferable, the model information. However, it is not limited to such a configuration. That is, for example, the determination unit 16 may determine the state of consciousness of the subject H1 based on both the face information and the model information. may be used in an integrated manner to determine the state of consciousness of the subject H1. In this case, by weighting each of the face information and the model information, the determination unit 16 may adjust the relative weight of the face information and the model information that contribute to the determination of the state of consciousness of the subject H1.

さらに、判定部16は、顔情報とモデル情報との両方に基づいて対象者H1の意識状態を判定する機能を、少なくとも有していればよく、例えば、判定のアルゴリズムを切替可能であってもよい。一例として、判定のアルゴリズムを切り替えることで、判定部16は、顔情報とモデル情報とのいずれか一方のみに基づいて、対象者H1の意識状態を判定するように動作してもよい。 Furthermore, the determination unit 16 only needs to have at least a function of determining the state of consciousness of the subject H1 based on both the face information and the model information. good. As an example, by switching the determination algorithm, the determination unit 16 may operate to determine the state of consciousness of the subject H1 based on only one of the face information and the model information.

(実施形態2)
本実施形態に係る監視システム1は、図9に示すように、監視システム1による対象者H1の意識状態の判定の動作、つまり図4における判定処理S6のアルゴリズムが、実施形態1に係る監視システム1と相違する。以下、実施形態1と同様の構成については、共通の符号を付して適宜説明を省略する。
(Embodiment 2)
In the monitoring system 1 according to the present embodiment, as shown in FIG. 9, the operation of determining the state of consciousness of the subject H1 by the monitoring system 1, that is, the algorithm of the determination processing S6 in FIG. different from 1. In the following, configurations similar to those of the first embodiment are denoted by common reference numerals, and descriptions thereof are omitted as appropriate.

図9は、判定処理(図4のS6)における判定部16の動作の一例を示すフローチャートである。図9のフローチャートにおいて、判定部16が、対象者H1の意識状態の判定にモデル情報を用いる処理(S21,S22)には網掛けを付している。言い換えれば、図9において、網掛けが付されていない処理は、対象者H1の意識状態の判定にモデル情報が用いられない処理である。 FIG. 9 is a flow chart showing an example of the operation of the determination unit 16 in the determination process (S6 in FIG. 4). In the flowchart of FIG. 9, the processes (S21, S22) in which the determination unit 16 uses the model information to determine the state of consciousness of the subject H1 are hatched. In other words, in FIG. 9, the non-shaded processes are processes in which the model information is not used to determine the state of consciousness of the subject H1.

判定部16は、判定処理が開始すると、まずは対象者H1の身体(上半身)が硬直しているか否かを判断する(S21)。身体の硬直については、モデル取得部15が取得するモデル情報に基づいて判断される(図5の処理S16に相当)。対象者H1の身体の硬直の有無については、実施形態1と同様に、例えば、腕の動きにつき、垂直に垂れ下がった状態を基調にして揺れている場合等の、他動的な動きであるか否かを考慮して判断してもよい。 When the determination process starts, the determination unit 16 first determines whether or not the body (upper body) of the subject H1 is stiff (S21). Body stiffness is determined based on the model information acquired by the model acquisition unit 15 (corresponding to processing S16 in FIG. 5). Regarding the presence or absence of stiffness of the body of the subject H1, as in the first embodiment, for example, regarding the movement of the arm, whether it is a passive movement such as a swinging based on a vertically hanging state. It may be determined by considering whether or not

身体の硬直ありと判断されると(S21:Yes)、判定部16は、対象者H1の上半身の傾倒の有無を判断する(S22)。上半身の傾倒については、モデル取得部15が取得するモデル情報のうち、姿勢モデルM1における特徴点P2-P7をつなぐ直線についての、鉛直線に対する角度θ3に基づいて判断される(図5の処理S17に相当)。対象者H1の上半身の傾倒の有無については、実施形態1と同様に、例えば、姿勢モデルM1における特徴点P3-P5をつなぐ直線についての、水平線に対する角度に基づいて判断してもよい。 When it is determined that the body is rigid (S21: Yes), the determination unit 16 determines whether or not the upper half of the body of the subject H1 is tilted (S22). The inclination of the upper body is determined based on the angle θ3 of the straight line connecting the feature points P2 to P7 in the posture model M1 with respect to the vertical line among the model information acquired by the model acquisition unit 15 (process S17 in FIG. 5). equivalent to ). As in the first embodiment, whether or not the upper body of the subject H1 is tilted may be determined, for example, based on the angle of the straight line connecting the feature points P3-P5 in the posture model M1 with respect to the horizontal line.

そして、対象者H1の身体の硬直ありと判断され(S21:Yes)、かつ対象者H1の上半身の傾倒ありと判断されると(S22:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。一方、対象者H1の身体の硬直なしと判断されると(S21:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S26)。 When it is determined that the body of the subject H1 is stiff (S21: Yes) and that the upper body of the subject H1 is tilted (S22: Yes), the determination unit 16 determines the state of consciousness of the subject H1. is in a state of unconsciousness (S25). On the other hand, when it is determined that the subject H1 is not stiff (S21: No), the determining unit 16 determines that the subject H1 is in a normal state of consciousness (clear consciousness) (S26).

また、対象者H1の上半身の傾倒なしと判断されると(S22:No)、判定部16は、対象者H1の顔F1の向きが硬直しているか否かを判断する(S23)。顔F1の向きの硬直については、顔位置取得部14が取得する顔位置情報に基づいて判断される(図5の処理S13に相当)。 Further, when it is determined that the upper body of the subject H1 is not tilted (S22: No), the determination unit 16 determines whether the orientation of the face F1 of the subject H1 is rigid (S23). The rigidity of the orientation of the face F1 is determined based on the face position information acquired by the face position acquisition unit 14 (corresponding to processing S13 in FIG. 5).

そして、顔F1の向きの硬直ありと判断されると(S23:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。ここで、顔F1の向きの硬直の有無の判断結果から意識状態を判定する場合(S23)においては、判定部16は、顔位置情報から、対象者H1の意識状態を判定することになる。 When it is determined that the orientation of the face F1 is rigid (S23: Yes), the determination unit 16 determines that the subject H1 is in a state of unconsciousness (S25). Here, when determining the state of consciousness from the determination result of the presence or absence of rigidity in the orientation of the face F1 (S23), the determination unit 16 determines the state of consciousness of the subject H1 from the face position information.

一方で、顔F1の向きの硬直なしと判断されると(S23:No)、判定部16は、まばたきの有無、及び閉眼の有無を判断する(S24)。まばたきの有無、及び閉眼の有無については、顔情報取得部13が取得する顔情報に基づいて判断される(図5の処理S12に相当)。 On the other hand, when it is determined that the orientation of the face F1 is not rigid (S23: No), the determining unit 16 determines whether or not the face is blinking and whether or not the eyes are closed (S24). The presence or absence of blinking and the presence or absence of closed eyes are determined based on the face information acquired by the face information acquisition unit 13 (corresponding to processing S12 in FIG. 5).

そして、「まばたき」なし、又は閉眼と判断されると(S24:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。一方、「まばたき」ありと判断され、かつ開眼と判断されると(S24:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S26)。 Then, if it is determined that there is no "blinking" or that the eyes are closed (S24: Yes), the determination unit 16 determines that the subject H1 is in a state of unconsciousness (S25). On the other hand, when it is determined that there is "blinking" and that the eyes are open (S24: No), the determination unit 16 determines that the subject H1 is in a normal state of consciousness (clear consciousness) (S26). ).

このように、本実施形態ではデフォルトとして、モデル情報の優先度が最も高く、その次に顔位置情報の優先度が高く、そして顔情報の優先度が最も低く設定されている。そのため、モデル情報及び顔位置情報からでは、対象者H1の意識状態の判定ができず、かつ顔情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定には顔情報が用いられ、判定部16は、顔情報から、対象者H1の意識状態を判定する。 Thus, in this embodiment, as a default, model information is set to have the highest priority, face position information has the next highest priority, and face information has the lowest priority. Therefore, if the state of consciousness of the subject H1 cannot be determined from the model information and the face position information, and the reliability of the face information is equal to or higher than the threshold, the state of consciousness of the subject H1 is determined using the face information. is used, and the determination unit 16 determines the state of consciousness of the subject H1 from the face information.

本実施形態に係る監視システム1は、判定処理においては、上述したような処理S21~S26を実行する。図9のフローチャートは、判定処理の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。 The monitoring system 1 according to this embodiment executes the processes S21 to S26 as described above in the determination process. The flowchart of FIG. 9 is merely an example of determination processing, and processing may be omitted or added as appropriate, and the order of processing may be changed as appropriate.

実施形態2で説明した種々の構成(変形例を含む)は、実施形態1で説明した種々の構成(変形例を含む)と適宜組み合わせて採用可能である。 Various configurations (including modifications) described in the second embodiment can be employed in appropriate combination with various configurations (including modifications) described in the first embodiment.

(まとめ)
以上説明したように、第1の態様に係る監視システム(1)は、顔情報取得部(13)と、モデル取得部(15)と、判定部(16)と、を備える。顔情報取得部(13)は、顔情報を取得する。顔情報は、対象者(H1)の顔(F1)の各部位の状態に関する情報である。モデル取得部(15)は、モデル情報を取得する。モデル情報は、複数の特徴点(P1~P7)を含み、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関する情報である。判定部(16)は、顔情報と、モデル情報と、の両方に基づいて、対象者(H1)の意識状態を判定する。
(summary)
As described above, the monitoring system (1) according to the first aspect includes a face information acquisition section (13), a model acquisition section (15), and a determination section (16). A face information acquisition unit (13) acquires face information. The face information is information about the state of each part of the face (F1) of the subject (H1). A model acquisition unit (15) acquires model information. The model information is information about a posture model (M1) that includes a plurality of feature points (P1 to P7) and represents at least the posture of the subject's (H1) upper body. A determination unit (16) determines the state of consciousness of the subject (H1) based on both the face information and the model information.

この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、監視システム(1)によれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the monitoring system (1), it is possible to make it difficult to make an erroneous determination.

第2の態様に係る監視システム(1)では、第1の態様において、判定部(16)は、顔情報に基づく判定の信頼度が閾値以上であれば、顔情報に基づき意識状態を判定し、顔情報に基づく判定の信頼度が閾値未満であれば、モデル情報に基づき意識状態を判定する。 In the monitoring system (1) according to the second aspect, in the first aspect, the determination unit (16) determines the state of consciousness based on the face information if the reliability of the determination based on the face information is equal to or greater than a threshold. , the state of consciousness is determined based on the model information if the reliability of the determination based on the face information is less than the threshold.

この態様によれば、意識状態の判定に、モデル情報よりも顔情報が優先的に用いられるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, face information is preferentially used to determine the state of consciousness rather than model information, so it is easy to improve the reliability of determination of the state of consciousness.

第3の態様に係る監視システム(1)は、第1又は2の態様において、顔位置取得部(14)を更に備える。顔位置取得部(14)は、対象者(H1)の顔(F1)の位置と向きとの少なくとも一方に関する顔位置情報を取得する。顔位置情報は、判定部(16)での意識状態の判定に用いられる。 A monitoring system (1) according to a third aspect, in the first or second aspect, further comprises a face position acquisition section (14). A face position acquisition unit (14) acquires face position information regarding at least one of the position and orientation of the face (F1) of the subject (H1). The face position information is used for determination of the state of consciousness in the determining section (16).

この態様によれば、意識状態の判定に、顔位置情報が更に用いられるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since the face position information is further used to determine the state of consciousness, it is easy to improve the reliability of determination of the state of consciousness.

第4の態様に係る監視システム(1)では、第3の態様において、判定部(16)は、顔位置情報に含まれる顔(F1)の位置と、モデル情報に含まれる顔(F1)の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。 In the monitoring system (1) according to the fourth aspect, in the third aspect, the determination unit (16) determines the position of the face (F1) included in the face position information and the position of the face (F1) included in the model information. The determination algorithm is changed based on the correlation between the position and the position.

この態様によれば、モデル情報の信頼度に応じて、判定のアルゴリズムを変えることができるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since the determination algorithm can be changed according to the reliability of the model information, it is easy to improve the reliability of determination of the state of consciousness.

第5の態様に係る監視システム(1)では、第1~4のいずれかの態様において、顔情報は、対象者(H1)のまぶたの状態に関する情報を含む。 In the monitoring system (1) according to the fifth aspect, in any one of the first to fourth aspects, the face information includes information regarding the condition of the eyelids of the subject (H1).

この態様によれば、対象者(H1)のまぶたの状態から、例えば、まばたきの有無、又は閉眼等を推定することができ、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, it is possible to estimate, for example, the presence or absence of blinking, closed eyes, or the like from the state of the eyelids of the subject (H1), and it is easy to improve the reliability of determination of the state of consciousness.

第6の態様に係る監視システム(1)では、第5の態様において、判定部(16)は、対象者(H1)のまばたきが検出されない場合と、対象者(H1)の閉眼が検出された場合とで、判定のアルゴリズムを変える。 In the monitoring system (1) according to the sixth aspect, in the fifth aspect, the determination unit (16) determines whether blinking of the subject (H1) is not detected or when closed eyes of the subject (H1) are detected. Change the judgment algorithm depending on the situation.

この態様によれば、状況に応じて判定のアルゴリズムを変えることができるので、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since the determination algorithm can be changed according to the situation, it is easy to improve the reliability of determination of the state of consciousness.

第7の態様に係る監視システム(1)では、第1~6のいずれかの態様において、顔情報とモデル情報とは、いずれも画像(Im1)から抽出される。 In the monitoring system (1) according to the seventh aspect, in any one of the first to sixth aspects, both the face information and the model information are extracted from the image (Im1).

この態様によれば、顔情報とモデル情報とを、画像(Im1)から比較的簡単に得ることができる。 According to this aspect, face information and model information can be obtained relatively easily from the image (Im1).

第8の態様に係る監視システム(1)では、第7の態様において、判定部(16)が判定に用いる情報は、画像(Im1)のみから抽出される。 In the monitoring system (1) according to the eighth aspect, in the seventh aspect, the information used by the determination section (16) for determination is extracted only from the image (Im1).

この態様によれば、画像(Im1)を得るための撮像装置(2)以外のセンサ等を用いる必要が無い。 According to this aspect, there is no need to use a sensor or the like other than the imaging device (2) for obtaining the image (Im1).

第9の態様に係る監視システム(1)では、第7又は8の態様において、顔情報取得部(13)及びモデル取得部(15)は、同一の画像(Im1)から顔情報及びモデル情報を取得する。 In the monitoring system (1) according to the ninth aspect, in the seventh or eighth aspect, the face information acquisition section (13) and the model acquisition section (15) acquire face information and model information from the same image (Im1). get.

この態様によれば、画像(Im1)を得るための撮像装置(2)が1台であっても、顔情報及びモデル情報を取得することが可能となる。 According to this aspect, it is possible to acquire face information and model information even with a single imaging device (2) for obtaining an image (Im1).

第10の態様に係る監視システム(1)では、第7~9のいずれかの態様において、モデル情報は、モデル情報を抽出するための画像(Im1)外の対象者(H1)の身体の部位に相当する点を、複数の特徴点(P1~P7)の少なくとも1つに含む。 In the monitoring system (1) according to the tenth aspect, in any one of the seventh to ninth aspects, the model information is a body part of the subject (H1) outside the image (Im1) for extracting the model information is included in at least one of the plurality of feature points (P1 to P7).

この態様によれば、画像(Im1)の撮像装置(2)を必要以上に広角にする必要が無く、例えば、画像(Im1)における顔(F1)の各部位の解像度の向上を図りやすい。 According to this aspect, there is no need to widen the angle of the imaging device (2) for the image (Im1), and for example, it is easy to improve the resolution of each part of the face (F1) in the image (Im1).

第11の態様に係る監視システム(1)では、第1~10のいずれかの態様において、判定部(16)は、モデル情報における対象者(H1)の上半身の硬直度合いと、対象者(H1)の上半身の姿勢と、の少なくとも一方に基づいて、意識状態を判定する。 In the monitoring system (1) according to the eleventh aspect, in any one of the first to tenth aspects, the determination unit (16) determines the degree of stiffness of the upper body of the subject (H1) in the model information and the degree of stiffness of the subject (H1 ), the state of consciousness is determined based on at least one of the posture of the upper half of the body of

この態様によれば、モデル情報における対象者(H1)の上半身の硬直度合いと、対象者(H1)の上半身の姿勢との少なくとも一方が判定に用いられるため、意識状態の判定の信頼性の向上を図りやすい。 According to this aspect, since at least one of the degree of stiffness of the upper body of the subject (H1) and the posture of the upper body of the subject (H1) in the model information is used for determination, the reliability of determination of the state of consciousness is improved. easy to plan.

第12の態様に係る移動体(4)は、第1~11のいずれかの態様に係る監視システム(1)と、監視システム(1)が搭載される移動体本体(41)と、を備える。 A mobile body (4) according to a twelfth aspect comprises the monitoring system (1) according to any one of the first to eleventh aspects, and a mobile body (41) on which the monitoring system (1) is mounted. .

この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、移動体(4)によれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the moving body (4), it is possible to make erroneous determination less likely to occur.

第13の態様に係る監視方法は、第1取得処理と、第2取得処理と、判定処理と、を有する。第1取得処理は、顔情報を取得する処理である。顔情報は、対象者(H1)の顔(F1)の各部位の状態に関する情報である。第2取得処理は、モデル情報を取得する処理である。モデル情報は、複数の特徴点(P1~P7)を含み、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関する情報である。判定処理は、顔情報と、モデル情報と、の両方に基づいて、対象者(H1)の意識状態を判定する処理である。 A monitoring method according to a thirteenth aspect includes a first acquisition process, a second acquisition process, and a determination process. The first acquisition process is a process of acquiring face information. The face information is information about the state of each part of the face (F1) of the subject (H1). The second acquisition process is a process of acquiring model information. The model information is information about a posture model (M1) that includes a plurality of feature points (P1 to P7) and represents at least the posture of the subject's (H1) upper body. The determination process is a process of determining the state of consciousness of the subject (H1) based on both face information and model information.

この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、監視方法によれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the monitoring method, it is possible to make erroneous determinations less likely to occur.

第14の態様に係るプログラムは、第13の態様に係る監視方法を、1以上のプロセッサに実行させるためのプログラムである。 A program according to a fourteenth aspect is a program for causing one or more processors to execute the monitoring method according to the thirteenth aspect.

この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、上記プログラムによれば、誤った判定を生じにくくすることが可能である。 According to this aspect, not only the face information about the state of each part of the face (F1) of the subject (H1), but also the model information about the posture model (M1) representing at least the posture of the upper body of the subject (H1). Based on this, the state of consciousness of the subject (H1) is determined. Therefore, compared to the case where the state of consciousness of the subject (H1) is determined only from the face information, it becomes easier to correctly determine the state of consciousness of the subject (H1). Therefore, for example, when the target person (H1) is simply looking down temporarily, it is difficult to make an erroneous determination that the target person (H1) is dozing off. As a result, according to the above program, it is possible to make erroneous determination less likely to occur.

上記態様に限らず、実施形態1及び実施形態2に係る監視システム(1)の種々の構成(変形例を含む)は、監視方法又はプログラムにて具現化可能である。 Various configurations (including modifications) of the monitoring system (1) according to Embodiments 1 and 2 can be embodied by a monitoring method or a program, without being limited to the above aspect.

第2~11の態様に係る構成については、監視システム(1)に必須の構成ではなく、適宜省略可能である。 The configurations according to the second to eleventh aspects are not essential to the monitoring system (1) and can be omitted as appropriate.

1 監視システム
4 移動体
13 顔情報取得部
14 顔位置取得部
15 モデル取得部
16 判定部
41 移動体本体
F1 顔
H1 対象者
Im1 画像
M1 姿勢モデル
P1~P7 特徴点
1 monitoring system 4 moving object 13 face information acquiring unit 14 face position acquiring unit 15 model acquiring unit 16 judging unit 41 moving object main body F1 face H1 target person Im1 image M1 posture model P1 to P7 feature points

Claims (12)

対象者の顔の各部位の状態に関する顔情報を取得する顔情報取得部と、
複数の特徴点を含み前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関するモデル情報を取得するモデル取得部と、
前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する判定部と、
前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する顔位置取得部と、を備え
前記顔位置情報は、前記判定部での前記意識状態の判定に用いられ、
前記判定部は、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える、
監視システム。
a face information acquisition unit that acquires face information about the state of each part of the face of the subject;
a model acquisition unit that acquires model information about a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body;
a determination unit that determines the subject's state of consciousness based on both the face information and the model information;
a face position acquisition unit that acquires face position information regarding at least one of the position and orientation of the face of the subject ;
The face position information is used for determination of the state of consciousness by the determination unit,
The determination unit changes a determination algorithm based on a correlation between the position of the face included in the face position information and the position of the face included in the model information.
Monitoring system.
前記判定部は、前記顔情報に基づく判定の信頼度が閾値以上であれば、前記顔情報に基づき前記意識状態を判定し、前記顔情報に基づく判定の信頼度が前記閾値未満であれば、前記モデル情報に基づき前記意識状態を判定し、
請求項1に記載の監視システム。
The determination unit determines the state of consciousness based on the face information if the reliability of the determination based on the face information is equal to or greater than a threshold, and if the reliability of the determination based on the face information is less than the threshold, determining the state of consciousness based on the model information;
A surveillance system according to claim 1 .
前記顔情報は、前記対象者のまぶたの状態に関する情報を含む、the face information includes information about the condition of the eyelids of the subject;
請求項1又は2に記載の監視システム。 3. The surveillance system according to claim 1 or 2.
前記判定部は、前記対象者のまばたきが検出されない場合と、前記対象者の閉眼が検出された場合とで、判定のアルゴリズムを変える、The determination unit changes a determination algorithm depending on whether the subject's blinking is not detected or when the subject's closed eyes are detected.
請求項3に記載の監視システム。 4. A surveillance system according to claim 3.
前記顔情報と前記モデル情報とは、いずれも画像から抽出される、both the face information and the model information are extracted from an image;
請求項1~4のいずれか1項に記載の監視システム。 The monitoring system according to any one of claims 1-4.
前記判定部が判定に用いる情報は、画像のみから抽出される、The information used by the determination unit for determination is extracted only from the image,
請求項5に記載の監視システム。 A surveillance system according to claim 5 .
前記顔情報取得部及び前記モデル取得部は、同一の画像から前記顔情報及び前記モデル情報を取得する、the face information acquisition unit and the model acquisition unit acquire the face information and the model information from the same image;
請求項5又は6に記載の監視システム。 7. A surveillance system according to claim 5 or 6.
前記モデル情報は、前記モデル情報を抽出するための画像外の前記対象者の身体の部位に相当する点を、前記複数の特徴点の少なくとも1つに含む、the model information includes, in at least one of the plurality of feature points, a point corresponding to a part of the subject's body outside the image for extracting the model information;
請求項5~7のいずれか1項に記載の監視システム。 A monitoring system according to any one of claims 5-7.
前記判定部は、前記モデル情報における前記対象者の上半身の硬直度合いと、前記対象者の上半身の姿勢と、の少なくとも一方に基づいて、前記意識状態を判定する、The determination unit determines the state of consciousness based on at least one of a degree of stiffness of the upper body of the subject in the model information and a posture of the upper body of the subject.
請求項1~8のいずれか1項に記載の監視システム。 A monitoring system according to any one of claims 1-8.
請求項1~9のいずれか1項に記載の監視システムと、A monitoring system according to any one of claims 1 to 9;
前記監視システムが搭載される移動体本体と、を備える、 a mobile body on which the monitoring system is mounted;
移動体。 Mobile.
対象者の顔の各部位の状態に関する顔情報を取得する第1取得処理と、a first acquisition process for acquiring face information about the state of each part of the subject's face;
複数の特徴点を含み前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関するモデル情報を取得する第2取得処理と、 a second acquisition process for acquiring model information about a posture model that includes a plurality of feature points and represents at least the posture of the subject's upper body;
前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する判定処理と、 a determination process for determining the subject's state of consciousness based on both the face information and the model information;
前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する顔位置取得処理と、を有し、 a face position acquisition process for acquiring face position information regarding at least one of the position and orientation of the face of the subject;
前記顔位置情報は、前記判定処理での前記意識状態の判定に用いられ、 The face position information is used to determine the state of consciousness in the determination process,
前記判定処理では、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える、 In the determination process, a determination algorithm is changed based on a correlation between the position of the face included in the face position information and the position of the face included in the model information.
監視方法。 Monitoring method.
請求項11に記載の監視方法を、1以上のプロセッサに実行させるためのプログラム。A program for causing one or more processors to execute the monitoring method according to claim 11.
JP2019077409A 2019-04-15 2019-04-15 MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM Active JP7281733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077409A JP7281733B2 (en) 2019-04-15 2019-04-15 MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077409A JP7281733B2 (en) 2019-04-15 2019-04-15 MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020177303A JP2020177303A (en) 2020-10-29
JP7281733B2 true JP7281733B2 (en) 2023-05-26

Family

ID=72936756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077409A Active JP7281733B2 (en) 2019-04-15 2019-04-15 MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7281733B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7460867B2 (en) 2021-12-24 2024-04-03 パナソニックオートモーティブシステムズ株式会社 Estimation device, estimation method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172237A (en) 2005-12-21 2007-07-05 Denso Corp Estimation device
JP5124592B2 (en) 2007-01-18 2013-01-23 シーメンス コーポレーション System and method for detecting and tracking a vehicle
JP2017210013A (en) 2016-05-23 2017-11-30 株式会社デンソー Driver state detection device and driver state detection method
JP2017217472A (en) 2016-06-02 2017-12-14 オムロン株式会社 State estimation device, state estimation method, and state estimation program
JP2018127112A (en) 2017-02-08 2018-08-16 パナソニックIpマネジメント株式会社 Arousal level estimation device and arousal level estimation method
JP2018195166A (en) 2017-05-19 2018-12-06 富士通株式会社 Posture determination program, posture determination device and posture determination method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2962006B2 (en) * 1991-10-31 1999-10-12 株式会社島津製作所 Aircraft pilot awareness detection device
JP4085539B2 (en) * 1999-09-12 2008-05-14 義隆 平野 Aircraft autopilot activated by brain waves
JP6379720B2 (en) * 2014-06-23 2018-08-29 株式会社デンソー Driver inoperability detection device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172237A (en) 2005-12-21 2007-07-05 Denso Corp Estimation device
JP5124592B2 (en) 2007-01-18 2013-01-23 シーメンス コーポレーション System and method for detecting and tracking a vehicle
JP2017210013A (en) 2016-05-23 2017-11-30 株式会社デンソー Driver state detection device and driver state detection method
JP2017217472A (en) 2016-06-02 2017-12-14 オムロン株式会社 State estimation device, state estimation method, and state estimation program
JP2018127112A (en) 2017-02-08 2018-08-16 パナソニックIpマネジメント株式会社 Arousal level estimation device and arousal level estimation method
JP2018195166A (en) 2017-05-19 2018-12-06 富士通株式会社 Posture determination program, posture determination device and posture determination method

Also Published As

Publication number Publication date
JP2020177303A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
CN104573623B (en) Face detection device and method
KR102391279B1 (en) Driving condition monitoring method and device, driver monitoring system and vehicle
US11615632B2 (en) Abnormality detection device and abnormality detection program
KR102305914B1 (en) Driving management methods and systems, in-vehicle intelligent systems, electronic devices, media
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
EP1320830B1 (en) Facial image processing system
JP5109922B2 (en) Driver monitoring device and program for driver monitoring device
JP4898026B2 (en) Face / Gaze Recognition Device Using Stereo Camera
WO2017208529A1 (en) Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium
CN110155349A (en) Peripheral vision in man-machine interface
EP2860665A2 (en) Face detection apparatus, and face detection method
US11455810B2 (en) Driver attention state estimation
WO2019067903A1 (en) Head pose estimation from local eye region
CN109543651A (en) A kind of driver&#39;s dangerous driving behavior detection method
JP6584717B2 (en) Face orientation estimation apparatus and face orientation estimation method
KR20190083155A (en) Apparatus and method for detecting state of vehicle driver
JP7281733B2 (en) MOBILE SYSTEM, MOBILE, MONITORING METHOD AND PROGRAM
Avizzano et al. Real-time embedded vision system for the watchfulness analysis of train drivers
WO2021070611A1 (en) Image processing device and non-transitory computer-readable medium
KR20110065304A (en) System and method of drowsy driving recognition based on the personalized template of a driver
WO2020255238A1 (en) Information processing device, program, and information processing method
WO2021262166A1 (en) Operator evaluation and vehicle control based on eyewear data
US11077814B2 (en) Occupant eye(s) observation device
WO2021070609A1 (en) Image processing device and non-transitory computer-readable medium
JP7412514B1 (en) Cabin monitoring method and cabin monitoring system that implements the above cabin monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R151 Written notification of patent or utility model registration

Ref document number: 7281733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03