JP2020177303A - 監視システム、移動体、監視方法及びプログラム - Google Patents

監視システム、移動体、監視方法及びプログラム Download PDF

Info

Publication number
JP2020177303A
JP2020177303A JP2019077409A JP2019077409A JP2020177303A JP 2020177303 A JP2020177303 A JP 2020177303A JP 2019077409 A JP2019077409 A JP 2019077409A JP 2019077409 A JP2019077409 A JP 2019077409A JP 2020177303 A JP2020177303 A JP 2020177303A
Authority
JP
Japan
Prior art keywords
information
face
subject
monitoring system
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019077409A
Other languages
English (en)
Other versions
JP7281733B2 (ja
Inventor
知里 山下
Chisato Yamashita
知里 山下
孝好 古山
Takayoshi Furuyama
孝好 古山
啓一郎 折笠
Keiichiro Orikasa
啓一郎 折笠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019077409A priority Critical patent/JP7281733B2/ja
Publication of JP2020177303A publication Critical patent/JP2020177303A/ja
Application granted granted Critical
Publication of JP7281733B2 publication Critical patent/JP7281733B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】誤った判定を生じにくくすることが可能な監視システム、移動体、監視方法及びプログラムを提供する。【解決手段】監視システム1は、顔情報取得部13と、モデル取得部15と、判定部16と、を備える。顔情報取得部13は、顔情報を取得する。顔情報は、対象者の顔の各部位の状態に関する情報である。モデル取得部15は、モデル情報を取得する。モデル情報は、複数の特徴点を含み、対象者の少なくとも上半身の姿勢を表す姿勢モデルに関する情報である。判定部16は、顔情報と、モデル情報と、の両方に基づいて、対象者の意識状態を判定する。【選択図】図1

Description

本開示は、一般に監視システム、移動体、監視方法及びプログラムに関し、より詳細には、対象者の意識状態を監視するための監視システム、移動体、監視方法及びプログラムに関する。
特許文献1には、運転者の脇見又は居眠り等を監視する監視システム(運転者監視装置)が記載されている。この監視システムでは、運転者の顔に輝点パターンを投影し、運転者の顔に投影した輝点パターンを撮像手段にて撮像する。
さらに、撮像して得た画像をデータ処理手段が処理して運転者の顔をサンプリングし、各サンプリング点の3次元位置データを求め、この3次元位置データを処理して運転者の顔の上下、左右、斜めの傾きを求める。そして、顔の傾きによって運転者の状態を判定手段が判定する。
特開平10−960号公報
特許文献1に記載のような監視システムでは、例えば、単に対象者(運転者)が一時的に下を向いている場合でも、対象者が居眠りをしているように誤った判定がなされることがある。
本開示は上記事由に鑑みてなされており、誤った判定を生じにくくすることが可能な監視システム、移動体、監視方法及びプログラムを提供することを目的とする。
本開示の一態様に係る監視システムは、顔情報取得部と、モデル取得部と、判定部と、を備える。前記顔情報取得部は、顔情報を取得する。前記顔情報は、対象者の顔の各部位の状態に関する情報である。前記モデル取得部は、前記モデル情報を取得する。前記モデル情報は、複数の特徴点を含み、前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関する情報である。前記判定部は、前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する。
本開示の一態様に係る移動体は、前記監視システムと、前記監視システムが搭載される移動体本体と、を備える。
本開示の一態様に係る監視方法は、第1取得処理と、第2取得処理と、判定処理と、を有する。前記第1取得処理は、顔情報を取得する処理である。前記顔情報は、対象者の顔の各部位の状態に関する情報である。前記第2取得処理は、モデル情報を取得する処理である。前記モデル情報は、複数の特徴点を含み、前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関する情報である。前記判定処理は、前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する処理である。
本開示の一態様に係るプログラムは、前記監視方法を、1以上のプロセッサに実行させるためのプログラムである。
本開示によれば、誤った判定を生じにくくすることが可能である、という利点がある。
図1Aは、実施形態1に係る監視システムの構成を示す概略ブロック図である。図1Bは、実施形態1に係る移動体の外観を示す概略斜視図である。 図2は、同上の監視システムで用いる画像を示す説明図である。 図3Aは、同上の監視システムで用いる画像において対象者の目元を拡大した説明図である。図3Bは、同上の監視システムで用いる画像に姿勢モデルを重畳した説明図である。図3Cは、同上の監視システムで用いる画像において対象者の顔を拡大した説明図である。 図4は、同上の監視システムの全体動作の一例を示すフローチャートである。 図5は、同上の監視システムによる対象者の意識状態の判定の動作の一例を示すフローチャートである。 図6Aは、対象者の意識状態が正常である場合の、同上の監視システムの動作例を説明するための説明図である。図6Bは、対象者の意識状態が意識喪失である場合の、同上の監視システムの動作例を説明するための説明図である。 図7Aは、対象者の意識状態が正常である場合の、同上の監視システムの動作例を説明するための説明図である。図7Bは、対象者の意識状態が意識喪失である場合の、同上の監視システムの動作例を説明するための説明図である。 図8は、同上の監視システムの補完機能を説明するための説明図である。 図9は、実施形態2に係る監視システムによる対象者の意識状態の判定の動作の一例を示すフローチャートである。
(実施形態1)
(1)概要
まず、本実施形態に係る監視システム1の概要について、図1A〜図3Cを参照して説明する。
監視システム1は、対象者H1(図2参照)の意識状態を監視するためのシステムである。具体的には、監視システム1によれば、対象者H1の意識の有無(意識喪失/意識清明)等を監視することが可能である。
例えば、自動車等の分野においては、この種の監視システム1は、ドライバモニタリングシステムとして普及し始めている。ドライバモニタリングシステムは、対象者H1である自動車の運転者(driver)の状態(意識状態を含む)を監視することで運転者の脇見又は居眠り等を検出し、運転者の異常を検出した際には警報を出したり、自動車を制御したりする。本実施形態に係る監視システム1は、一例として、自動車に搭載されることにより、このようなドライバモニタリングシステムとして使用可能である。
本実施形態に係る監視システム1は、図1Aに示すように、顔情報取得部13と、モデル取得部15と、判定部16と、を備えている。顔情報取得部13は、顔情報を取得する。顔情報は、対象者H1の顔F1(図2参照)の各部位の状態に関する情報である。モデル取得部15は、モデル情報を取得する。モデル情報は、複数の特徴点P1〜P7(図3B参照)を含み、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1(図3B参照)に関する情報である。判定部16は、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定する。
この構成によれば、対象者H1の顔F1の各部位の状態に関する顔情報だけでなく、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関するモデル情報にも基づいて、対象者H1の意識状態が判定される。そのため、顔情報のみから対象者H1の意識状態が判定される場合に比較すると、対象者H1の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者H1が一時的に下を向いているような場合に、対象者H1が居眠りをしているとの誤った判定が生じにくい。結果的に、監視システム1によれば、誤った判定を生じにくくすることが可能である。
(2)詳細
以下、本実施形態に係る監視システム1及び移動体4の詳細について、図1A〜図7Bを参照して説明する。
(2.1)前提
本実施形態に係る監視システム1は、図1Bに示すように、移動体本体41に搭載され、移動体本体41と共に移動体4を構成する。すなわち、本実施形態に係る移動体4は、監視システム1と、移動体本体41と、を備えている。移動体本体41には、監視システム1が搭載されている。本実施形態では一例として、移動体4は航空機であって、移動体本体41は航空機の機体である。ここでは特に、移動体4が旅客を輸送するための民間の旅客機(飛行機)である場合を想定する。
また、本実施形態に係る監視システム1での意識状態の監視対象となる対象者H1は、航空機からなる移動体4の操縦者(pilot)である。対象者H1となる移動体4の操縦者は、移動体4の操縦室に乗り込み、航空機からなる移動体4の操縦を行う。本実施形態では一例として、移動体4には、機長及び副操縦士の2名の操縦者が乗っており、監視システム1は、2名の操縦者の各々を対象者H1として、各対象者H1の意識状態を監視することと仮定する。ただし、以下では特に断りが無い限り、1名の対象者H1(ここでは操縦者)に着目して説明することとする。
本開示でいう「意識状態」とは、例えば、対象者H1の意識水準(意識レベル)又は覚醒度等を意味し、意識喪失(意識消失又は失神を含む)/意識清明の状態に大別される。ここでいう意識水準には、一例として、清明(alert)、傾眠(somnolence)、昏迷(stupor)及び昏睡(coma)等が含まれる。さらに、意識清明とは、意識がある状態であって、まず「覚醒」していること、加えて周囲を「認識」できる状態であり、開眼、言葉及び動作等で外界からの刺激又は情報に「反応」できることも必要である。これに対し、意識喪失は、何らかの形で意識清明でなくなった状態を意味する。本開示においては、つまり意識水準の一時的な低下現象で、かつ必ず覚醒可能な状態である睡眠(居眠りを含む)についても、意識喪失に含まれる。本実施形態では一例として、監視システム1は、対象者H1の意識状態について、意識清明に相当する「正常」の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定する。
本開示でいう「顔F1の各部位の状態」は、対象者H1の顔F1の各パーツの状態であって、例えば、まぶた、口、眼球(目)、鼻、眉、眉間又は耳等の状態である。例えば、「まぶた」の状態であれば、上まぶたF11及び下まぶたF12間の距離であるまぶた間距離D1(図3A参照)、まぶたの形状、並びに、まぶた間距離D1から推定される「まばたき」の有無、及び閉眼/開眼の区別等を含む。「口」の状態であれば、口角の位置、唇の形状、閉口/開口の区別、口から泡を吹いているか否か、及び吐血の有無等を含む。「眼球」の状態であれば、眼球の動き(視線の動き)、白目をむいているか否か及び瞳孔の開き具合等を含む。本実施形態では一例として、顔情報が表す顔F1の各部位の状態は、少なくとも対象者H1の「まぶた」の状態を含んでいる。
本開示でいう「姿勢モデル」は、対象者H1の少なくとも上半身の姿勢を表すモデルデータからなり、少なくとも複数の特徴点P1〜P7を含んでいる。本実施形態では一例として、姿勢モデルM1は、複数の特徴点P1〜P7間を、直線でつないだ骨格線モデルある。
本開示でいう「特徴点」は、人体の各部位に相当する点であって、例えば、顔F1の中心、左右一対の鎖骨の中心、肩又は肘等に対応付けられる。本実施形態では一例として、姿勢モデルM1は、図3Bに示すように、対象者H1の上半身(へそから頭頂部までの間)に設定された7つの部位にそれぞれ対応する、7つの特徴点P1〜P7を含んでいる。特徴点P1は顔F1の中心、特徴点P2は左右一対の鎖骨の中心、特徴点P3は右肩、特徴点P4は右肘、特徴点P5は左肩、特徴点P6は左肘、特徴点P7はへそ、にそれぞれ相当する。これら7つの特徴点P1〜P7のうち、P1−P2間、P3−P4間、P5−P6間、P2−P3間、P3−P5間、及びP2−P7間が直線でつながることにより、姿勢モデルM1が構成されている。
本実施形態では一例として、このような姿勢モデルM1に関するモデル情報は、撮像装置2(図1A参照)で撮影される画像Im1(図2参照)から抽出される。本開示でいう「画像」は、動画(動画像)及び静止画(静止画像)を含む。さらに、「動画」は、コマ撮り等により得られる複数の静止画にて構成される画像を含む。本実施形態では一例として、画像Im1は時間経過に伴って変化する画像(つまり動画)である。
(2.2)構成
次に、本実施形態に係る監視システム1及び移動体4の構成について説明する。
監視システム1には、図1Aに示すように、撮像装置2及び制御システム3が接続される。撮像装置2及び制御システム3は、監視システム1と共に、移動体4の移動体本体41に搭載されている。つまり、本実施形態に係る移動体4は、監視システム1及び移動体本体41に加えて、撮像装置2及び制御システム3を更に備えている。
本実施形態では、撮像装置2及び制御システム3は、監視システム1の構成要素には含まれないこととするが、撮像装置2及び制御システム3の少なくとも一方は、監視システム1の構成要素に含まれてもよい。
本実施形態においては、顔情報とモデル情報とは、いずれも画像Im1から抽出される。すなわち、監視システム1での対象者H1の意識状態の判定には、顔情報とモデル情報とが用いられるが、これら顔情報及びモデル情報は、いずれも撮像装置2で撮影される画像Im1から抽出される。言い換えれば、判定部16での意識状態の判定に用いられる顔情報は画像Im1から抽出され、判定部16での意識状態の判定に用いられるモデル情報についても画像Im1から抽出される。
さらに、本実施形態では、判定部16が判定に用いる情報は、画像Im1のみから抽出される。すなわち、上述したように、判定部16での意識状態の判定に用いられる顔情報及びモデル情報は、いずれも画像Im1から抽出される情報である。さらに、詳しくは後述するが、本実施形態に係る監視システム1では、判定部16での意識状態の判定には、顔情報及びモデル情報に加えて、顔位置情報が用いられる。そして、この顔位置情報についても、顔情報及びモデル情報と同様に画像Im1から抽出される。そのため、監視システム1では、例えば、心拍数、体温及び姿勢等の情報を検知するための生体センサ、又は、対象者H1の動きを検出するための加速度センサ若しくは角速度センサ等を用いることなく、対象者H1の意識状態の判定が可能である。
撮像装置2は、モデル情報等を抽出するための画像Im1を撮影する装置であって、カメラを含んでいる。本実施形態では、撮像装置2は、その画角内に少なくとも対象者H1の上半身(頭部を含む)が含まれるように設置されている。本実施形態では、対象者H1は移動体4(航空機)の操縦者であるので、撮像装置2のカメラは、移動体4の操縦室において対象者H1(操縦者)を前方から撮影可能なように、対象者H1の前方に設置されている。さらに、2名の操縦者の各々が対象者H1であるので、1名の対象者H1につき1台のカメラが設置されることが好ましい。
本実施形態では、撮像装置2は、対象者H1(操縦者)による操縦の邪魔にならず、かつ暗所でも撮影可能なように、例えば、赤外線カメラのような暗視カメラを含んでいる。より詳細には、一例として、撮像装置2で撮影される画像Im1は、モーションJPEG(Motion JPEG)等の時系列に沿った複数の静止画にて構成される、30fpsの動画である。撮像装置2で撮像された画像Im1は、例えば、リアルタイムで又はバッファ等を介して、監視システム1に出力される。
制御システム3は、監視システム1からの出力信号を受けて動作するシステムである。監視システム1からの出力信号には、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)が含まれている。そのため、制御システム3は、対象者H1の意識状態の判定結果に応じて動作可能である。
本実施形態では、制御システム3は、対象者H1の意識状態の判定結果に応じて、適宜、通報を行う。一例として、操縦者である対象者H1の意識状態の判定結果が「意識喪失」であれば、制御システム3は、他の乗務員(他の操縦者又は客室乗務員等)と、管制塔との少なくとも一方に対して、異常を知らせる通報を行う。さらに、制御システム3は、対象者H1の意識状態の判定結果に応じて、移動体4に搭載されている監視システム1以外の設備システム(表示システム等)を制御してもよいし、移動体本体41の操縦を自動操縦に切り替える等、移動体本体41を制御してもよい。
本実施形態では、監視システム1は、図1Aに示すように、顔情報取得部13、モデル取得部15及び判定部16に加えて、入力部11、抽出部12、顔位置取得部14及び出力部17を更に備えている。すなわち、本実施形態に係る監視システム1は、入力部11と、抽出部12と、顔情報取得部13と、顔位置取得部14と、モデル取得部15と、判定部16と、出力部17と、を備えている。
本実施形態では一例として、監視システム1は、1以上のプロセッサ及び1以上のメモリを有するコンピュータシステム(サーバ、クラウドコンピューティングを含む)を主構成とする。プロセッサは、メモリに記録されているプログラムを実行することにより、監視システム1の機能を実現する。プログラムは、予めメモリに記録されていてもよいし、メモリカードのような非一時的記録媒体に記録されて提供されたり、電気通信回線を通して提供されたりしてもよい。言い換えれば、上記プログラムは、1以上のプロセッサを、監視システム1として機能させるためのプログラムである。
入力部11は、撮像装置2に接続されている。入力部11には、撮像装置2で撮影された画像Im1が入力される。本実施形態では、入力部11は、リアルタイムで、撮像装置2から通信により、動画(動画像)からなる画像Im1を取得する。ここで、入力部11に入力される画像Im1は、撮像装置2から出力されたデータそのものでなくてもよい。例えば、入力部11に入力される画像Im1は、必要に応じて適宜データの圧縮、他のデータ形式への変換、又は撮影された画像から一部を切り出す加工、ピント調整、明度調整、若しくはコントラスト調整等の加工が施されていてもよい。
抽出部12は、入力部11に入力された画像Im1から、対象者H1の意識状態の判定に必要な種々の情報を抽出する。抽出部12は、画像Im1について画像処理を適宜行うことで、これら種々の情報を抽出する。本実施形態では、上述したように、判定部16での意識状態の判定には、顔情報、モデル情報及び顔位置情報が用いられる。そのため、抽出部12は、これら顔情報、モデル情報及び顔位置情報を画像Im1から抽出する。顔情報は、対象者H1の顔F1の各部位の状態に関する情報である。モデル情報は、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関する情報である。また、顔位置情報は、対象者H1の顔F1の位置と向きとの少なくとも一方に関する情報である。すなわち、抽出部12は、例えば、図2に示すように、画像Im1内に、対象者H1の顔F1が含まれる顔領域R1を設定し、顔領域R1から、少なくとも顔情報及び顔位置情報を抽出する。
抽出部12は、例えば、HOG(Histograms of Oriented Gradients)特徴量、又は畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等を用いて、対象者H1の意識状態の判定に必要な種々の情報を抽出してもよい。
顔情報取得部13は、対象者H1の顔F1の各部位の状態に関する顔情報を取得する。顔情報は、判定部16での意識状態の判定に用いられる。本実施形態では、顔情報は、抽出部12にて画像Im1から抽出されるので、顔情報取得部13は、抽出部12で抽出された顔情報を抽出部12から取得する。
上述した通り、本実施形態では一例として、顔情報が表す顔F1の各部位の状態は、少なくとも対象者H1の「まぶた」の状態を含んでいる。すなわち、顔情報は、対象者H1のまぶたの状態に関する情報を含んでいる。そのため、顔情報取得部13が取得する顔情報は、図3Aに示すように、上まぶたF11と、下まぶたF12と、の間の距離である、まぶた間距離D1を含んでいる。一例として、まぶた間距離D1が所定距離以下である状態が一定時間継続すると、対象者H1の状態が「閉眼」にあることが推定される。
顔位置取得部14は、対象者H1の顔F1の位置と向きとの少なくとも一方に関する顔位置情報を取得する。顔位置情報は、判定部16での意識状態の判定に用いられる。本実施形態では、顔位置情報は、抽出部12にて画像Im1から抽出されるので、顔位置取得部14は、抽出部12で抽出された顔位置情報を抽出部12から取得する。ここで、本実施形態では一例として、顔位置情報は、図3Cに示すように、対象者H1の顔F1の中心から、顔F1が向けられている方向に延びるベクトルA1で表される情報を含んでいる。つまり、顔位置情報は、対象者H1の顔F1の中心の位置の情報と、顔F1の向きの情報と、の両方を含んでいる。図3Cの例では、対象者H1の顔F1は撮像装置2のカメラの方向に向いているため、顔位置情報に含まれるベクトルA1は、顔F1の中心から真正面に向けて延びる矢印となる。
モデル取得部15は、複数の特徴点P1〜P7を含み、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関するモデル情報を取得する。モデル情報は、判定部16での意識状態の判定に用いられる。本実施形態では、モデル情報は、抽出部12にて画像Im1から抽出されるので、モデル取得部15は、抽出部12で抽出されたモデル情報を抽出部12から取得する。上述した通り、本実施形態では一例として、姿勢モデルM1は、対象者H1の上半身に設定された7つの部位にそれぞれ対応する、7つの特徴点P1〜P7を含んでいる。そのため、モデル取得部15が取得するモデル情報は、図3Bに示すように、画像Im1における対象者H1の上半身に重ねて生成される姿勢モデルM1に関する情報である。
ここで、姿勢モデルM1における特徴点P3−P4をつなぐ直線、及び特徴点P5−P6をつなぐ直線についての、鉛直線に対する角度θ1,θ2(図3B参照)は、対象者H1の腕(上腕部)の角度に相当する。さらに、姿勢モデルM1における特徴点P2−P7をつなぐ直線についての、鉛直線に対する角度θ3(図6B及び図7B参照)は、対象者H1の上半身の傾斜角度に相当する。本実施形態では、このような対象者H1の腕(上腕部)の角度θ1,θ2の情報、及び対象者H1の上半身の角度θ3の情報も、モデル取得部15が取得するモデル情報に含まれる。
ここにおいて、本実施形態では、判定部16での意識状態の判定に用いられる顔情報、モデル情報及び顔位置情報は、同一の画像Im1から、抽出部12にて抽出される。つまり、1つの画像Im1から、顔情報、モデル情報及び顔位置情報が抽出可能であるため、顔情報、モデル情報及び顔位置情報の各々を抽出するために、複数のカメラを設置する必要が無い。よって、本実施形態では、少なくとも顔情報取得部13及びモデル取得部15は、同一の画像Im1から顔情報及びモデル情報を取得することになる。
図3A〜図3C等においては、画像Im1の具体例を示しているが、顔領域R1、姿勢モデルM1、ベクトルA1及び参照符号は説明のために表記しているに過ぎず、これらが実際に画像Im1に含まれている訳ではない。
判定部16は、対象者H1の意識状態を判定する機能を有する。判定部16は、少なくとも顔情報及びモデル情報の両方に基づいて、対象者H1の意識状態を判定する。本実施形態では、判定部16は、基本的には、顔情報、モデル情報及び顔位置情報に基づいて、対象者H1の意識状態を判定する。本実施形態では一例として、判定部16は、対象者H1の意識状態について、意識清明に相当する「正常」の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定する。
ここで、判定部16は、顔情報、モデル情報及び顔位置情報の各々を所定の判定時間にわたって蓄積し、蓄積されたこれらの情報を統合して、対象者H1の意識状態を判定(推定)する。一例として、判定時間が5分であるとすれば、判定部16は、判定時間に当たる5分間は、顔情報、モデル情報及び顔位置情報の各々を蓄積するだけで、判定までは行わない。そして、判定時間に当たる5分が経過した時点で、蓄積されている顔情報、モデル情報及び顔位置情報を統合し、対象者H1の意識状態を判定(推定)する。そのため、例えば、判定時間内に、一時的に、意識喪失に当たると判定し得る状況が生じたとしても、判定時間全体を通して、正常(意識清明)と判定される場合には、判定部16は正常(意識清明)と判定することができる。反対に、判定時間内に、一時的に、意識清明に当たると判定し得る状況が生じたとしても、判定時間全体を通して、意識喪失と判定される場合には、判定部16は意識喪失と判定することができる。
また、詳しくは「(2.3.2)判定動作」の欄で説明するが、判定部16は、顔情報、モデル情報及び顔位置情報の各々の信頼度を加味して、対象者H1の意識状態を判定する際の、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを変更可能である。つまり、本実施形態では、判定部16は、対象者H1の意識状態を判定するに際して、顔情報、モデル情報及び顔位置情報の全てを常に用いるのではなく、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを適宜変更する。その結果、判定部16は、例えば、顔情報、モデル情報及び顔位置情報のうちの顔情報のみに基づいて、対象者H1の意識状態を判定することもある。
判定部16は、例えば、深層学習(Deep Learning)等の機械学習により学習する機能を有していることが好ましい。この場合、判定部16は、顔情報、モデル情報及び顔位置情報が学習済みの分類器に入力されることで、対象者H1の意識状態を判定する。
出力部17は、判定部16の判定結果を受けて、制御システム3に対して出力信号を出力する。出力部17は、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)を出力信号に含めて、通信により制御システム3に出力信号を送信する。出力部17は、少なくとも判定結果が意識喪失である場合には、即座に制御システム3に出力信号を出力することが好ましい。一方、判定結果が正常(意識清明)である場合には、出力部17は、制御システム3に出力信号を即座に出力しなくてもよい。
さらに、出力部17は、対象者H1の意識状態(正常/意識喪失)という判定部16の判定結果に加えて、この判定結果の確率(確からしさ)を出力してもよい。例えば、判定部16が70%の確率で「意識喪失」と判定した場合に、出力部17は、「意識喪失」という判定結果に加えて、この判定結果の確率が「70%」であることを出力する。
(2.3)動作
次に、本実施形態に係る監視システム1の動作、つまり本実施形態に係る監視方法について説明する。
以下では、航空機からなる移動体4が離陸した後、着陸を開始するまでの間の期間を監視期間とし、この監視期間に、監視システム1が対象者H1(操縦者)の意識状態の監視を行うことと仮定する。特に、ここでは移動体4が離陸してから着陸を開始するまでの間は、移動体本体41が自動操縦(autopilot)により巡航していることを前提とする。つまり、監視システム1は、移動体4が自動操縦により巡航している監視期間中において、移動体4の操縦者である対象者H1の意識状態を監視する。
さらに、判定部16が対象者H1の意識状態を判定する周期となる判定時間は、ここでは5分であることと仮定する。つまり、判定部16は、顔情報、モデル情報及び顔位置情報の各々を5分の判定時間にわたって蓄積し、判定時間に当たる5分が経過する度に、蓄積されたこれらの情報を統合して、対象者H1の意識状態を判定する。
(2.3.1)全体動作
図4は、監視期間における監視システム1の全体動作、つまり監視方法の全体的な流れの一例を示すフローチャートである。
すなわち、監視システム1は、監視期間が開始すると、まずは撮像装置2で撮影された画像Im1を、入力部11にて撮像装置2から取得する(S1)。画像Im1を取得すると、監視システム1は、取得した画像Im1から、抽出部12にて、顔情報、モデル情報及び顔位置情報の抽出を行う。
そして、監視システム1は、顔情報取得部13にて顔情報を取得し(S2)、顔位置取得部14にて顔位置情報を取得し(S3)、モデル取得部15にてモデル情報を取得する(S4)。その後、監視システム1は、判定時間(ここでは5分)が経過したか否かを判断する(S5)。判定時間が経過していなければ、処理S1に戻って、画像Im1の取得以降の処理を繰り返す。
一方、判定時間が経過すると、監視システム1は、判定部16にて、対象者H1の意識状態を判定する判定処理を実行する(S6)。この判定処理S6では、判定部16は、少なくとも、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定可能である。判定処理S6について詳しくは、「(2.3.2)判定動作」の欄で説明する。
判定処理S6が終了すると、監視システム1は、少なくとも対象者H1の意識状態の判定結果(正常/意識喪失)を含む出力信号を、出力部17にて制御システム3に出力する(S7)。これにより、例えば、判定処理S6での判定結果が「意識喪失」であれば、制御システム3は、他の乗務員(他の操縦者又は客室乗務員等)と、管制塔との少なくとも一方に対して、異常を知らせる通報を行う。
監視システム1は、監視期間にわたって、上述したような処理S1〜S7を繰り返し実行する。図4のフローチャートは、監視システム1の全体動作の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。例えば、処理S2〜S4の順番が変更され、モデル取得部15にてモデル情報を取得した後(S4)、顔位置取得部14にて顔位置情報を取得し(S3)、その後に顔情報取得部13にて顔情報を取得してもよい(S2)。
(2.3.2)判定動作
以下、監視システム1による対象者H1の意識状態の判定の動作、つまり図4における判定処理S6について、詳しく説明する。
図5は、判定処理(図4のS6)における判定部16の動作の一例を示すフローチャートである。図5のフローチャートにおいて、判定部16が、対象者H1の意識状態の判定にモデル情報を用いる処理(S16,S17)には網掛けを付している。言い換えれば、図5において、網掛けが付されていない処理は、対象者H1の意識状態の判定にモデル情報が用いられない処理である。
判定部16は、判定処理が開始すると、まずは対象者H1の「まぶた」を検出できたか否かを判断する(S11)。例えば、まぶた(上まぶたF11、下まぶた位F12)が画像Im1から鮮明に認識可能であれば、まぶたを検出できたと判断し(S11:Yes)、まぶたが画像Im1において鮮明に認識できなければ、まぶたを検出できないと判断する(S11:No)。まぶたの検出の可否は、例えば、顔情報取得部13が取得する顔情報に含まれている。
まぶたが検出された場合(S11:Yes)、判定部16は、まばたきの有無、及び閉眼の有無を判断する(S12)。まばたきの有無、及び閉眼の有無については、顔情報取得部13が取得する顔情報に基づいて判断される。例えば、対象者H1が所定時間(一例として1分)にわたって「まばたき」をしていない場合、「まばたき」なしと判断し、まぶた間距離D1が所定距離以下である状態が一定時間(一例として1分)継続している場合、閉眼と判断する(S12:Yes)。一方、「まばたき」ありと判断され、かつ開眼と判断される場合には、処理S12は「No」と判断される。
そして、「まばたき」なし、又は閉眼と判断されると(S12:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。一方、「まばたき」ありと判断され、かつ開眼と判断されると(S12:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
ここで、まばたきの有無、及び閉眼の有無の判断結果から意識状態を判定する場合(S12)においては、判定部16は、顔情報のみから、対象者H1の意識状態を判定することになる。つまり、判定部16は、顔情報だけでなく、モデル情報、更には顔位置情報に基づいても、対象者H1の意識状態を判定可能であるところ、本実施形態ではデフォルトとして、顔情報の優先度を最も高くしている。そのため、顔情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定には顔情報が優先的に用いられ、判定部16は、顔情報のみから、対象者H1の意識状態を判定することが可能である。顔情報に基づく判定の信頼度は、対象者H1の「まぶた」を検出できたか否か(S11)によって推定され、まぶたが検出された場合(S11:Yes)には、顔情報に基づく判定の信頼度は閾値以上であると推定する。
これに対して、まぶたが検出されない場合(S11:No)、つまり、顔情報に基づく判定の信頼度は閾値未満である場合、判定部16は、対象者H1の顔F1の向きが硬直しているか否かを判断する(S13)。顔F1の向きの硬直については、顔位置取得部14が取得する顔位置情報に基づいて判断される。例えば、顔F1の向きの変化量の一定時間(一例として1分)の積分値が所定値未満であれば、顔F1の向きの硬直ありと判断し(S13:Yes)、上記積分値が所定値以上であれば、顔F1の向きの硬直なしと判断する(S13:No)。
そして、顔F1の向きの硬直ありと判断されると(S13:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。ここで、顔F1の向きの硬直の有無の判断結果から意識状態を判定する場合(S13)においては、判定部16は、顔位置情報から、対象者H1の意識状態を判定することになる。つまり、本実施形態ではデフォルトとして、顔情報の優先度が最も高く、その次に顔位置情報の優先度が高く設定されている。そのため、まぶたが検出されず(S11:No)、顔情報に基づく判定の信頼度が閾値未満の場合には、対象者H1の意識状態の判定には顔位置情報が優先的に用いられ、判定部16は、顔位置情報に基づいて、対象者H1の意識状態を判定することが可能である。
一方で、顔F1の向きの硬直なしと判断されると(S13:No)、判定部16は、対象者H1の顔F1の位置を検出できたか否かを判断する(S14)。例えば、対象者H1の顔F1が画像Im1から鮮明に認識可能であれば、顔F1の位置を検出できたと判断し(S14:Yes)、顔F1が画像Im1において鮮明に認識できなければ、顔F1の位置を検出できないと判断する(S14:No)。顔F1の位置の検出の可否は、例えば、顔位置取得部14が取得する顔位置情報に含まれている。
顔F1の位置を検出できた場合(S14:Yes)、判定部16は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるか否かを判断する(S15)。例えば、顔位置情報に含まれる顔F1の中心位置と、姿勢モデルM1に含まれる特徴点P1の位置と、の間隔が所定値未満であれば、両者間に相関があると判断し(S15:Yes)、上記間隔が所定値以上であれば、両者間に相関がないと判断する(S15:No)。
そして、2つの顔位置の間に相関があると判断されると(S15:Yes)、判定部16は、対象者H1の身体(上半身)が硬直しているか否かを判断する(S16)。身体の硬直については、モデル取得部15が取得するモデル情報に基づいて判断される。例えば、姿勢モデルM1における複数の特徴点P1〜P7の位置、及び/又は対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間(一例として1分)の積分値が所定値未満であれば、身体の硬直ありと判断する(S16:Yes)。一方、上記積分値が所定値以上であれば、身体の硬直なしと判断する(S16:No)。
身体の硬直ありと判断されると(S16:Yes)、判定部16は、対象者H1の上半身の傾倒の有無を判断する(S17)。上半身の傾倒については、モデル取得部15が取得するモデル情報のうち、姿勢モデルM1における特徴点P2−P7をつなぐ直線についての、鉛直線に対する角度θ3に基づいて判断される。例えば、角度θ3が基準角度未満であれば、対象者H1の上半身の傾倒なしと判断し(S17:No)、角度θ3が基準角度以上であれば、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。
そして、対象者H1の身体の硬直ありと判断され(S16:Yes)、かつ対象者H1の上半身の傾倒ありと判断されると(S17:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。一方、対象者H1の身体の硬直なし(S16:No)、又は対象者H1の上半身の傾倒なしと判断されると(S17:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
ここで、身体の硬直の有無、及び上半身の傾倒の有無の判断結果から意識状態を判定する場合(S16,S17)においては、判定部16は、モデル情報から、対象者H1の意識状態を判定することになる。つまり、本実施形態ではデフォルトとして、顔情報の優先度が最も高く、その次に顔位置情報の優先度が高く、そしてモデル情報の優先度が最も低く設定されている。そのため、顔情報及び顔位置情報からでは、対象者H1の意識状態の判定ができず、かつモデル情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定にはモデル情報が用いられ、判定部16は、モデル情報から、対象者H1の意識状態を判定する。モデル情報に基づく判定の信頼度は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるか否か(S15)によって推定される。両者間に相関がある場合(S15:Yes)には、モデル情報に基づく判定の信頼度は閾値以上であると推定する。
一方、顔F1の位置を検出できない場合(S14:No)、又は顔位置に相関がない場合(S15:No)には、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。これらの場合においては、判定部16は、モデル情報を用いずに、対象者H1の意識状態を判定することになる。つまり、顔位置を検出できない場合(S14:No)、又は顔位置に相関がない場合(S15:No)には、モデル情報に基づく判定の信頼度は閾値未満である判断して、判定部16は、モデル情報を用いずに、対象者H1の意識状態を判定する。
監視システム1は、判定処理においては、上述したような処理S11〜S19を実行する。図5のフローチャートは、判定処理の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。
以上説明したように、本実施形態では、判定部16は、対象者H1の意識状態の判定に際して、顔情報、モデル情報及び顔位置情報の各々の信頼度を加味して、顔情報、モデル情報及び顔位置情報の優先度又は重み付けを変更可能である。図5の例では、優先度が高い順から、顔情報、顔位置情報、モデル情報となるように、顔情報、モデル情報及び顔位置情報の優先度がデフォルトで規定されている。そして、顔情報に基づく判定の信頼度が低い場合には、顔情報に代えて顔位置情報が優先的に用いられるといったように、個々の信頼度を加味して、顔情報、モデル情報及び顔位置情報の優先度又は重み付けが変更される。
特に、本実施形態では、判定部16は、顔情報に基づく判定の信頼度が閾値以上であれば、顔情報に基づき意識状態を判定し、顔情報に基づく判定の信頼度が閾値未満であれば、モデル情報に基づき意識状態を判定する。このように、デフォルトでは顔情報の優先度をモデル情報よりも高くしつつ、顔情報に基づく判定の信頼度が不十分である場合に限り、判定部16は、顔情報以外の情報(モデル情報)に基づいて、対象者H1の意識状態の判定を行う。その結果、比較的に信頼性の高い顔情報を用いた判定が優先的に行われることとなり、監視システム1における対象者H1の意識状態の判定の信頼性が高くなる。
また、本実施形態では、上述したように、判定部16は、顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。つまり、判定部16は、両者の間に相関があれば(S15:Yes)、モデル情報に基づいて、対象者H1の意識状態を判定し(S16,S17)、両者の間に相関がなければ(S15:No)、対象者H1の意識状態にモデル情報を用いない。要するに、両者間に相関がある場合(S15:Yes)には、モデル情報の信頼度は十分に高いと推定し、モデル情報を用いるように、判定部16での判定のアルゴリズムが変化する。
さらに、判定部16は、モデル情報における対象者H1の上半身の硬直度合いと、対象者H1の上半身の姿勢と、の少なくとも一方に基づいて、意識状態を判定する。要するに、モデル情報に基づいて対象者H1の意識状態を判定する場合においては、判定部16は、身体の硬直の有無、及び上半身の傾倒の有無の両方に基づいて意識状態を判定する(S16,S17)。ここで、身体の硬直の有無(S16)が、対象者H1の上半身の硬直度合いに相当し、上半身の傾倒の有無(S17)が、対象者H1の上半身の姿勢に相当する。このように、本実施形態では、モデル情報における対象者H1の上半身の硬直度合いと、対象者H1の上半身の姿勢と、の両方を、対象者H1の意識状態の判定に用いている。
また、図5のフローチャートでは、処理S12において、判定部16は、まばたきの有無、及び閉眼の有無をまとめて判断しているが、この例に限らず、まばたきの有無、及び閉眼の有無を個別に判断してもよい。このとき、判定部16は、対象者H1のまばたきが検出されない場合と、対象者H1の閉眼が検出された場合とで、判定のアルゴリズムを変えてもよい。
一例として、まばたきが検出されない場合、閉眼が検出された場合のいずれの場合でも、判定部16は、即座に意識喪失の状態と判定するのではなく、顔情報以外の情報、つまり顔位置情報又はモデル情報に基づいて、対象者H1の意識状態を判定する。そして、判定部16は、まばたきが検出されない場合には、対象者H1の意識状態の判定に顔位置情報を優先的に用い、閉眼が検出された場合には、対象者H1の意識状態の判定にモデル情報を優先的に用いる。このように、判定部16は、まばたきが検出されない場合と、閉眼が検出された場合とで、その後の、対象者H1の意識状態を判定に用いる情報(顔情報、顔位置情報及びモデル情報)の優先度を変化させることができる。また、判定部16は、まばたきが検出されない場合と、閉眼が検出された場合とで、その後の、対象者H1の意識状態を判定に用いる情報(顔情報、顔位置情報及びモデル情報)の、信頼度、又は判定時間を変化させてもよい。
(2.3.3)具体例
次に、監視システム1による対象者H1の意識状態の判定の具体例について、図6A〜図7Bを参照して説明する。
図6A及び図6Bは、対象者H1が一時的に下を向いている場合において、監視システム1による対象者H1の意識状態の判定を行う例を示す。図6Aは、対象者H1の意識状態が正常(意識清明)なケースを示し、図6Bは、対象者H1の意識状態が意識喪失であるケースを示す。
図6A及び図6Bにおいては、いずれも対象者H1が下を向いているために、対象者H1のまぶたが検出されず(図5のS11:No)、かつ顔F1の向きの硬直なしと判断される(S13:No)ことと仮定する。さらに、いずれも顔F1の位置が検出され(S14:Yes)、かつ顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるため(S15:Yes)、判定部16は、モデル情報に基づいて対象者H1の意識状態を判定する。
ここで、図6Aの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値以上であることで、判定部16は、対象者H1の身体の硬直なしと判断する(S16:No)。その結果、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
一方、図6Bの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値未満であることで、判定部16は、対象者H1の身体の硬直ありと判断する(S16:Yes)。さらに、姿勢モデルM1における特徴点P2−P7をつなぐ直線についての、鉛直線に対する角度θ3が基準角度以上であるので、判定部16は、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。その結果、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。
また、図7A及び図7Bは、対象者H1がサングラスをかけている(装着している)場合において、監視システム1による対象者H1の意識状態の判定を行う例を示す。図7Aは、対象者H1の意識状態が正常(意識清明)なケースを示し、図7Bは、対象者H1の意識状態が意識喪失であるケースを示す。
図7A及び図7Bにおいては、いずれも対象者H1がサングラスをかけているために、対象者H1のまぶたが検出されず(図5のS11:No)、かつ顔F1の向きの硬直なしと判断される(S13:No)ことと仮定する。さらに、いずれも顔F1の位置が検出され(S14:Yes)、かつ顔位置情報に含まれる顔F1の位置と、モデル情報に含まれる顔F1の位置と、の間に相関があるため(S15:Yes)、判定部16は、モデル情報に基づいて対象者H1の意識状態を判定する。
ここで、図7Aの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値以上であることで、判定部16は、対象者H1の身体の硬直なしと判断する(S16:No)。その結果、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S19)。
一方、図7Bの例においては、対象者H1の腕(上腕部)の角度θ1,θ2の変化量の一定時間の積分値が所定値未満であることで、判定部16は、対象者H1の身体の硬直ありと判断する(S16:Yes)。さらに、姿勢モデルM1における特徴点P2−P7をつなぐ直線についての、鉛直線に対する角度θ3が基準角度以上であるので、判定部16は、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。その結果、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S18)。
このように、対象者H1が一時的に下を向いていたり、対象者H1がサングラスをかけていたりして、対象者H1の顔F1の各部位(まぶた等)の状態が認識できない場合であっても、本実施形態に係る監視システム1では、対象者H1の意識状態を判定できる。
ところで、判定部16は、対象者H1の腕(上腕部)の角度θ1,θ2に関して、変化量の積分値のような腕の動きの有無に係る判断だけでなく、腕の動きが他動的な動きか否か、を更に判断してもよい。すなわち、対象者H1が移動体4に乗っていることを前提とすれば、移動体本体41の揺れ(振動)等により、対象者H1の意思によらずに、対象者H1の腕が振り子のように揺れることが考えられる。そのため、図6B又は図7Bに示すように、たとえ対象者H1の意識状態が意識喪失の状態にあっても、脱力状態にある対象者H1の腕が、他動的に動く可能性がある。そこで、判定部16は、腕の動きに関しては、垂直に垂れ下がった状態を基調にして揺れている場合等の、他動的な動きを判断し、他動的な動きであれば、対象者H1の身体の硬直ありと判断することが好ましい(S16:Yes)。同様の判断は、腕に限らず、例えば、頭部等についても適用可能である。
また、対象者H1の上半身の傾倒の有無の判断(S17)についても、角度θ3に基づく判断に限らず、他のパラメータに基づいて、対象者H1の上半身の傾倒の有無が判断されてもよい。一例として、姿勢モデルM1における特徴点P3−P5をつなぐ直線についての、水平線に対する角度は、対象者H1の両肩の傾斜角度に相当するので、この傾斜角度を用いて、対象者H1の上半身の傾倒の有無を判断してもよい。この場合、両肩の傾斜角度が基準角度未満であれば、対象者H1の上半身の傾倒なしと判断し(S17:No)、両肩の傾斜角度が基準角度以上であれば、対象者H1の上半身の傾倒ありと判断する(S17:Yes)。
(2.3.4)その他の機能
その他の機能として、本実施形態に係る監視システム1は、モデル情報における姿勢モデルM1の特徴点P1〜P7を補完する補完機能を有している。
すなわち、図8に示すように、撮像装置2の画角内に、対象者H1の上半身の全体が含まれておらず、姿勢モデルM1の特徴点P1〜P7のいずれかが、画像Im1内に収まらない場合がある。特に、対象者H1が座る椅子が前後に移動可能である場合において、椅子を前方に移動させると、撮像装置2のカメラに対象者H1が近づくことになるため、図8のような画像Im1となりやすい。図8の例では、「へそ」に相当する特徴点P7が画像Im1からはみ出している。
このような場合において、監視システム1は、画像Im1内の対象者H1の位置等から、特徴点P7の位置を推定し、特徴点P7を補完する。上記補完機能によれば、本実施形態に係る監視システム1では、モデル情報は、モデル情報を抽出するための画像Im1外の対象者H1の身体の部位に相当する点を、複数の特徴点P1〜P7の少なくとも1つに含むことができる。これにより、例えば、撮像装置2のカメラを必要以上に広角にする必要が無く、画像Im1における顔F1の各部位(上まぶたF11及び下まぶたF12等)の解像度の向上を図りやすい。
(3)変形例
実施形態1は、本開示の様々な実施形態の一つに過ぎない。実施形態1は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。本開示において説明する各図は、模式的な図であり、各図中の各構成要素の大きさ及び厚さそれぞれの比が、必ずしも実際の寸法比を反映しているとは限らない。また、実施形態1に係る監視システム1と同様の機能は、監視方法、プログラム又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係る監視方法は、第1取得処理(図4の「S2」に相当)と、第2取得処理(図4の「S3」に相当)と、判定処理(図4の「S6」に相当)と、を有する。第1取得処理は、顔情報を取得する処理である。顔情報は、対象者H1の顔F1の各部位の状態に関する情報である。第2取得処理は、複数の特徴点P1〜P7を含み、モデル情報を取得する処理である。モデル情報は、対象者H1の少なくとも上半身の姿勢を表す姿勢モデルM1に関する情報である。判定処理は、顔情報と、モデル情報と、の両方に基づいて、対象者H1の意識状態を判定する処理である。一態様に係るプログラムは、上記の監視方法を、1以上のプロセッサに実行させるためのプログラムである。
以下、実施形態1の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
本開示における監視システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における監視システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
また、監視システム1の少なくとも一部の機能が、1つの筐体内に集約されていることは監視システム1に必須の構成ではなく、監視システム1の構成要素は、複数の筐体に分散して設けられていてもよい。例えば、監視システム1のうちの顔情報取得部13、顔位置取得部14及びモデル取得部15が、判定部16とは別の筐体に設けられていてもよい。さらに、監視システム1の少なくとも一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
反対に、実施形態1において、複数の装置に分散されている複数の機能の少なくとも一部が、1つの筐体内に集約されていてもよい。例えば、監視システム1と撮像装置2とに分散されている機能が、1つの筐体内に集約されていてもよい。
また、対象者H1の意識状態の判定結果の出力の態様は、制御システム3への出力に限らない。例えば、出力部17は、対象者H1の意識状態の判定結果を、情報端末への送信、表示、音(音声を含む)出力、非一時的記録媒体への記録(書き込み)及び印刷(プリントアウト)等により、出力してもよい。
また、監視システム1を備える移動体4は、飛行機に限らず、ヘリコプタ又は飛行船等の航空機であってもよい。さらに、監視システム1を備える移動体4は、航空機に限らず、例えば、自動車(四輪車)、二輪車、電車、電動カート、建設機械又は船舶等であってもよい。例えば、移動体4が自動車である場合、監視システム1は、自動車からなる移動体4の運転者を対象者H1として、運転者からなる対象者H1の意識状態を監視してもよい。
また、移動体本体41に搭載される監視システム1にて意識状態が監視される対象者H1は、移動体4を操縦する操縦者(自動車の場合の運転者等を含む)に限らず、例えば、客室乗務員又は車掌等の、操縦者以外の乗務員であってもよい。さらに、対象者H1は、乗務員にも限らず、例えば、客又は同乗者であってもよい。
また、監視システム1は、移動体4に用いられる構成に限らず、例えば、建物又は屋外等に居る対象者H1の意識状態の監視に用いられてもよい。この場合の対象者H1は、機械の操作、実験、試験、計測又は工作等の何らかの作業を行っている作業者であってもよいし、住宅等の建物内の居住者であってもよい。
また、実施形態1では、監視システム1は、対象者H1の意識状態について、「正常」(意識清明)の状態と、「意識喪失」の状態と、の2状態のいずれにあたるかを判定するが、この構成に限らない。例えば、監視システム1は、清明、傾眠、昏迷及び昏睡等の3段階以上の意識水準を、対象者H1の意識状態として判定してもよい。
また、画像Im1を取得するための撮像装置2は、物体そのものを撮影する構成に限られず、例えば、サーモグラフィカメラなどのように、空間及び物体の温度を画素値とする熱画像を画像として撮影してもよい。また、例えば、ToF(Time-of-Flight)方式の距離画像カメラのように、距離を画素値とする距離画像を画像として撮影してもよい。
また、実施形態1では、撮像装置2は、例えば、赤外線カメラのような暗視カメラを含んでいるが、これに限らず、例えば、照明装置及びカメラを含んでいてもよい。
また、実施形態1では、複数名の対象者H1(操縦者)を撮影するために、1名の対象者H1につき1台のカメラが設置されているが、この構成に限らず、例えば、1台のカメラで複数名の対象者H1を撮影してもよい。
また、判定部16が判定に用いる情報は、画像Im1のみから抽出される構成に限らず、例えば、画像Im1に代えて、又は画像Im1と共に、生体センサ、加速度センサ又は角速度センサ等で検知される情報が、対象者H1の意識状態の判定に用いられてもよい。さらに、判定部16は、航空機からなる移動体4の操縦桿、ペダル又は計器類のスイッチ等の、対象者H1が操作し得る操作部の操作状況も加味して、対象者H1の意識状態を判定してもよい。これにより、対象者H1が、略静止した姿勢で操縦桿を操作している場合等において、監視システム1が意識喪失と誤判定することを低減できる。
また、実施形態1では、判定部16は、対象者H1の意識状態を判定するに際して、顔情報及びモデル情報の各々の優先度に従って、顔情報に基づく判定が好ましくない場合に限り、モデル情報に基づく判定を行うが、このような構成に限らない。すなわち、例えば、判定部16は、顔情報及びモデル情報の両方に基づいて、対象者H1の意識状態を判定すればよく、顔情報及びモデル情報に優先度がなく、顔情報及びモデル情報の両方を統合的に用いて、対象者H1の意識状態を判定してもよい。この場合に、顔情報及びモデル情報の各々に対して重み付けをすることで、判定部16は、対象者H1の意識状態の判定に寄与する顔情報及びモデル情報の比重を調整してもよい。
さらに、判定部16は、顔情報とモデル情報との両方に基づいて対象者H1の意識状態を判定する機能を、少なくとも有していればよく、例えば、判定のアルゴリズムを切替可能であってもよい。一例として、判定のアルゴリズムを切り替えることで、判定部16は、顔情報とモデル情報とのいずれか一方のみに基づいて、対象者H1の意識状態を判定するように動作してもよい。
(実施形態2)
本実施形態に係る監視システム1は、図9に示すように、監視システム1による対象者H1の意識状態の判定の動作、つまり図4における判定処理S6のアルゴリズムが、実施形態1に係る監視システム1と相違する。以下、実施形態1と同様の構成については、共通の符号を付して適宜説明を省略する。
図9は、判定処理(図4のS6)における判定部16の動作の一例を示すフローチャートである。図9のフローチャートにおいて、判定部16が、対象者H1の意識状態の判定にモデル情報を用いる処理(S21,S22)には網掛けを付している。言い換えれば、図9において、網掛けが付されていない処理は、対象者H1の意識状態の判定にモデル情報が用いられない処理である。
判定部16は、判定処理が開始すると、まずは対象者H1の身体(上半身)が硬直しているか否かを判断する(S21)。身体の硬直については、モデル取得部15が取得するモデル情報に基づいて判断される(図5の処理S16に相当)。対象者H1の身体の硬直の有無については、実施形態1と同様に、例えば、腕の動きにつき、垂直に垂れ下がった状態を基調にして揺れている場合等の、他動的な動きであるか否かを考慮して判断してもよい。
身体の硬直ありと判断されると(S21:Yes)、判定部16は、対象者H1の上半身の傾倒の有無を判断する(S22)。上半身の傾倒については、モデル取得部15が取得するモデル情報のうち、姿勢モデルM1における特徴点P2−P7をつなぐ直線についての、鉛直線に対する角度θ3に基づいて判断される(図5の処理S17に相当)。対象者H1の上半身の傾倒の有無については、実施形態1と同様に、例えば、姿勢モデルM1における特徴点P3−P5をつなぐ直線についての、水平線に対する角度に基づいて判断してもよい。
そして、対象者H1の身体の硬直ありと判断され(S21:Yes)、かつ対象者H1の上半身の傾倒ありと判断されると(S22:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。一方、対象者H1の身体の硬直なしと判断されると(S21:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S26)。
また、対象者H1の上半身の傾倒なしと判断されると(S22:No)、判定部16は、対象者H1の顔F1の向きが硬直しているか否かを判断する(S23)。顔F1の向きの硬直については、顔位置取得部14が取得する顔位置情報に基づいて判断される(図5の処理S13に相当)。
そして、顔F1の向きの硬直ありと判断されると(S23:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。ここで、顔F1の向きの硬直の有無の判断結果から意識状態を判定する場合(S23)においては、判定部16は、顔位置情報から、対象者H1の意識状態を判定することになる。
一方で、顔F1の向きの硬直なしと判断されると(S23:No)、判定部16は、まばたきの有無、及び閉眼の有無を判断する(S24)。まばたきの有無、及び閉眼の有無については、顔情報取得部13が取得する顔情報に基づいて判断される(図5の処理S12に相当)。
そして、「まばたき」なし、又は閉眼と判断されると(S24:Yes)、判定部16は、対象者H1の意識状態について、意識喪失の状態にあると判定する(S25)。一方、「まばたき」ありと判断され、かつ開眼と判断されると(S24:No)、判定部16は、対象者H1の意識状態について、正常(意識清明)の状態にあると判定する(S26)。
このように、本実施形態ではデフォルトとして、モデル情報の優先度が最も高く、その次に顔位置情報の優先度が高く、そして顔情報の優先度が最も低く設定されている。そのため、モデル情報及び顔位置情報からでは、対象者H1の意識状態の判定ができず、かつ顔情報の信頼度が閾値以上である場合には、対象者H1の意識状態の判定には顔情報が用いられ、判定部16は、顔情報から、対象者H1の意識状態を判定する。
本実施形態に係る監視システム1は、判定処理においては、上述したような処理S21〜S26を実行する。図9のフローチャートは、判定処理の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。
実施形態2で説明した種々の構成(変形例を含む)は、実施形態1で説明した種々の構成(変形例を含む)と適宜組み合わせて採用可能である。
(まとめ)
以上説明したように、第1の態様に係る監視システム(1)は、顔情報取得部(13)と、モデル取得部(15)と、判定部(16)と、を備える。顔情報取得部(13)は、顔情報を取得する。顔情報は、対象者(H1)の顔(F1)の各部位の状態に関する情報である。モデル取得部(15)は、モデル情報を取得する。モデル情報は、複数の特徴点(P1〜P7)を含み、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関する情報である。判定部(16)は、顔情報と、モデル情報と、の両方に基づいて、対象者(H1)の意識状態を判定する。
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、監視システム(1)によれば、誤った判定を生じにくくすることが可能である。
第2の態様に係る監視システム(1)では、第1の態様において、判定部(16)は、顔情報に基づく判定の信頼度が閾値以上であれば、顔情報に基づき意識状態を判定し、顔情報に基づく判定の信頼度が閾値未満であれば、モデル情報に基づき意識状態を判定する。
この態様によれば、意識状態の判定に、モデル情報よりも顔情報が優先的に用いられるので、意識状態の判定の信頼性の向上を図りやすい。
第3の態様に係る監視システム(1)は、第1又は2の態様において、顔位置取得部(14)を更に備える。顔位置取得部(14)は、対象者(H1)の顔(F1)の位置と向きとの少なくとも一方に関する顔位置情報を取得する。顔位置情報は、判定部(16)での意識状態の判定に用いられる。
この態様によれば、意識状態の判定に、顔位置情報が更に用いられるので、意識状態の判定の信頼性の向上を図りやすい。
第4の態様に係る監視システム(1)では、第3の態様において、判定部(16)は、顔位置情報に含まれる顔(F1)の位置と、モデル情報に含まれる顔(F1)の位置と、の相関関係に基づいて、判定のアルゴリズムを変える。
この態様によれば、モデル情報の信頼度に応じて、判定のアルゴリズムを変えることができるので、意識状態の判定の信頼性の向上を図りやすい。
第5の態様に係る監視システム(1)では、第1〜4のいずれかの態様において、顔情報は、対象者(H1)のまぶたの状態に関する情報を含む。
この態様によれば、対象者(H1)のまぶたの状態から、例えば、まばたきの有無、又は閉眼等を推定することができ、意識状態の判定の信頼性の向上を図りやすい。
第6の態様に係る監視システム(1)では、第5の態様において、判定部(16)は、対象者(H1)のまばたきが検出されない場合と、対象者(H1)の閉眼が検出された場合とで、判定のアルゴリズムを変える。
この態様によれば、状況に応じて判定のアルゴリズムを変えることができるので、意識状態の判定の信頼性の向上を図りやすい。
第7の態様に係る監視システム(1)では、第1〜6のいずれかの態様において、顔情報とモデル情報とは、いずれも画像(Im1)から抽出される。
この態様によれば、顔情報とモデル情報とを、画像(Im1)から比較的簡単に得ることができる。
第8の態様に係る監視システム(1)では、第7の態様において、判定部(16)が判定に用いる情報は、画像(Im1)のみから抽出される。
この態様によれば、画像(Im1)を得るための撮像装置(2)以外のセンサ等を用いる必要が無い。
第9の態様に係る監視システム(1)では、第7又は8の態様において、顔情報取得部(13)及びモデル取得部(15)は、同一の画像(Im1)から顔情報及びモデル情報を取得する。
この態様によれば、画像(Im1)を得るための撮像装置(2)が1台であっても、顔情報及びモデル情報を取得することが可能となる。
第10の態様に係る監視システム(1)では、第7〜9のいずれかの態様において、モデル情報は、モデル情報を抽出するための画像(Im1)外の対象者(H1)の身体の部位に相当する点を、複数の特徴点(P1〜P7)の少なくとも1つに含む。
この態様によれば、画像(Im1)の撮像装置(2)を必要以上に広角にする必要が無く、例えば、画像(Im1)における顔(F1)の各部位の解像度の向上を図りやすい。
第11の態様に係る監視システム(1)では、第1〜10のいずれかの態様において、判定部(16)は、モデル情報における対象者(H1)の上半身の硬直度合いと、対象者(H1)の上半身の姿勢と、の少なくとも一方に基づいて、意識状態を判定する。
この態様によれば、モデル情報における対象者(H1)の上半身の硬直度合いと、対象者(H1)の上半身の姿勢との少なくとも一方が判定に用いられるため、意識状態の判定の信頼性の向上を図りやすい。
第12の態様に係る移動体(4)は、第1〜11のいずれかの態様に係る監視システム(1)と、監視システム(1)が搭載される移動体本体(41)と、を備える。
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、移動体(4)によれば、誤った判定を生じにくくすることが可能である。
第13の態様に係る監視方法は、第1取得処理と、第2取得処理と、判定処理と、を有する。第1取得処理は、顔情報を取得する処理である。顔情報は、対象者(H1)の顔(F1)の各部位の状態に関する情報である。第2取得処理は、モデル情報を取得する処理である。モデル情報は、複数の特徴点(P1〜P7)を含み、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関する情報である。判定処理は、顔情報と、モデル情報と、の両方に基づいて、対象者(H1)の意識状態を判定する処理である。
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、監視方法によれば、誤った判定を生じにくくすることが可能である。
第14の態様に係るプログラムは、第13の態様に係る監視方法を、1以上のプロセッサに実行させるためのプログラムである。
この態様によれば、対象者(H1)の顔(F1)の各部位の状態に関する顔情報だけでなく、対象者(H1)の少なくとも上半身の姿勢を表す姿勢モデル(M1)に関するモデル情報にも基づいて、対象者(H1)の意識状態が判定される。そのため、顔情報のみから対象者(H1)の意識状態が判定される場合に比較すると、対象者(H1)の意識状態を正しく判定しやすくなる。したがって、例えば、単に対象者(H1)が一時的に下を向いているような場合に、対象者(H1)が居眠りをしているとの誤った判定が生じにくい。結果的に、上記プログラムによれば、誤った判定を生じにくくすることが可能である。
上記態様に限らず、実施形態1及び実施形態2に係る監視システム(1)の種々の構成(変形例を含む)は、監視方法又はプログラムにて具現化可能である。
第2〜11の態様に係る構成については、監視システム(1)に必須の構成ではなく、適宜省略可能である。
1 監視システム
4 移動体
13 顔情報取得部
14 顔位置取得部
15 モデル取得部
16 判定部
41 移動体本体
F1 顔
H1 対象者
Im1 画像
M1 姿勢モデル
P1〜P7 特徴点

Claims (14)

  1. 対象者の顔の各部位の状態に関する顔情報を取得する顔情報取得部と、
    複数の特徴点を含み前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関するモデル情報を取得するモデル取得部と、
    前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する判定部と、を備える、
    監視システム。
  2. 前記判定部は、前記顔情報に基づく判定の信頼度が閾値以上であれば、前記顔情報に基づき前記意識状態を判定し、前記顔情報に基づく判定の信頼度が前記閾値未満であれば、前記モデル情報に基づき前記意識状態を判定し、
    請求項1に記載の監視システム。
  3. 前記対象者の前記顔の位置と向きとの少なくとも一方に関する顔位置情報を取得する顔位置取得部を更に備え、
    前記顔位置情報は、前記判定部での前記意識状態の判定に用いられる、
    請求項1又は2に記載の監視システム。
  4. 前記判定部は、前記顔位置情報に含まれる前記顔の位置と、前記モデル情報に含まれる前記顔の位置と、の相関関係に基づいて、判定のアルゴリズムを変える、
    請求項3に記載の監視システム。
  5. 前記顔情報は、前記対象者のまぶたの状態に関する情報を含む、
    請求項1〜4のいずれか1項に記載の監視システム。
  6. 前記判定部は、前記対象者のまばたきが検出されない場合と、前記対象者の閉眼が検出された場合とで、判定のアルゴリズムを変える、
    請求項5に記載の監視システム。
  7. 前記顔情報と前記モデル情報とは、いずれも画像から抽出される、
    請求項1〜6のいずれか1項に記載の監視システム。
  8. 前記判定部が判定に用いる情報は、画像のみから抽出される、
    請求項7に記載の監視システム。
  9. 前記顔情報取得部及び前記モデル取得部は、同一の画像から前記顔情報及び前記モデル情報を取得する、
    請求項7又は8に記載の監視システム。
  10. 前記モデル情報は、前記モデル情報を抽出するための画像外の前記対象者の身体の部位に相当する点を、前記複数の特徴点の少なくとも1つに含む、
    請求項7〜9のいずれか1項に記載の監視システム。
  11. 前記判定部は、前記モデル情報における前記対象者の上半身の硬直度合いと、前記対象者の上半身の姿勢と、の少なくとも一方に基づいて、前記意識状態を判定する、
    請求項1〜10のいずれか1項に記載の監視システム。
  12. 請求項1〜11のいずれか1項に記載の監視システムと、
    前記監視システムが搭載される移動体本体と、を備える、
    移動体。
  13. 対象者の顔の各部位の状態に関する顔情報を取得する第1取得処理と、
    複数の特徴点を含み前記対象者の少なくとも上半身の姿勢を表す姿勢モデルに関するモデル情報を取得する第2取得処理と、
    前記顔情報と、前記モデル情報と、の両方に基づいて、前記対象者の意識状態を判定する判定処理と、を有する、
    監視方法。
  14. 請求項13に記載の監視方法を、1以上のプロセッサに実行させるためのプログラム。
JP2019077409A 2019-04-15 2019-04-15 監視システム、移動体、監視方法及びプログラム Active JP7281733B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077409A JP7281733B2 (ja) 2019-04-15 2019-04-15 監視システム、移動体、監視方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077409A JP7281733B2 (ja) 2019-04-15 2019-04-15 監視システム、移動体、監視方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020177303A true JP2020177303A (ja) 2020-10-29
JP7281733B2 JP7281733B2 (ja) 2023-05-26

Family

ID=72936756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077409A Active JP7281733B2 (ja) 2019-04-15 2019-04-15 監視システム、移動体、監視方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7281733B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7460867B2 (ja) 2021-12-24 2024-04-03 パナソニックオートモーティブシステムズ株式会社 推定装置、推定方法及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05124592A (ja) * 1991-10-31 1993-05-21 Shimadzu Corp 航空機パイロツトの意識検出装置
JP2001080584A (ja) * 1999-09-12 2001-03-27 Yoshitaka Hirano 脳波で起動される航空機用自動操縦装置
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2016009256A (ja) * 2014-06-23 2016-01-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2017210013A (ja) * 2016-05-23 2017-11-30 株式会社デンソー ドライバ状態検知装置、ドライバ状態検知方法
JP2017217472A (ja) * 2016-06-02 2017-12-14 オムロン株式会社 状態推定装置、状態推定方法、及び状態推定プログラム
JP2018127112A (ja) * 2017-02-08 2018-08-16 パナソニックIpマネジメント株式会社 覚醒度推定装置及び覚醒度推定方法
JP2018195166A (ja) * 2017-05-19 2018-12-06 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098889B2 (en) 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05124592A (ja) * 1991-10-31 1993-05-21 Shimadzu Corp 航空機パイロツトの意識検出装置
JP2001080584A (ja) * 1999-09-12 2001-03-27 Yoshitaka Hirano 脳波で起動される航空機用自動操縦装置
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2016009256A (ja) * 2014-06-23 2016-01-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2017210013A (ja) * 2016-05-23 2017-11-30 株式会社デンソー ドライバ状態検知装置、ドライバ状態検知方法
JP2017217472A (ja) * 2016-06-02 2017-12-14 オムロン株式会社 状態推定装置、状態推定方法、及び状態推定プログラム
JP2018127112A (ja) * 2017-02-08 2018-08-16 パナソニックIpマネジメント株式会社 覚醒度推定装置及び覚醒度推定方法
JP2018195166A (ja) * 2017-05-19 2018-12-06 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7460867B2 (ja) 2021-12-24 2024-04-03 パナソニックオートモーティブシステムズ株式会社 推定装置、推定方法及びプログラム

Also Published As

Publication number Publication date
JP7281733B2 (ja) 2023-05-26

Similar Documents

Publication Publication Date Title
CN104573623B (zh) 人脸检测装置、方法
KR102391279B1 (ko) 운전 상태 모니터링 방법 및 장치, 운전자 모니터링 시스템 및 차량
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
US8958599B1 (en) Input method and system based on ambient glints
US11715231B2 (en) Head pose estimation from local eye region
CN110155349A (zh) 人机界面中的外围视觉
CN105069976B (zh) 一种疲劳检测和行驶记录综合系统及疲劳检测方法
US20170337352A1 (en) Confidential information occlusion using augmented reality
JP2017217472A (ja) 状態推定装置、状態推定方法、及び状態推定プログラム
JP6534292B2 (ja) ヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイの制御方法
JP2003015816A (ja) ステレオカメラを使用した顔・視線認識装置
JP2017507400A (ja) 注視によるメディア選択及び編集のためのシステム並びに方法
CN106898118B (zh) 防止疲劳驾驶的智能系统及方法
EP1320830A4 (en) FACIAL IMAGE PROCESSING SYSTEM
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
US20210233288A1 (en) Augmented reality map curation
KR20170028942A (ko) 안전한 웨어러블 컴퓨터 인터페이스
JP6969493B2 (ja) 映像出力装置、映像出力方法、及びコンピュータプログラム
JP2016045874A (ja) 情報処理装置、情報処理方法、及びプログラム
EP3956807A1 (en) A neural network for head pose and gaze estimation using photorealistic synthetic data
CN109543651A (zh) 一种驾驶员危险驾驶行为检测方法
EP3440592A1 (en) Method and system of distinguishing between a glance event and an eye closure event
CN108700885B (zh) 一种飞行控制方法、遥控装置、遥控系统
US10948988B1 (en) Contextual awareness based on eye motion tracking by an eye-mounted system
EP3582068A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R151 Written notification of patent or utility model registration

Ref document number: 7281733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03