JP2019103664A - 状態推定装置とその方法およびプログラム - Google Patents

状態推定装置とその方法およびプログラム Download PDF

Info

Publication number
JP2019103664A
JP2019103664A JP2017238756A JP2017238756A JP2019103664A JP 2019103664 A JP2019103664 A JP 2019103664A JP 2017238756 A JP2017238756 A JP 2017238756A JP 2017238756 A JP2017238756 A JP 2017238756A JP 2019103664 A JP2019103664 A JP 2019103664A
Authority
JP
Japan
Prior art keywords
state estimation
state
driver
monitoring
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017238756A
Other languages
English (en)
Other versions
JP6711346B2 (ja
Inventor
航一 木下
Koichi Kinoshita
航一 木下
俊二 太田
Shunji Ota
俊二 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017238756A priority Critical patent/JP6711346B2/ja
Priority to DE102018130654.7A priority patent/DE102018130654A1/de
Priority to CN201811468982.1A priority patent/CN110025324A/zh
Priority to US16/215,467 priority patent/US20190180126A1/en
Publication of JP2019103664A publication Critical patent/JP2019103664A/ja
Application granted granted Critical
Publication of JP6711346B2 publication Critical patent/JP6711346B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】車両を運転している運転者Obを簡易に判定できるようにする。【解決手段】状態推定装置1において、画像選択部1111は、それぞれ互いに異なる位置に配置された複数台のカメラ2−1,2−2,…,2−Nによって取得された状態推定対象者Obの複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択し、状態推定部1112は、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する。そして、推定状態出力部1113は、推定結果を示す情報を出力する。【選択図】図1

Description

この発明の実施形態は、車両の運転者、機械等の運転者または操作者などである状態推定対象者の状態を推定する状態推定装置とその方法およびプログラムに関する。
例えば、車両の運転者は、車両を運転している間、十分に覚醒していることが求められる。このような車両の運転者に限らず、製造設備やプラント等で使用される機械等の運転者または操作者もまた同様に、機械等を運転や操作している間は、十分に覚醒していることが求められる。
また、これら車両の運転者、機械等の運転者または操作者は、車両の運転や機械等を運転や操作している間、脇見やよそ見をせず、運転や操作に対して十分に集中していることも求められている。
このような事情から、運転者または操作者の眠気状態や脇見状態を推定して、警報を発生する装置が、各種提案されている。例えば、特許文献1は、スピーカから音を発生させ、それに反応した人間の表情の変化、人間の顔あるいは視線方向を検出することで、眠気状態を推定している。また、特許文献2は、運転者の顔または視線の方向を検出し、その検出した方向を基準値と比較して脇見状態を推定している。
特許第5056067号公報 特開平8−207617号公報
特許文献1および特許文献2に記載された技術では、1台のカメラによって取得した状態推定対象者の顔画像から、状態推定対象者の表情、あるいは、顔または視線の方向を検出し、その検出結果により状態推定対象者の状態を推定している。
このようなカメラ1台による状態推定装置では、状態推定対象者の姿勢や顔向きによっては、状態推定対象者の表情、あるいは、顔または視線の方向を検出できない事態が生じる。例えば、状態推定対象者が車両の運転者であれば、ハンドル操作時に運転者の腕がカメラと運転者の顔との間に入り込み、カメラによって取得した画像において、運転者の顔が隠れてしまうことがある。また、運転者の顔がカメラに対して正面以外を向いた際には、運転者の眼や口状態がカメラから見えにくくなる。眼や口の状態は、運転者の状態を推定する上で重要であるため、これらの情報が観測できないと、状態推定の信頼度が低下する。
このように、従来の状態推定装置では、状態推定対象者の状況に依っては状態推定が行えなかったり、例え推定が行えたとしても推定結果の信頼性が低くなったりする。状態推定対象者の状況に依らず、安定した状態推定結果が得られることが望まれる。
この発明は上記事情に着目し、その目的の一つは、状態推定対象者の状況に依らず、状態推定対象者の状態を安定して推定できるようにした、状態推定装置とその方法およびプログラムを提供しようとするものである。
上記課題を解決するためにこの発明の第1の態様は、状態推定装置が、それぞれ互いに異なる位置に配置された複数台のカメラによって取得された状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する画像選択部と、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する状態推定部と、推定結果を示す情報を出力する出力部と、を具備するようにしたものである。
この発明の第1の態様によれば、状態推定装置では、状態推定対象者を互いに異なる位置から撮像するように複数台のカメラを設置しておき、画像選択部によって、これら複数台のカメラにより取得された状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する。そして、状態推定部により、この選択された監視画像に基づいて状態推定対象者の状態を推定し、出力部により、その推定結果を示す情報を出力する。したがって、1つのカメラから取得した状態推定対象者の監視画像に基づいて状態推定できない場合であっても、他のカメラから取得した監視画像に基づいて状態推定対象者の状態を推定することができるので、状態推定対象者の状況に依らず、状態推定対象者の状態を安定して推定できるようになる。
この発明の第2の態様は、上記第1の態様において、前記画像選択部が、前記複数の監視画像の中から、前記状態推定対象者の顔が含まれている監視画像を選択するようにしたものである。
この発明の第2の態様によれば、状態推定対象者の状況に依らず、状態推定対象者の顔が含まれる画像を選択することで、監視画像に基づいた推定を行うことが可能となる。
この発明の第3の態様は、上記第1の態様または上記第2の態様において、前記画像選択部が、前記複数の監視画像の中から、前記状態推定対象者の眼が含まれている監視画像を選択するようにしたものである。
この発明の第3の態様によれば、状態推定対象者の状態推定には、状態推定対象者の眼が重要な情報であり、この状態推定対象者の眼が含まれている監視画像を選択することで、状態推定対象者の状態を安定して推定することが可能となる。
この発明の第4の態様は、上記第1の態様から上記第3の態様のいずれか1つの態様において、前記画像選択部が、前記複数の監視画像の中から、前記状態推定対象者の眼が2つ含まれている監視画像を選択するようにしたものである。
この発明の第4の態様によれば、状態推定対象者の眼が2つ含まれている監視画像を選択し、それに基づいて状態推定対象者の状態を推定するので、高い信頼性を持った推定結果が得られる。
この発明の第5の態様は、上記第1の態様から上記第4の態様のいずれか1つの態様において、前記画像選択部が、選択された監視画像が複数ある場合に、当該選択された監視画像のうち、前記状態推定対象者の顔を最も正面に近い向きで撮像した監視画像を1つ選択するようにしたものである。
この発明の第5の態様によれば、監視画像のうち、状態推定対象者の顔を最も正面に近い向きで撮像した監視画像を1つ選択し、それに基づいて状態推定対象者の状態を推定する。したがって、状態推定対象者の状態を推定し易い正面からの顔を含む監視画像に基づいた推定を行えるので、信頼性が非常に高い推定結果が得られる。
この発明の第6の態様は、上記第1の態様において、前記画像選択部が、前記状態推定対象者の眼が2つとも含まれる監視画像の全てを選択し、前記状態推定部が、前記選択された監視画像それぞれに基づいて前記状態推定対象者の状態を推定し、それら推定結果の平均を、前記状態推定対象者の状態の推定結果とするようにしたものである。
この発明の第6の態様によれば、状態推定対象者の眼が2つとも含まれる監視画像のそれぞれに基づいて状態を推定し、それら推定結果の平均を、状態推定対象者の状態の推定結果とする。したがって、最終的な推定結果の信頼性が非常に高くなる。
この発明の第7の態様によれば、上記第1の態様において、前記画像選択部が、前記状態推定対象者の眼が2つとも含まれる監視画像が存在しない場合、前記状態推定対象者の眼が1つ含まれる監視画像を全て選択し、前記状態推定部が、前記選択された複数の監視画像それぞれに基づいて前記状態推定対象者の状態を推定し、それら推定結果の平均を、前記状態推定対象者の状態の推定結果とするようにしたものである。
この発明の第7の態様によれば、状態推定対象者の眼が2つとも含まれる監視画像が存在しない場合には、状態推定対象者の眼が1つ含まれる監視画像それぞれに基づいて状態を推定し、それら推定結果の平均を、状態推定対象者の状態の推定結果とする。したがって、状態推定対象者の眼が1つ含まれる1つの監視画像からの推定結果よりも高い信頼性を有する推定結果が得られる。
この発明の第8の態様によれば、上記第7の態様において、前記画像選択部が、前記選択した監視画像の数が所定数に満たない場合には、その不足数分、前記状態推定対象者の眼を含まない監視画像のうち、前記状態推定対象者の顔を正面に近い向きで撮像した監視画像から順に選択するようにしたものである。
この発明の第8の態様によれば、状態推定対象者の眼が1つ含まれる監視画像の数が少ない場合には、さらに状態推定対象者の顔を正面に近い向きで撮像した監視画像から順に選択して、状態推定に使用する。したがって、状態推定対象者の眼が1つ含まれる1つの監視画像からの推定結果よりも高い信頼性を有する推定結果が得られる。
この発明の第9の態様によれば、上記第1の態様において、前記画像選択部が、前記状態推定対象者の眼が含まれる監視画像が存在しない場合、前記監視画像のうち、前記状態推定対象者の顔を最も正面に近い向きで撮像した監視画像から順に所定数の監視画像を選択するようにしたものである。
この発明の第9の態様によれば、状態推定対象者の眼が含まれる監視画像が存在しない場合には、監視画像のうち、状態推定対象者の顔を最も正面に近い向きで撮像した監視画像から順に所定数選択し、それらに基づいて状態推定対象者の状態を推定する。したがって、状態推定対象者の眼が1つも含まれていない監視画像の中で、状態推定対象者の表情に基づいた状態推定を行うのに適したものから所定数を選択することで、或る程度の信頼性を持った推定結果が得られる。
また、上記課題を解決するためにこの発明の第10の態様は、状態推定対象者の状態を推定する状態推定装置が実行する状態推定方法であって、前記状態推定装置が、それぞれ互いに異なる位置に配置された複数台のカメラによって取得された前記状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する過程と、前記状態推定装置が、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する過程と、前記状態推定装置が、推定結果を示す情報を出力する過程と、を具備するようにしたものである。
この発明の第10の態様によれば、上記第1の態様同様、複数台のカメラにより取得した状態推定対象者の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択し、この選択された監視画像に基づいて状態推定対象者の状態を推定して、その推定結果を示す情報を出力する。したがって、1つのカメラから取得した状態推定対象者の監視画像に基づいて状態推定できない場合であっても、他のカメラから取得した監視画像に基づいて状態推定対象者の状態を推定することができるので、状態推定対象者の状況に依らず、状態推定対象者の状態を安定して推定できるようになる。
また、上記課題を解決するためにこの発明の第11の態様は、状態推定プログラムが、上記第1の態様から上記第9の態様のいずれか1つの態様の状態推定装置が具備する各部としてコンピュータを機能させるようにしたものである。
この発明の第11の態様によれば、コンピュータを利用して、上記第1の態様から上記第9の態様のいずれか1つの態様を実現することができる。
すなわちこの発明の各態様によれば、状態推定対象者の状況に依らず、状態推定対象者の状態を安定して推定できるようにした、状態推定装置とその方法およびプログラムを提供することができる。
図1は、この発明の実施形態に係る状態推定装置の一適用例を説明するブロック図である。 図2は、複数台のカメラの配置関係を説明するための模式図である。 図3は、この発明の第1実施形態に係る状態推定装置のハードウェア構成を例示したブロック図である。 図4は、この発明の第1実施形態に係る状態推定装置のソフトウェア構成を例示した状態推定システムのブロック図である。 図5は、図4に示した状態推定装置の画像選択部の処理手順と処理内容の一例を示すフローチャートである。 図6は、図4に示した状態推定装置の状態推定部の処理手順と処理内容の一例を示すフローチャートである。 図7は、この発明の第2実施形態に係る状態推定装置のソフトウェア構成を例示したブロック図である。 図8は、図7に示した状態推定装置の画像選択部の処理手順と処理内容の一例を示すフローチャートである。 図9は、図7に示した状態推定装置の状態推定部の処理手順と処理内容の一例を示すフローチャートである。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[適用例]
先ず、この発明の一実施形態に係る状態推定装置の一つの適用例について説明する。
図1は、この適用例における状態推定装置の構成例を模式的に示したものである。
状態推定装置1は、画像選択部1111と、状態推定部1112と、推定状態出力部1113と、を備えている。この状態推定装置1には、複数台(N台)のカメラ2−1、2−2、…、2−Nが接続されている。なお、Nは2以上の整数である。これらカメラ2−1、2−2、…、2−Nはそれぞれ、状態推定対象者の顔を撮像できる箇所に設置され、状態推定対象者の顔を互いに異なる位置から撮像して、状態推定対象者の監視画像を取得する。
図2は、複数台のカメラ2−1、2−2、…、2−Nのうちの、カメラ2−1と2−2の配置関係を説明するための模式図である。ここでは、状態推定対象者が車両の運転者Obを示している。運転者ObがハンドルHaを操作する際に、そのハンドルHaを操作する腕Arが1つのカメラ、例えばカメラ2−1の撮像視野を遮ったとしても、他のカメラ、例えばカメラ2−2が運転者Obの顔を撮像できるように設置される。このように、複数台のカメラ2−1、2−2、…、2−Nは、互いに異なる位置から、運転者Obの顔を撮像可能に配置される。例えば、これらのカメラ2−1、2−2、…、2−Nは、ダッシュボード上、ステアリング中央、速度メータ脇、フロントピラー等に配置されることができる。なお、カメラ2−1、2−2、…、2−Nは、1秒間に複数枚、運転者Obの静止画像を撮像するスチルカメラであってもよいし、運転者Obの動画像を撮像するビデオカメラであってもよい。
画像選択部1111は、これらそれぞれ互いに異なる位置に配置された複数台のカメラ2−1、2−2、…、2−Nによって取得された運転者Obの複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する。
例えば、画像選択部1111は、複数台のカメラ2−1、2−2、…、2−Nによって取得した複数の監視画像のうち、運転者Obの顔が含まれている監視画像を1つ選択する。好ましくは、画像選択部1111は、複数の監視画像の中から、運転者Obの眼が含まれている監視画像を選択する。より好ましくは、画像選択部1111は、複数の監視画像の中から、運転者Obの眼が2つ含まれている監視画像を選択する。また、画像選択部1111は、そのような顔、眼または2つの眼が含まれる監視画像が複数有る場合には、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択することができる。例えば、運転者Obの眼が2つとも含まれる監視画像が1つしか無ければ、それを選択することができる。運転者Obの眼が2つとも含まれる監視画像が複数有る場合には、画像選択部1111は、そのうちの、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択することができる。また、運転者Obの眼が2つとも含まれる監視画像が存在しない場合には、画像選択部1111は、複数の監視画像のうち、運転者Obの眼が1つ含まれる監視画像が1つしか無ければ、それを選択することができる。運転者Obの眼が1つ含まれる監視画像が複数有る場合には、画像選択部1111は、そのうちの、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択することができる。さらに、運転者Obの眼が含まれる監視画像が存在しない場合には、画像選択部1111は、前記監視画像のうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択することができる。
状態推定部1112は、画像選択部1111によって選択された1つの監視画像に基づいて、既知の手法により、運転者Obの状態、例えば眠気状態や脇見状態を推定する。
なお、画像選択部1111は、1つではなく複数の監視画像を選択するようにしてもよい。例えば、画像選択部1111は、運転者Obの眼が2つとも含まれる監視画像の全てを選択してもよい。この場合、状態推定部1112は、画像選択部1111によって選択された監視画像それぞれに基づいて運転者Obの状態を推定し、それら推定結果の平均を、運転者Obの状態の推定結果とすることができる。また、運転者Obの眼が2つとも含まれる監視画像が存在しない場合には、画像選択部1111は、運転者Obの眼が1つ含まれる監視画像を全て選択してもよい。この場合には、状態推定部1112は、画像選択部1111によって選択された複数の監視画像それぞれに基づいて運転者Obの状態を推定し、それら推定結果の平均を、運転者Obの状態の推定結果とすることができる。なお、運転者Obの眼が1つ含まれる監視画像を全て選択したとしても、選択した監視画像の数が所定数に満たない場合には、画像選択部1111は、その不足数分、運転者Obの眼を含まない監視画像のうち、運転者Obの顔を正面に近い向きで撮像した監視画像から順に選択するようにすればよい。なお、上記所定数は、カメラ2−1、2−2、…、2−Nの台数(N)未満で2以上の整数である。状態推定部1112は、画像選択部1111によって選択された複数の監視画像それぞれに基づいて運転者Obの状態を推定し、それら推定結果の平均を、運転者Obの状態の推定結果とすることができる。なお、運転者Obの眼が1つ含まれる監視画像を全て選択したとしても、選択した監視画像の数が未だ上記所定数に満たない場合には、画像選択部1111は、その不足数分、運転者Obの眼を含まない監視画像のうち、状態推定対象者の顔を正面に近い向きで撮像した監視画像から順に選択するようにすればよい。
推定状態出力部1113は、こうして状態推定部1112によって推定された状態推定結果を示す状態推定結果情報を出力する。推定状態出力部1113は、例えば、スピーカと警告灯表示器を有し、状態推定部1112の状態推定結果に応じて警告音や警告灯の点灯によって、運転者に出力したり、しなかったりする。推定状態出力部1113は、スピーカと警告灯表示器の一方で構成されてもよい。また、警告音や警告表示を、車両が備えるナビゲーションシステムの音声出力機能や画像表示機能を利用することも可能であり、この場合には、推定状態出力部1113は、ナビゲーションシステム等の外部機器へ状態推定結果情報を出力するものであってよい。
また、推定状態出力部1113は、状態推定結果情報を運転者Obに対して出力するのではなく、車両に搭載された自動運転装置やそれを制御する自動運転制御装置などの外部装置へ出力するものであってもよい。この場合、外部装置は、この状態推定結果情報に基づいた動作を行う。例えば、自動運転制御装置では、自動運転装置による自動運転モードでの走行状態から、運転者Obの操作による手動運転モードによる走行状態へ、運転モードを切替ようとする際に、この状態推定結果情報に応じて切替の可否を判定することができる。
また、状態推定対象者が製造設備やプラント等で使用される機械等の運転者または操作者である場合、推定状態出力部1113は、その運転者または操作者に対して状態推定結果情報を出力することに加えて、あるいは、それを出力する代わりに、運転者または操作者を管理監督する管理者の端末や、管理部署に配置された警告装置に、無線または有線通信により状態推定結果情報を出力するようにしてもよい。
以上のような構成であるから、状態推定装置1においては、状態推定対象者、例えば車両の運転者Obを互いに異なる位置から撮像するように複数台のカメラ2−1、2−2、…、2−Nを設置しておき、画像選択部1111によって、これら複数台のカメラ2−1、2−2、…、2−Nにより取得された運転者Obの複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する。そして、状態推定部1112により、この選択された監視画像に基づいて運転者Obの状態を推定し、推定状態出力部1113により、その推定結果を示す状態推定結果情報を出力する。したがって、1つのカメラ、例えばカメラ2−1から取得した運転者Obの監視画像に基づいて状態推定できない場合であっても、他のカメラ、例えばカメラ2−2から取得した監視画像に基づいて運転者Obの状態を推定することができるので、運転者Obの状況に依らず、運転者Obの状態を安定して推定できるようになる。
なお、状態推定装置1においては、画像選択部1111によって、複数の監視画像の中から、運転者Obの顔が含まれている監視画像を選択し、状態推定部1112により、その選択した1つの監視画像に基づいて運転者Obの状態を推定する。したがって、運転者Obの状況に依らず、運転者Obの顔が含まれる画像を選択することで、監視画像に基づいた推定を行うことが可能となる。
好ましくは、状態推定装置1においては、画像選択部1111によって、複数の監視画像の中から、運転者Obの眼が含まれている監視画像を選択し、状態推定部1112により、その選択した1つの監視画像に基づいて運転者Obの状態を推定する。運転者Obの状態推定には、運転者Obの眼が重要な情報であり、この運転者Obの眼が含まれる画像を選択することで、状態推定部1112は、運転者Obの状態を安定して推定することが可能となる。
より好ましくは、状態推定装置1においては、画像選択部1111によって、複数の監視画像の中から、運転者Obの眼が2つ含まれている監視画像を選択し、状態推定部1112により、その選択した1つの監視画像に基づいて運転者Obの状態を推定する。したがって、状態推定部1112は、高い信頼性を持った運転者Obの状態推定結果を得ることが可能となる。
なお、状態推定装置1においては、画像選択部1111によって、選択された監視画像が複数ある場合に、当該選択された監視画像のうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択する。したがって、状態推定部1112は、運転者Obの状態を推定し易い正面からの顔を含む監視画像に基づいた推定を行えるので、信頼性が非常に高い推定結果を得ることができる。
また、状態推定装置1においては、画像選択部1111によって、運転者Obの眼が2つとも含まれる監視画像のうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択し、状態推定部1112により、その選択した1つの監視画像に基づいて運転者Obの状態を推定する。したがって、運転者Obの眼が2つとも含まれている状態推定に最適な監視画像に基づいた推定を行うので、信頼性が非常に高い推定結果が得られる。
また、状態推定装置1においては、運転者Obの眼が2つとも含まれる監視画像が存在しない場合には、画像選択部1111によって、運転者Obの眼が1つ含まれる監視画像のうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択し、状態推定部1112により、その選択した1つの監視画像に基づいて運転者Obの状態を推定する。したがって、運転者Obの眼が1つ含まれる監視画像の中で状態推定に使用するのに最も適したものを選択することで、信頼性の高い推定結果が得られる。
また、状態推定装置1においては、運転者Obの眼が含まれる監視画像が存在しない場合には、画像選択部1111によって、監視画像のうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像を1つ選択し、状態推定部1112により、その選択した1つの監視画像に基づいて運転者Obの状態を推定する。したがって、運転者Obの眼が1つも含まれていない監視画像の中で、運転者Obの表情に基づいた状態推定を行うのに最も適したものを選択することで、或る程度の信頼性を持った推定結果が得られる。
また、状態推定装置1においては、画像選択部1111によって、運転者Obの眼が2つとも含まれる監視画像の全てを選択し、状態推定部1112により、それらの運転者Obの眼が2つとも含まれる監視画像それぞれに基づいて状態を推定し、それら推定結果の平均を、運転者Obの状態の推定結果とする。したがって、最終的な推定結果の信頼性が非常に高くなる。
また、状態推定装置1においては、運転者Obの眼が2つとも含まれる監視画像が存在しない場合には、画像選択部1111によって、運転者Obの眼が1つ含まれる監視画像を全て選択し、状態推定部1112により、それら運転者Obの眼が1つ含まれる監視画像それぞれに基づいて状態を推定し、それら推定結果の平均を、運転者Obの状態の推定結果とする。したがって、運転者Obの眼が1つ含まれる1つの監視画像からの推定結果よりも高い信頼性を有する推定結果が得られる。
この場合、選択した監視画像の数が所定数に満たない場合、つまり、運転者Obの眼が1つ含まれる監視画像の数が少ない場合には、さらに、画像選択部1111によって、運転者Obの顔を正面に近い向きで撮像した監視画像から順に選択して、状態推定部1112での状態推定に使用する。したがって、運転者Obの眼が1つ含まれる1つの監視画像からの推定結果よりも高い信頼性を有する推定結果が得られる。
また、状態推定装置1においては、運転者Obの眼が含まれる監視画像が存在しない場合には、画像選択部1111によって、監視画像のうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像から順に所定数選択して、状態推定部1112での状態推定に使用する。したがって、運転者Obの眼が1つも含まれていない監視画像の中で、運転者Obの表情に基づいた状態推定を行うのに適したものから所定数を選択することで、或る程度の信頼性を持った推定結果が得られる。
[第1実施形態]
次に、この発明の第1実施形態を説明する。本第1実施形態では、状態推定対象者は車両の運転者Obであり、推定する状態は運転者Obの眠気状態である場合を例にして説明する。
(構成)
(1)システム
図3は、この発明の第1実施形態に係る状態推定装置のハードウェア構成を例示したブロック図である。
状態推定装置1は、ハードウェアプロセッサで構成される制御部11と、記憶部12と、通信インタフェース13とが電気的に接続されている。なお、図3では、通信インタフェースを、「通信I/F」と記載している。
制御部11は、状態推定装置1の各部の動作を制御する。制御部11は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113とを備える。CPU111は、ハードウェアプロセッサの一例である。CPU111は、ROM112または記憶部12に格納された、状態推定プログラムをRAM113に展開する。そして、CPU111がRAM113に展開された状態推定プログラムを解釈及び実行することで、制御部11は、後述するソフトウェア構成の項目において説明される各部を実行可能である。なお、状態推定プログラムは、予めROM112または記憶部12に記憶されているが、インターネットやLAN(Local Area Network)等のネットワークを介して状態推定装置1にダウンロードされて、記憶部12に記憶されてもよい。また、状態推定プログラムは、例えばROMなどの非一時的なコンピュータ可読媒体に記憶され、流通していてもよい。
通信インタフェース13は、複数台のカメラ2−1、2−2、…、2−Nのそれぞれを制御部11と接続する。通信インタフェース13は、有線通信のためのインタフェースを含んでいても、無線通信のためのインタフェースを含んでいてもよい。また、上記記憶部12に記憶する状態推定プログラムをダウンロードするため、ネットワークを介して通信するためのインタフェースを含んでもよい。
記憶部12は、いわゆる補助記憶装置である。記憶部12は、例えばHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込および読出しが可能な記憶媒体を含む。記憶媒体は、こられに限定されない。記憶部12の記憶領域には、制御部11で実行される状態推定プログラムを記憶するプログラム記憶部に加えて、各種のデータを記憶するデータ記憶部が構成されることができる。データ記憶部は、例えば、複数台のカメラ2−1、2−2、…、2−Nから通信インタフェース13を介して制御部11が取得した、互いに異なる位置から状態推定対象者である運転者Obの少なくとも顔を撮像した、複数の監視画像データを記憶する監視画像データ記憶部121を含むことができる。
なお、状態推定装置1の具体的なハードウェア構成に関して、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。
図4は、図3に示したハードウェア構成に、さらにソフトウェア構成を追加して示した状態推定装置1を備える状態推定システムのブロック図である。
この状態推定システムは、状態推定装置1と、この状態推定装置1に接続された、複数台のドライバカメラ21−1、21−2、…、21−Nおよび推定結果出力装置3とを含む。
状態推定装置1は、制御部11と、記憶部12と、通信インタフェース13とを備えている。制御部11は、ソフトウェアによる処理機能部として、画像選択部1111と、状態推定部1112と、推定状態出力部1113と、監視画像取得部1114とを含む。なお、これらのソフトウェア構成の各部は、専用のハードウェアによって構成してもよい。記憶部12の記憶領域に構成されたデータ記憶部は、監視画像データ記憶部121と、眼開閉時系列データ記憶部122とを含む。
(2)ドライバカメラ
ドライバカメラ21−1、21−2、…、21−Nはそれぞれ、互いに異なる位置から状態推定対象者である車両の運転者Obの顔を撮像できる箇所に設置され、運転者Obの顔を撮像して、運転者Obの監視画像を取得する。ドライバカメラ21−1、21−2、…、21−Nは、例えば、ダッシュボード上、ステアリング中央、速度メータ脇、フロントピラー等に配置されることができる。なお、ドライバカメラ21−1、21−2、…、21−Nは、スチルカメラであってもよいし、ビデオカメラであってもよい。スチルカメラの場合には、1秒間に複数枚、運転者Obの静止画像を撮像する。
(3)状態推定装置
通信インタフェース13は、ドライバカメラ21−1、21−2、…、21−Nから出力された画像信号を受信してデジタルデータに変換して、制御部11に入力する。通信インタフェース13はさらに、制御部11から出力された状態推定結果情報を出力制御信号に変換して推定結果出力装置3へ出力する。
記憶部12の監視画像データ記憶部121は、ドライバカメラ21−1、21−2、…、21−Nによって取得された運転者Obの複数の監視画像データを記憶する。記憶部12の眼開閉時系列データ記憶部122は、監視画像データから測定された運転者Obの2つの眼それぞれの開閉状態を、それぞれ時系列データとして記憶する。
制御部11の監視画像取得部1114は、ドライバカメラ21−1、21−2、…、21−Nから運転者Obの監視画像を取得する。すなわち、監視画像取得部1114は、ドライバカメラ21−1、21−2、…、21−Nから出力された運転者Obの画像信号のデジタルデータであるセンシングデータを、所定のサンプリングレートで通信インタフェース13から取り込み、この取り込んだセンシングデータを運転者Obの監視画像データとして記憶部12の監視画像データ記憶部121に記憶させる。
制御部11の画像選択部1111は、監視画像データ記憶部121に記憶された、複数台のドライバカメラ21−1、21−2、…、21−Nからの運転者Obの複数の監視画像データの中から、眠気状態推定に使用する1つの監視画像データを選択する。この画像選択部1111における1つの監視画像データの選択動作の詳細については、後述する。
制御部11の状態推定部1112は、例えば、画像選択部1111によって選択された1つの監視画像データに基づいて運転者Obのそれぞれの眼の開閉状態を測定し、その測定結果と眼開閉時系列データ記憶部122に記憶された運転者Obのそれぞれの眼開閉状態時系列データとを使用して、運転者Obの眠気状態を推定することができる。この状態推定部1112における眠気状態の推定動作の詳細については、後述する。
制御部11の推定状態出力部1113は、状態推定部1112での運転者Obの眠気状態の推定結果を示す状態推定結果情報を、通信インタフェース13を介して推定結果出力装置3へ出力する。
(4)推定結果出力装置
推定結果出力装置3は、例えば、スピーカと警告灯表示器を有し、状態推定装置1から出力された状態推定結果情報を警告音や警告灯の点灯によって、運転者Obに出力する。推定結果出力装置3は、スピーカと警告灯表示器の一方で構成されてもよい。推定結果出力装置3は、車両が備えるナビゲーションシステムの音声出力機能や画像表示機能を利用して構成されてもよい。また、この推定結果出力装置3は、推定状態出力部1113として状態推定装置1に含まれてもよい。
(動作)
次に、以上のように構成された状態推定システムの動作を説明する。
(1)センシングデータ取り込み
車両の駆動源がオンされると、状態推定装置1と、運転者監視センサであるドライバカメラ21−1、21−2、…、21−Nおよび推定結果出力装置3は、動作を開始する。状態推定装置1は、ドライバカメラ21−1、21−2、…、21−Nそれぞれからのセンシングデータを監視画像取得部1114により取得し、監視画像データとして監視画像データ記憶部121に記憶させていく。この監視画像データの取得並びに記憶は、車両の駆動源がオフされるまで、繰り返し実施される。
(2)眠気状態推定
(2−1)監視画像データ選択
図5は、図4に示した状態推定装置1の画像選択部1111における処理手順と処理内容の一例を示すフローチャートである。
画像選択部1111は、監視画像取得部1114が監視画像データを取得する所定のサンプリングレートに応じたタイミングで、ステップS1111Aにおいて、監視画像データ記憶部121から、ドライバカメラ21−1、21−2、…、21−Nそれぞれについての監視画像データを取り込む。そして、画像選択部1111は、ステップS1111Bにおいて、これら取り込んだ複数の監視画像データそれぞれについて、既知の顔検出手法による顔検出処理を実施することで、監視画像データ中の運転者Obの顔を検出する。その後、画像選択部1111は、ステップS1111Cにおいて、顔が検出された監視画像データのみを選択する。
このように、画像選択部1111は、まず、顔が検出された監視画像データのみを選択する。
画像選択部1111は、次に、ステップS1111Dにおいて、上記ステップS1111Cで選択した監視画像データそれぞれについて、眼、鼻、口などの特徴検出に基づく既知の顔向き検出手法による顔向き検出処理を実施する。これにより、それぞれの選択監視画像データにおける運転者Obの顔の向きを検出する。ここで、顔の向きとは、当該監視画像データを取得したドライバカメラに対する向きを指し、車両の正面方向に対する向きではない。本実施形態は眠気状態推定の場合であるため、車両の正面方向に対する向きは必要ではない。なお、脇見状態推定など、他の状態推定を行う際には、車両の正面方向に対する顔の向きが必要な場合が有る。そのような場合には、車両の正面方向に対するドライバカメラ21−1、21−2、…、21−Nそれぞれの取り付け角度は既知であるので、ドライバカメラに対する顔の向きに基づいて、車両の正面方向に対する顔の向きは容易に算出できる。
また、画像選択部1111は、ステップS1111Eにおいて、上記ステップS1111Cで選択した監視画像データそれぞれについて、運転者Obの眼の隠れ状態を判定する。つまり、各監視画像データについて、眼が2つとも見えているのか、1つの眼しか見えないのか、眼が1つも見えないのかを判定する。なお、ステップS1111DとステップS1111Eの動作は、逆の順番でも行ってもよいし、並行して行ってもよい。
その後、画像選択部1111は、ステップS1111Fにおいて、上記ステップS1111Cで選択した監視画像データのうち、運転者Obの眼が2つとも見えている監視画像データが有るか否かを判定する。この判定は、上記ステップS1111Eでの運転者Obの眼の隠れ状態の判定結果に基づいて行うことができる。
このステップS1111Fで運転者Obの眼が2つとも見えている監視画像データが有ると判定した場合、画像選択部1111は、ステップS1111Gにおいて、運転者Obの眼が2つとも見えている監視画像データの中で、運転者Obの顔が最も正面に近いものを選択する。この選択は、上記ステップS1111Dでの顔向き検出の検出結果に基づいて行うことができる。そして、画像選択部1111は、ステップS1111Hにおいて、この選択した1つの監視画像データを、状態推定部1112での眠気状態推定に使用するための監視画像データとして、状態推定部1112に出力する。その後、画像選択部1111は、上記ステップS1111Aの動作に戻る。
このように、画像選択部1111は、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データのうちの、運転者Obの眼が2つとも含まれる監視画像データの中から、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択して、状態推定部1112に出力する。なお、運転者Obの眼が2つとも含まれる監視画像データが1つしか無ければ、それを選択して、状態推定部1112に出力する。
また、上記ステップS1111Fで運転者Obの眼が2つとも見えている監視画像データが無いと判定した場合には、画像選択部1111は、ステップS1111Iにおいて、上記ステップS1111Cで選択した監視画像データのうち、運転者Obの眼が1つ見えている監視画像データが有るか否かを判定する。
このステップS1111Iで運転者Obの眼が1つ見えている監視画像データが有ると判定した場合、画像選択部1111は、ステップS1111Jにおいて、運転者Obの眼が1つ見えている監視画像データの中で、運転者Obの顔が最も正面に近いものを選択する。この選択は、上記ステップS1111Dでの顔向き検出の検出結果に基づいて行うことができる。そして、画像選択部1111は、上記ステップS1111Hにおいて、この選択した1つの監視画像データを、状態推定部1112での眠気状態推定に使用するための監視画像データとして、状態推定部1112に出力する。なお、このような眼が1つ見えている監視画像データを選択して出力する場合には、画像選択部1111は、何れの眼が見えているかの情報を一緒に出力するようにしてもよい。その後、画像選択部1111は、上記ステップS1111Aの動作に戻る。
このように、画像選択部1111は、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データにおいて、運転者Obの眼が2つとも見えているものは存在しないが、運転者Obの眼が1つ見えているものが複数有る場合には、それら運転者Obの眼が1つ見えている監視画像データの中から、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択して、状態推定部1112に出力する。なお、運転者Obの眼が1つ見えている監視画像データが1つしか無ければ、それを選択して、状態推定部1112に出力する。
また、上記ステップS1111Iで運転者Obの眼が1つ見えている監視画像データも無いと判定した場合には、画像選択部1111は、ステップS1111Kにおいて、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データのうち、運転者Obの顔が最も正面に近いものを選択する。この選択は、上記ステップS1111Dでの顔向き検出の検出結果に基づいて行うことができる。そして、画像選択部1111は、上記ステップS1111Hにおいて、この選択した1つの監視画像データを、状態推定部1112での眠気状態推定に使用するための監視画像データとして、状態推定部1112に出力する。その後、画像選択部1111は、上記ステップS1111Aの動作に戻る。
このように、画像選択部1111は、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データに、運転者Obの眼が見えているものが存在しない場合には、取得した複数の監視画像データ全ての中から、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択して、状態推定部1112に出力する。
こうして、画像選択部1111は、監視画像データ記憶部121に記憶されていく複数の監視画像データから、状態推定部1112の動作に使用する1つの監視画像データを選択する動作を、車両の駆動源がオフされるまで、繰り返し行っていく。
(2−2)眠気状態推定
図6は、図4に示した状態推定装置1の状態推定部1112の処理手順と処理内容の一例を示すフローチャートである。
状態推定部1112は、まず、ステップS1112Aにおいて、画像選択部1111によって選択された監視画像データを取り込む。なお、本実施形態では、画像選択部1111から状態推定部1112へは、選択された監視画像データ自体が出力されるものとているが、監視画像データ記憶部121に記憶された複数の監視画像データのうちの、選択した監視画像データを特定するファイル名等の情報のみを出力するものとしてもよい。この場合には、状態推定部1112は、その情報に基づいて該当する監視画像データを監視画像データ記憶部121から読み出して、取り込むことができる。あるいは、画像選択部1111は、上記ステップS1111Hでの出力として、上記ステップS1111Aにおける複数の監視画像データの取り込み先であるRAM113から、選択した監視画像データ以外のものを除去する処理を行うものとしてもよい。この場合には、状態推定部1112は、RAM113に残った監視画像データを処理対象とすればよく、このステップS1112Aの動作を省略することができる。
次に、状態推定部1112は、ステップS1112Bにおいて、この取り込んだ監視画像データが、運転者Obの眼が少なくとも1つ見えているものであるか否かを判定する。
このステップS1112Bで運転者Obの眼が少なくとも1つ見えている監視画像データであると判定した場合、状態推定部1112は、ステップS1112Cにおいて、当該監視画像データから運転者Obの見えている1つまたは2つの眼の開閉状態を測定する。そして、状態推定部1112は、ステップS1112Dにおいて、このステップS1112Cでの判定結果により、記憶部12の眼開閉時系列データ記憶部122に記憶されている運転者Obのそれぞれの眼についての眼開閉状態時系列データを更新する。その後、状態推定部1112は、ステップS1112Eにおいて、眼開閉時系列データ記憶部122に記憶された眼開閉状態時系列データに基づいて、PERCLOS(Percent of the time eyelids are closed)を算出する。PERCLOSとは、直近1分間の眼瞑りの時間の割合(%)であり、米国道路交通安全局に認可された運転手の疲労度を測定する指標である。状態推定部1112は、ステップS1112Fにおいて、この算出したPERCLOSを所定の判断基準と比較することで、運転者Obの眠気状態を判定する。そして、状態推定部1112は、ステップS1112Gにおいて、判定した眠気状態を、状態推定結果として、推定状態出力部1113に出力する。その後、状態推定部1112は、上記ステップS1112Aの動作に戻る。
一方、上記ステップS1112Bで運転者Obの眼が1つも見えてない監視画像データであると判定した場合には、状態推定部1112は、ステップS1112Hにおいて、当該監視画像データから運転者Obの表情に基づく眠気状態の推定を行う。例えば、口の開閉状態から欠伸をしているかなどを推定する。そして、状態推定部1112は、ステップS1112Gにおいて、推定した眠気状態を推定状態出力部1113に出力する。その後、状態推定部1112は、上記ステップS1112Aの動作に戻る。
こうして、状態推定部1112は、画像選択部1111によって選択された1つの監視画像に基づいて、運転者Obの眠気状態を判定または推定する動作を、車両の駆動源がオフされるまで、繰り返し行っていく。
(2−3)眠気状態出力
推定状態出力部1113は、状態推定部1112からの判定または推定された眠気状態に基づいて、運転者Obへの警告の必要性を判定する。そして、必要に応じて、推定状態出力部1113は、運転者Obの眠気状態の推定結果を示す状態推定結果情報を推定結果出力装置3へ出力する。これにより、状態推定結果情報が、推定結果出力装置3にて、警告音や警告灯の点灯として、運転者Obに呈示される。
(第1実施形態の効果)
以上詳述したように一実施形態では、状態推定装置1においては、それぞれ互いに異なる位置に配置された複数台のドライバカメラ21−1、21−2、…、21−Nによって取得されて、記憶部12の監視画像データ記憶部121に記憶した状態推定対象者である車両の運転者Obの複数の監視画像データの中から、画像選択部1111により、眠気状態推定に使用する1つの監視画像データを選択し、状態推定部1112により、この選択された1つの監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、運転者Obの眠気状態の推定結果を示す状態推定結果情報を、推定結果出力装置3から運転者Obに対して出力する。
つまり、運転者Obを互いに異なる位置から撮像するように複数台のドライバカメラ21−1、21−2、…、21−Nを設置しておき、画像選択部1111によって、これら複数台のドライバカメラ21−1、21−2、…、21−Nにより取得された運転者Obの複数の監視画像データの中から、眠気状態推定に使用する1つの監視画像データを選択する。そして、状態推定部1112により、この選択された監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、その推定結果を示す状態推定結果情報を推定結果出力装置3に出力させる。したがって、1つのドライバカメラから取得した運転者Obの監視画像データに基づいて眠気状態推定できない場合であっても、他のドライバカメラから取得した監視画像データに基づいて運転者Obの眠気状態を推定することができるので、運転者Obの状況に依らず、運転者Obの眠気状態を安定して推定できるようになる。例えば、運転者Obがサイドミラーを見た状態や、横方向や斜め後ろ方向を見た状態でも、運転者Obの顔を正面近くから撮像した監視画像データを取得でき、この監視画像データから運転者Obの眠気状態を正確に推定することが可能になる。また、運転者ObがハンドルHaを切ったり顔をかいたり等の動作で、1つのドライバカメラから一時的に運転者Obの顔が隠れても、他のドライバカメラからの監視画像データにより、運転者Obの眠気状態の推定を継続することができる。
なお、状態推定装置1においては、画像選択部1111は、複数の監視画像データの中から、運転者Obの顔が含まれている監視画像データを選択する。
このように、複数の監視画像データの中から、運転者Obの顔が含まれている監視画像データを選択し、その選択した1つの監視画像データに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの状況に依らず、運転者Obの顔が含まれる画像データを選択することで、監視画像データに基づいた眠気状態推定を行うことが可能となる。
好ましくは、状態推定装置1においては、画像選択部1111は、複数の監視画像データの中から、運転者Obの眼が含まれている監視画像データを選択する。
このように、複数の監視画像データの中から、運転者Obの眼が含まれている監視画像データを選択し、その選択した1つの監視画像データに基づいて運転者Obの眠気状態を推定する。運転者Obの眠気状態の推定には、運転者Obの眼が重要な情報である。したがって、この運転者Obの眼が含まれる画像データを選択することで、運転者Obの眠気状態を安定して推定することが可能となる。
より好ましくは、状態推定装置1においては、画像選択部1111は、複数の監視画像データの中から、運転者Obの眼が2つ含まれている監視画像データを選択する。
このように、複数の監視画像データの中から、運転者Obの眼が2つ含まれている監視画像データを選択し、その選択した1つの監視画像データに基づいて運転者Obの眠気状態を推定する。したがって、高い信頼性を持った運転者Obの眠気状態の推定結果を得ることが可能となる。
なお、状態推定装置1においては、画像選択部1111は、選択された監視画像データが複数ある場合に、当該選択された監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択する。
このように、選択された監視画像データが複数ある場合に、当該選択された監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択する。したがって、運転者Obの眠気状態を推定し易い正面からの顔を含む監視画像データに基づいた眠気状態の推定を行えるので、信頼性が非常に高い推定結果を得ることができる。
また、状態推定装置1においては、画像選択部1111は、運転者Obの眼が2つとも含まれる監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択する。
このように、運転者Obの眼が2つとも含まれる監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択し、それに基づいて運転者の眠気状態を推定する。したがって、最適な監視画像データに基づいた眠気状態の推定を行うので、信頼性が非常に高い眠気状態推定結果が得られる。
また、状態推定装置1においては、画像選択部1111は、運転者Obの眼が2つとも含まれる監視画像データが存在しない場合、運転者Obの眼が1つ含まれる監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択する。
このように、運転者Obの眼が2つとも含まれる監視画像データが存在しない場合には、運転者Obの眼が1つ含まれる監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択し、それに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの眼が1つ含まれる監視画像データの中で眠気状態推定に使用するのに最も適したものを選択することで、信頼性の高い眠気状態推定結果が得られる。
また、状態推定装置1においては、画像選択部1111が、運転者Obの眼が含まれる監視画像データが存在しない場合、監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択する。
このように、運転者Obの眼が含まれる監視画像データが存在しない場合には、監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択し、それに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの眼が1つも含まれていない監視画像データの中で、運転者Obの表情に基づいた眠気状態推定を行うのに最も適したものを選択することで、或る程度の信頼性を持った眠気状態推定結果が得られる。
[第2実施形態]
次に、この発明の第2実施形態を説明する。本第2実施形態においても、上記第1実施形態と同様、状態推定対象者は車両の運転者Obであり、推定する状態は運転者Obの眠気状態である場合を例にして説明する。以下、説明の簡略化のために、上記第1実施形態との相違点を説明し、重複の説明を省略する。
(構成)
(1)システム
図7は、この発明の第2実施形態に係る状態推定装置1のソフトウェア構成を例示した、状態推定システムのブロック図である。
この状態推定システムは、この発明の第2実施形態に係る状態推定装置1と、この状態推定装置1に接続された、複数台のドライバカメラ21−1、21−2、…、21−Nおよび推定結果出力装置3とを含む。状態推定装置1は、上記第1実施形態と同様の構成に加え、記憶部12の記憶領域に構成されたデータ記憶部に、さらに、選択画像データ記憶部123と、眠気状態一時記憶部124とを含む。
(2)状態推定装置
記憶部12の選択画像データ記憶部123は、制御部11の画像選択部1111が選択した監視画像データを、選択画像データとして記憶する。記憶部12の眠気状態一時記憶部124は、状態推定部1112が1つの選択画像データに基づいて推定した眠気状態をそれぞれ一時記憶する。また、本第2実施形態では、眼開閉時系列データ記憶部122は、運転者Obの眼開閉状態時系列データに加えて、状態推定部1112が1つの選択画像データから測定した眼開閉状態の情報をそれぞれ一時記憶する。
制御部11の画像選択部1111は、監視画像データ記憶部121に記憶された、複数台のドライバカメラ21−1、21−2、…、21−Nからの運転者Obの複数の監視画像データの中から、眠気状態推定に使用する複数の監視画像データを選択する。すなわち、画像選択部1111は、上記第1実施形態では、1つの監視画像データを選択していたが、本第2実施形態では、監視画像データを複数選択する。画像選択部1111は、選択した複数の監視画像データを、選択画像データとして、選択画像データ記憶部123に記憶させる。この画像選択部1111における複数の監視画像データの選択動作の詳細については、後述する。
制御部11の状態推定部1112は、例えば、選択画像データ記憶部123に記憶された複数の選択画像データそれぞれに基づいて運転者Obの眼開閉状態を測定し、その測定結果を、眼開閉時系列データ記憶部122に一時記憶させる。また、状態推定部1112は、眼開閉時系列データ記憶部122に記憶された運転者Obの眼開閉状態時系列データと、各選択画像データに関して一時記憶された眼開閉状態とを使用して、運転者Obの眠気状態をそれぞれ推定し、それぞれの結果を、眠気状態一時記憶部124に記憶させる。また、状態推定部1112は、眠気状態一時記憶部124に記憶された各選択画像に基づく眠気状態から最終的な眠気状態の推定結果を演算して、推定状態出力部1113に出力する。この状態推定部1112における眠気状態の推定動作の詳細については、後述する。
(動作)
次に、以上のように構成された状態推定システムの動作を説明する。
センシングデータ取り込み動作については、上記第1実施形態と同様である。
眠気状態推定動作は、以下のように行われる。
(1)監視画像データ選択
図8は、図7に示した状態推定装置1の画像選択部1111における処理手順と処理内容の一例を示すフローチャートである。
画像選択部1111は、上記第1実施形態と同様のステップS1111A乃至ステップS1111Eの動作を行った後、ステップS1111Fにおいて、選択した監視画像データのうち、運転者Obの眼が2つとも見えている監視画像データが有るか否かを判定する。そして、運転者Obの眼が2つとも見えている監視画像データが有ると判定した場合、本第2実施形態では、画像選択部1111は、ステップS1111Nにおいて、運転者Obの眼が2つとも見えている監視画像データを全て選択し、それらを選択画像データとして、記憶部12の選択画像データ記憶部123に保存させる。その後、画像選択部1111は、上記ステップS1111Aの動作に戻る。
このように、画像選択部1111は、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データに、運転者Obの眼が2つとも含まれる監視画像データが存在すれば、それらを全て選択して、選択画像データとして、選択画像データ記憶部123に保存する。
また、上記ステップS1111Fで運転者Obの眼が2つとも見えている監視画像データが無いと判定した場合には、画像選択部1111は、上記第1実施形態と同様に、ステップS1111Iにおいて、上記ステップS1111Cで選択した監視画像データのうち、運転者Obの眼が1つ見えている監視画像データが有るか否かを判定する。そして、運転者Obの眼が1つ見えている監視画像データが有ると判定した場合、本第2実施形態では、画像選択部1111は、ステップS1111Oにおいて、運転者Obの眼が1つ見えている監視画像データを全て選択し、それらを選択画像データとして、選択画像データ記憶部123に保存させる。
このように、画像選択部1111は、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データにおいて、運転者Obの眼が2つとも見えているものは存在しないが、運転者Obの眼が1つ見えているものが有る場合には、それら運転者Obの眼が1つ見えている監視画像データを全て選択して、選択画像データとして、選択画像データ記憶部123に保存させる。
その後、画像選択部1111は、上記ステップS1111Pにおいて、監視画像データを所定数(M個)以上選択したか否かを判定する。ここで、Mは、ドライバカメラの台数であるNよりも小さい、2以上の整数である。Mは、推定される眠気状態の信頼度と処理速度とのトレードオフであり、システム設計時に値が設定されている。このステップS1111Pで監視画像データを所定数以上選択したと判定した場合、画像選択部1111は、上記ステップS1111Aの動作に戻る。
上記ステップS1111Pで監視画像データを所定数以上選択していないと判定した場合には、画像選択部1111は、ステップS1111Qにおいて、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データのうちの、運転者Obの眼が1つも見えていない監視画像データの中から、未選択のもので、運転者Obの顔が最も正面に近いものを1つ選択し、選択画像データとして、選択画像データ記憶部123に保存させる。その後、画像選択部1111は、上記ステップS1111Pに進むことで、監視画像データを所定数以上選択するまで、ステップS1111PおよびステップS1111Qを繰り返す。そして、監視画像データを所定数以上選択したならば、画像選択部1111は、上記ステップS1111Aの動作に戻る。
このように、運転者Obの眼が1つ見えている監視画像データを全て選択しても、その数が所定数に満たない場合には、その不足数分、運転者Obの眼を含まない監視画像データのうち、運転者Obの顔を正面に近い向きで撮像した監視画像データから順に選択して、選択画像データとして、選択画像データ記憶部123に保存させる。
また、上記ステップS1111Pで監視画像データを所定数以上選択していないと判定した場合も同様に、画像選択部1111は、ステップS1111Qにおいて、複数台のドライバカメラ21−1、21−2、…、21−Nによって取得した複数の監視画像データのうちの、運転者Obの眼が1つも見えていない監視画像データの中から、未選択のもので、運転者Obの顔が最も正面に近いものを1つ選択し、選択画像データとして、選択画像データ記憶部123に保存させる。その後、画像選択部1111は、上記ステップS1111Pに進むことで、監視画像データを所定数以上選択するまで、ステップS1111PおよびステップS1111Qを繰り返す。そして、監視画像データを所定数以上選択したならば、画像選択部1111は、上記ステップS1111Aの動作に戻る。
このように、運転者Obの眼が見えている監視画像データが無い場合には、運転者Obの眼を含まない監視画像データのうち、運転者Obの顔を正面に近い向きで撮像した監視画像データから順に所定数を選択して、選択画像データとして、選択画像データ記憶部123に保存させる。
こうして、画像選択部1111は、監視画像データ記憶部121に記憶されていく複数の監視画像データから、状態推定部1112の動作に使用する選択画像データとして、運転者Obの眼が2つ見えている監視画像データの全て選択する動作、あるいは、眼が1つ見えているまたは1つも見えていない監視画像データを所定数選択する動作を、車両の駆動源がオフされるまで、繰り返し行っていく。
なお、運転者Obの眼が2つ見えている監視画像データであれば、状態推定部1112において高い信頼性を持って眠気状態を推定することが可能であるので、ここでは、所定数の監視データを選択する動作を行っていない。しかしながら、不足数分を運転者Obの眼が1つ見えている監視画像データなどで補うようにしてもよいことは勿論である。
(2)眠気状態推定
図9は、図7に示した状態推定装置1の状態推定部1112の処理手順と処理内容の一例を示すフローチャートである。
状態推定部1112は、まず、ステップS1112Hにおいて、記憶部12の選択画像データ記憶部123に保存された選択画像データを1つ取り込む。そして、状態推定部1112は、この取り込んだ選択画像データについて、上記第1実施形態と同様のステップS1112BおよびステップS1112Cの動作を行った後、ステップS1112Iにおいて、ステップS1112Cでの測定結果である運転者Obの眼それぞれの開閉状態を、記憶部12の眼開閉時系列データ記憶部122に記憶させる。
その後、状態推定部1112は、ステップS1112Eにおいて、上記第1実施形態と同様に、PERCLOSを算出する。上記第1実施形態では、眼開閉時系列データ記憶部122に記憶された眼開閉状態時系列データに基づいて、PERCLOSを算出していた。これに対して、本第2実施形態では、眼開閉時系列データ記憶部122に記憶された眼開閉状態時系列データと、眼開閉時系列データ記憶部122に一時記憶された眼開閉状態とに基づいて、PERCLOSを算出する。この理由は、第1実施形態では、ステップS1112Dで、眼開閉時系列データ記憶部122に記憶された眼開閉状態時系列データの更新を行っていたが、本第2実施形態では、そのような更新処理を行っていないため、眼開閉時系列データ記憶部122には、1回前までの眼開閉状態の時系列データしか記憶されていないことにある。
こうしてPERCLOSを算出したならば、状態推定部1112は、上記第1実施形態と同様にステップS1112Fにおいて運転者Obの眠気状態を判定し、その後、ステップS1112Jにおいて、その判定結果である眠気状態を、記憶部12の眠気状態一時記憶部124に一時記憶させる。
次に、状態推定部1112は、ステップS1112Kにおいて、記憶部12の選択画像データ記憶部123に保存された選択画像データの全てに対する処理が終了したか否かを判定する。このステップS1112Kで選択画像データの全てに対する処理が未だ終了していないと判定した場合には、状態推定部1112は、上記ステップS1112Hの動作に戻る。
一方、上記ステップS1112Bで運転者Obの眼が1つも見えてない選択画像データであると判定した場合には、状態推定部1112は、上記第1実施形態と同様のステップS1112Hの動作を行った後、上記ステップS1112Jの動作へと進む。
こうして、記憶部12の選択画像データ記憶部123に保存された選択画像データそれぞれに基づく眠気状態の推定を行っていく。そして、上記ステップS1112Kで選択画像データの全てに対する処理が終了したと判定したならば、状態推定部1112は、ステップS1112Lにおいて、眠気状態一時記憶部124に一時記憶されている各選択画像データに基づく眠気状態の推定結果から、最終的な眠気状態を決定する。例えば、各選択画像データに基づく眠気状態の推定結果を平均したり、見えている眼の数が多い選択画像データに基づく眠気状態の推定結果ほど重みを重くした重み付け平均したりすることで、最終的な眠気状態を決定する。そして、状態推定部1112は、上記第1実施形態と同様にステップS1112Gにおいて、この判定した眠気状態を推定状態出力部1113に出力する。
その後、状態推定部1112は、ステップS1112Mにおいて、眼開閉時系列データ記憶部122に一時記憶されている全ての眼開閉状態より、同じく眼開閉時系列データ記憶部122に記憶されている眼開閉状態時系列データを更新する。この場合も、一時記憶されている全ての眼開閉状態を平均したり、見えている眼の数が多い選択画像データから測定された眼開閉状態ほど重みを重くした重み付け平均したりすることで、最終的な眼開閉状態を決定した上で、眼開閉状態時系列データを更新する。その後、状態推定部1112は、上記ステップS1112Hの動作に戻る。
こうして、状態推定部1112は、画像選択部1111によって選択された複数の監視画像に基づいて、運転者Obの眠気状態を判定または推定する動作を、車両の駆動源がオフされるまで、繰り返し行っていく。
(3)眠気状態出力
推定状態出力部1113は、状態推定部1112からの判定または推定された眠気状態に基づいて、運転者Obへの警告の必要性を判定し、状態推定結果情報を推定結果出力装置3へ出力する。これにより、状態推定結果情報が、推定結果出力装置3にて、警告音や警告灯の点灯として、運転者Obに呈示される。
(第2実施形態の効果)
以上詳述したように一実施形態では、状態推定装置1においては、それぞれ互いに異なる位置に配置された複数台のドライバカメラ21−1、21−2、…、21−Nによって取得されて、記憶部12の監視画像データ記憶部121に記憶した状態推定対象者である車両の運転者Obの複数の監視画像データの中から、画像選択部1111により、眠気状態推定に使用する複数の監視画像データを選択し、状態推定部1112により、この選択された複数の監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、運転者Obの眠気状態の推定結果を示す状態推定結果情報を、推定結果出力装置3から運転者Obに対して出力する。
つまり、運転者Obを互いに異なる位置から撮像するように複数台のドライバカメラ21−1、21−2、…、21−Nを設置しておき、画像選択部1111によって、これら複数台のドライバカメラ21−1、21−2、…、21−Nにより取得された運転者Obの複数の監視画像データの中から、眠気状態推定に使用する複数の監視画像データを選択する。そして、状態推定部1112により、これらの選択された監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、その推定結果を示す状態推定結果情報を推定結果出力装置3に出力させる。したがって、1つのドライバカメラから取得した運転者Obの監視画像データに基づいて眠気状態推定できない場合であっても、他のドライバカメラから取得した監視画像データに基づいて運転者Obの眠気状態を推定することができるので、運転者Obの状況に依らず、運転者Obの眠気状態を安定して推定できるようになる。
また、状態推定装置1においては、画像選択部1111は、運転者Obの眼が2つとも含まれる監視画像データの全てを選択し、状態推定部1112は、それら選択された監視画像データそれぞれに基づいて運転者Obの眠気状態を推定し、それら推定結果の平均を、運転者Obの眠気状態の推定結果とする。
このように、運転者Obの眼が2つとも含まれる監視画像データのそれぞれに基づいて眠気状態を推定し、それら推定結果の平均を、運転者Obの眠気状態の推定結果とする。したがって、最終的な状態推定結果の信頼性が非常に高くなる。
また、状態推定装置1においては、画像選択部1111は、運転者Obの眼が2つとも含まれる監視画像データが存在しない場合、運転者Obの眼が1つ含まれる監視画像データを全て選択し、状態推定部1112は、それら選択された複数の監視画像データそれぞれに基づいて運転者Obの眠気状態を推定し、それら推定結果の平均を、運転者Obの眠気状態の推定結果とする。
このように、運転者Obの眼が2つとも含まれる監視画像データが存在しない場合には、運転者Obの眼が1つ含まれる監視画像データそれぞれに基づいて状態を推定し、それら推定結果の平均を、運転者Obの眠気状態の推定結果とする。したがって、運転者Obの眼が1つ含まれる1つの監視画像データからの推定結果よりも高い信頼性を有する状態推定結果が得られる。
また、状態推定装置1においては、画像選択部1111は、選択した監視画像データの数が所定数に満たない場合には、その不足数分、運転者Obの眼を含まない監視画像データのうち、運転者Obの顔を正面に近い向きで撮像した監視画像データから順に選択する。
このように、運転者Obの眼が1つ含まれる監視画像データの数が少ない場合には、さらに運転者Obの顔を正面に近い向きで撮像した監視画像データから順に選択して、状態推定に使用する。したがって、運転者Obの眼が1つ含まれる1つの監視画像データからの推定結果よりも高い信頼性を有する状態推定結果が得られる。
また、状態推定装置1においては、画像選択部1111は、運転者Obの眼が含まれる監視画像データが存在しない場合、監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データから順に所定数の監視画像データを選択する。
このように、運転者Obの眼が含まれる監視画像データが存在しない場合には、監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データから順に所定数選択し、それらに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの眼が1つも含まれていない監視画像データの中で、運転者Obの表情に基づいた眠気状態推定を行うのに適したものから所定数を選択することで、或る程度の信頼性を持った状態推定結果が得られる。
[変形例]
以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
(1)例えば、前記第1および第2実施形態では、複数台のドライバカメラ21−1、21−2、…、21−Nにより取得した運転者Obの複数の監視画像データの中から少なくとも1つを選択するための判定基準として、運転者Obの眼の隠れ状態を用いているが、運転者Obの口の隠れ状態を加えてもよい。さらには、別の判断基準を加えたり、その別の判断基準と置き換えたりしてもよい。
また、運転者Obの眠気状態をPERCLOSに基づいて判定しているが、その他の指標に基づいて判定してもよい。
(2)また、前記第1および第2実施形態では、運転者Obの推定するべき状態として、眠気状態を例に説明したが、脇見状態等、別の状態推定でもよい。
(3)状態推定対象者についても、車両の運転者Obに限らず、製造設備やプラント等で使用される機械等の運転者または操作者であってもよい。
要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
[付記]
前記実施形態の一部または全部は、以下の付記に示すように記載することが可能であるが、これに限られない。
(付記1)
それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された状態推定対象者(Ob)の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する画像選択部(1111)と、
前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する状態推定部(1112)と、
推定結果を示す情報を出力する出力部(1113)と、
を具備する状態推定装置(1)。
(付記2)
状態推定対象者(Ob)の状態を推定する状態推定装置(1)が実行する状態推定方法であって、
前記状態推定装置が、それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された前記状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する過程と、
前記状態推定装置が、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する過程と、
前記状態推定装置が、推定結果を示す情報を出力する過程と、
を具備する状態推定方法。
(付記3)
ハードウェアプロセッサ(111)とメモリ(112,113)とを有する状態推定装置であって、
前記ハードウェアプロセッサが、
それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された状態推定対象者(Ob)の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択し、
前記選択された監視画像に基づいて前記状態推定対象者の状態を推定し、
推定結果を示す情報を出力する、
状態推定装置。
(付記4)
ハードウェアプロセッサ(111)とメモリ(112,113)とを有する装置が実行する状態推定方法であって、
前記ハードウェアプロセッサが、それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された状態推定対象者(Ob)の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する過程と、
前記ハードウェアプロセッサが、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する過程と、
前記ハードウェアプロセッサが、推定結果を示す情報を出力する過程と、
を具備する状態推定方法。
1…状態推定装置、 2−1,2−2,…,2−N…カメラ、 3…推定結果出力装置、 11…制御部、 12…記憶部、 13…通信インタフェース、 21−1,21−2,…,21−N…ドライバカメラ、 111…CPU、 112…ROM、 113…RAM、 121…監視画像データ記憶部、 122…眼開閉時系列データ記憶部、 123…選択画像データ記憶部、 124…眠気状態一時記憶部、 1111…画像選択部、 1112…状態推定部、 1113…推定状態出力部、 1114…監視画像取得部。

Claims (11)

  1. それぞれ互いに異なる位置に配置された複数台のカメラによって取得された状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する画像選択部と、
    前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する状態推定部と、
    推定結果を示す情報を出力する出力部と、
    を具備する状態推定装置。
  2. 前記画像選択部は、前記複数の監視画像の中から、前記状態推定対象者の顔が含まれている監視画像を選択する、請求項1に記載の状態推定装置。
  3. 前記画像選択部は、前記複数の監視画像の中から、前記状態推定対象者の眼が含まれている監視画像を選択する、請求項1または2に記載の状態推定装置。
  4. 前記画像選択部は、前記複数の監視画像の中から、前記状態推定対象者の眼が2つ含まれている監視画像を選択する、請求項1から請求項3のいずれか1項に記載の状態推定装置。
  5. 前記画像選択部は、選択された監視画像が複数ある場合に、当該選択された監視画像のうち、前記状態推定対象者の顔を最も正面に近い向きで撮像した監視画像を1つ選択する、請求項1から請求項4のいずれか1項に記載の状態推定装置。
  6. 前記画像選択部は、前記状態推定対象者の眼が2つとも含まれる監視画像の全てを選択し、
    前記状態推定部は、前記選択された監視画像それぞれに基づいて前記状態推定対象者の状態を推定し、それら推定結果の平均を、前記状態推定対象者の状態の推定結果とする、
    請求項1に記載の状態推定装置。
  7. 前記画像選択部は、前記状態推定対象者の眼が2つとも含まれる監視画像が存在しない場合、前記状態推定対象者の眼が1つ含まれる監視画像を全て選択し、
    前記状態推定部は、前記選択された複数の監視画像それぞれに基づいて前記状態推定対象者の状態を推定し、それら推定結果の平均を、前記状態推定対象者の状態の推定結果とする、
    請求項1に記載の状態推定装置。
  8. 前記画像選択部は、前記選択した監視画像の数が所定数に満たない場合には、その不足数分、前記状態推定対象者の眼を含まない監視画像のうち、前記状態推定対象者の顔を正面に近い向きで撮像した監視画像から順に選択する、請求項7に記載の状態推定装置。
  9. 前記画像選択部は、前記状態推定対象者の眼が含まれる監視画像が存在しない場合、前記監視画像のうち、前記状態推定対象者の顔を最も正面に近い向きで撮像した監視画像から順に所定数の監視画像を選択する、請求項1に記載の状態推定装置。
  10. 状態推定対象者の状態を推定する状態推定装置が実行する状態推定方法であって、
    前記状態推定装置が、それぞれ互いに異なる位置に配置された複数台のカメラによって取得された前記状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する過程と、
    前記状態推定装置が、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する過程と、
    前記状態推定装置が、推定結果を示す情報を出力する過程と、
    を具備する状態推定方法。
  11. 請求項1から請求項9のいずれか1項に記載の状態推定装置が具備する各部としてコンピュータを機能させる状態推定プログラム。
JP2017238756A 2017-12-13 2017-12-13 状態推定装置とその方法およびプログラム Expired - Fee Related JP6711346B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017238756A JP6711346B2 (ja) 2017-12-13 2017-12-13 状態推定装置とその方法およびプログラム
DE102018130654.7A DE102018130654A1 (de) 2017-12-13 2018-12-03 Zustandsabschätzungsvorrichtung, Zustandsabschätzungsverfahren und Zustandsabschätzungsprogramm
CN201811468982.1A CN110025324A (zh) 2017-12-13 2018-12-03 状态推断装置、状态推断方法以及记录介质
US16/215,467 US20190180126A1 (en) 2017-12-13 2018-12-10 State estimation apparatus, method, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238756A JP6711346B2 (ja) 2017-12-13 2017-12-13 状態推定装置とその方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019103664A true JP2019103664A (ja) 2019-06-27
JP6711346B2 JP6711346B2 (ja) 2020-06-17

Family

ID=66629026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238756A Expired - Fee Related JP6711346B2 (ja) 2017-12-13 2017-12-13 状態推定装置とその方法およびプログラム

Country Status (4)

Country Link
US (1) US20190180126A1 (ja)
JP (1) JP6711346B2 (ja)
CN (1) CN110025324A (ja)
DE (1) DE102018130654A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021026701A (ja) * 2019-08-08 2021-02-22 株式会社慶洋エンジニアリング 居眠り運転防止装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10745009B2 (en) * 2016-12-21 2020-08-18 Samsung Electronics Co., Ltd. Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same
US11527081B2 (en) 2020-10-20 2022-12-13 Toyota Research Institute, Inc. Multiple in-cabin cameras and lighting sources for driver monitoring

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002282210A (ja) * 2001-03-27 2002-10-02 Japan Science & Technology Corp 視線検出方法及びその装置
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置
JP2007280374A (ja) * 2006-03-14 2007-10-25 Omron Corp 情報処理装置および方法、記録媒体、並びに、プログラム
WO2008007781A1 (fr) * 2006-07-14 2008-01-17 Panasonic Corporation Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
US20090123031A1 (en) * 2007-11-13 2009-05-14 Smith Matthew R Awareness detection system and method
JP2012022646A (ja) * 2010-07-16 2012-02-02 Fujitsu Ltd 視線方向検出装置、視線方向検出方法及び安全運転評価システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2256785B1 (ja) 1973-09-06 1977-12-16 Staubli Sa Ets
JP3319201B2 (ja) 1995-02-08 2002-08-26 トヨタ自動車株式会社 脇見運転判定装置
CN102156537B (zh) * 2010-02-11 2016-01-13 三星电子株式会社 一种头部姿态检测设备及方法
CN103458259B (zh) * 2013-08-27 2016-04-13 Tcl集团股份有限公司 一种3d视频引起人眼疲劳度的检测方法、装置及系统
US9475387B2 (en) * 2014-03-16 2016-10-25 Roger Li-Chung Wu Drunk driving prevention system and method with eye symptom detector
CN104809445B (zh) * 2015-05-07 2017-12-19 吉林大学 基于眼部和嘴部状态的疲劳驾驶检测方法
CN105069976B (zh) * 2015-07-28 2017-10-24 南京工程学院 一种疲劳检测和行驶记录综合系统及疲劳检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002282210A (ja) * 2001-03-27 2002-10-02 Japan Science & Technology Corp 視線検出方法及びその装置
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置
JP2007280374A (ja) * 2006-03-14 2007-10-25 Omron Corp 情報処理装置および方法、記録媒体、並びに、プログラム
WO2008007781A1 (fr) * 2006-07-14 2008-01-17 Panasonic Corporation Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
US20090123031A1 (en) * 2007-11-13 2009-05-14 Smith Matthew R Awareness detection system and method
JP2012022646A (ja) * 2010-07-16 2012-02-02 Fujitsu Ltd 視線方向検出装置、視線方向検出方法及び安全運転評価システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021026701A (ja) * 2019-08-08 2021-02-22 株式会社慶洋エンジニアリング 居眠り運転防止装置

Also Published As

Publication number Publication date
US20190180126A1 (en) 2019-06-13
CN110025324A (zh) 2019-07-19
JP6711346B2 (ja) 2020-06-17
DE102018130654A1 (de) 2019-06-13

Similar Documents

Publication Publication Date Title
JP4845886B2 (ja) 個人の警戒レベルの指示を生成するための方法及び装置
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
JP5974915B2 (ja) 覚醒度検出装置、および覚醒度検出方法
JP6338701B2 (ja) 瞬間的な眠りを検出するデバイス、方法およびコンピュータプログラム
JP2016539446A (ja) 動作と、顔面と、目及び口形状の認知を通じた2段階に亘っての居眠り運転の防止装置
JP2019103664A (ja) 状態推定装置とその方法およびプログラム
JP2007006427A (ja) 映像監視装置
US11810373B2 (en) Cognitive function estimation device, learning device, and cognitive function estimation method
JP2019195377A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP2018128974A (ja) ドライバ状態監視装置
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
JP2016209231A (ja) 居眠り検知装置
WO2018168038A1 (ja) 運転者の着座判定装置
JP6672972B2 (ja) 安全運転支援装置及び安全運転支援プログラム
JP6459856B2 (ja) 車両運転支援装置、車両運転支援方法、およびプログラム
JP2013042402A (ja) 車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム
JP2020194227A (ja) 顔遮蔽判定装置、顔遮蔽判定方法、顔遮蔽判定プログラム及び乗員監視システム
US20190149777A1 (en) System for recording a scene based on scene content
JP6281238B2 (ja) 認知度推定装置および認知度推定方法
KR101823385B1 (ko) 사이드 카메라를 이용한 차선 이탈 경보 시스템의 인식률 향상 장치 및 방법
JP3812355B2 (ja) 運転注意力検出装置および居眠り運転検出装置
JP2021145974A (ja) 状態推定装置
Victoreia et al. Driver fatigue monitoring system using eye closure
WO2020203911A1 (ja) 脈拍数検出装置、及び脈拍数検出プログラム
US20230114160A1 (en) Monitoring device, monitoring method, and recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200511

R150 Certificate of patent or registration of utility model

Ref document number: 6711346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees