JP2019103664A - 状態推定装置とその方法およびプログラム - Google Patents
状態推定装置とその方法およびプログラム Download PDFInfo
- Publication number
- JP2019103664A JP2019103664A JP2017238756A JP2017238756A JP2019103664A JP 2019103664 A JP2019103664 A JP 2019103664A JP 2017238756 A JP2017238756 A JP 2017238756A JP 2017238756 A JP2017238756 A JP 2017238756A JP 2019103664 A JP2019103664 A JP 2019103664A
- Authority
- JP
- Japan
- Prior art keywords
- state estimation
- state
- driver
- monitoring
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000012544 monitoring process Methods 0.000 claims abstract description 336
- 238000003384 imaging method Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 7
- 206010041349 Somnolence Diseases 0.000 description 95
- 238000013500 data storage Methods 0.000 description 52
- 208000032140 Sleepiness Diseases 0.000 description 49
- 230000037321 sleepiness Effects 0.000 description 49
- 238000012545 processing Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 15
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Psychology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Emergency Alarm Devices (AREA)
- Traffic Control Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
先ず、この発明の一実施形態に係る状態推定装置の一つの適用例について説明する。
次に、この発明の第1実施形態を説明する。本第1実施形態では、状態推定対象者は車両の運転者Obであり、推定する状態は運転者Obの眠気状態である場合を例にして説明する。
(1)システム
図3は、この発明の第1実施形態に係る状態推定装置のハードウェア構成を例示したブロック図である。
ドライバカメラ21−1、21−2、…、21−Nはそれぞれ、互いに異なる位置から状態推定対象者である車両の運転者Obの顔を撮像できる箇所に設置され、運転者Obの顔を撮像して、運転者Obの監視画像を取得する。ドライバカメラ21−1、21−2、…、21−Nは、例えば、ダッシュボード上、ステアリング中央、速度メータ脇、フロントピラー等に配置されることができる。なお、ドライバカメラ21−1、21−2、…、21−Nは、スチルカメラであってもよいし、ビデオカメラであってもよい。スチルカメラの場合には、1秒間に複数枚、運転者Obの静止画像を撮像する。
通信インタフェース13は、ドライバカメラ21−1、21−2、…、21−Nから出力された画像信号を受信してデジタルデータに変換して、制御部11に入力する。通信インタフェース13はさらに、制御部11から出力された状態推定結果情報を出力制御信号に変換して推定結果出力装置3へ出力する。
推定結果出力装置3は、例えば、スピーカと警告灯表示器を有し、状態推定装置1から出力された状態推定結果情報を警告音や警告灯の点灯によって、運転者Obに出力する。推定結果出力装置3は、スピーカと警告灯表示器の一方で構成されてもよい。推定結果出力装置3は、車両が備えるナビゲーションシステムの音声出力機能や画像表示機能を利用して構成されてもよい。また、この推定結果出力装置3は、推定状態出力部1113として状態推定装置1に含まれてもよい。
次に、以上のように構成された状態推定システムの動作を説明する。
(1)センシングデータ取り込み
車両の駆動源がオンされると、状態推定装置1と、運転者監視センサであるドライバカメラ21−1、21−2、…、21−Nおよび推定結果出力装置3は、動作を開始する。状態推定装置1は、ドライバカメラ21−1、21−2、…、21−Nそれぞれからのセンシングデータを監視画像取得部1114により取得し、監視画像データとして監視画像データ記憶部121に記憶させていく。この監視画像データの取得並びに記憶は、車両の駆動源がオフされるまで、繰り返し実施される。
(2−1)監視画像データ選択
図5は、図4に示した状態推定装置1の画像選択部1111における処理手順と処理内容の一例を示すフローチャートである。
このように、画像選択部1111は、まず、顔が検出された監視画像データのみを選択する。
図6は、図4に示した状態推定装置1の状態推定部1112の処理手順と処理内容の一例を示すフローチャートである。
推定状態出力部1113は、状態推定部1112からの判定または推定された眠気状態に基づいて、運転者Obへの警告の必要性を判定する。そして、必要に応じて、推定状態出力部1113は、運転者Obの眠気状態の推定結果を示す状態推定結果情報を推定結果出力装置3へ出力する。これにより、状態推定結果情報が、推定結果出力装置3にて、警告音や警告灯の点灯として、運転者Obに呈示される。
以上詳述したように一実施形態では、状態推定装置1においては、それぞれ互いに異なる位置に配置された複数台のドライバカメラ21−1、21−2、…、21−Nによって取得されて、記憶部12の監視画像データ記憶部121に記憶した状態推定対象者である車両の運転者Obの複数の監視画像データの中から、画像選択部1111により、眠気状態推定に使用する1つの監視画像データを選択し、状態推定部1112により、この選択された1つの監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、運転者Obの眠気状態の推定結果を示す状態推定結果情報を、推定結果出力装置3から運転者Obに対して出力する。
つまり、運転者Obを互いに異なる位置から撮像するように複数台のドライバカメラ21−1、21−2、…、21−Nを設置しておき、画像選択部1111によって、これら複数台のドライバカメラ21−1、21−2、…、21−Nにより取得された運転者Obの複数の監視画像データの中から、眠気状態推定に使用する1つの監視画像データを選択する。そして、状態推定部1112により、この選択された監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、その推定結果を示す状態推定結果情報を推定結果出力装置3に出力させる。したがって、1つのドライバカメラから取得した運転者Obの監視画像データに基づいて眠気状態推定できない場合であっても、他のドライバカメラから取得した監視画像データに基づいて運転者Obの眠気状態を推定することができるので、運転者Obの状況に依らず、運転者Obの眠気状態を安定して推定できるようになる。例えば、運転者Obがサイドミラーを見た状態や、横方向や斜め後ろ方向を見た状態でも、運転者Obの顔を正面近くから撮像した監視画像データを取得でき、この監視画像データから運転者Obの眠気状態を正確に推定することが可能になる。また、運転者ObがハンドルHaを切ったり顔をかいたり等の動作で、1つのドライバカメラから一時的に運転者Obの顔が隠れても、他のドライバカメラからの監視画像データにより、運転者Obの眠気状態の推定を継続することができる。
このように、複数の監視画像データの中から、運転者Obの顔が含まれている監視画像データを選択し、その選択した1つの監視画像データに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの状況に依らず、運転者Obの顔が含まれる画像データを選択することで、監視画像データに基づいた眠気状態推定を行うことが可能となる。
このように、複数の監視画像データの中から、運転者Obの眼が含まれている監視画像データを選択し、その選択した1つの監視画像データに基づいて運転者Obの眠気状態を推定する。運転者Obの眠気状態の推定には、運転者Obの眼が重要な情報である。したがって、この運転者Obの眼が含まれる画像データを選択することで、運転者Obの眠気状態を安定して推定することが可能となる。
このように、複数の監視画像データの中から、運転者Obの眼が2つ含まれている監視画像データを選択し、その選択した1つの監視画像データに基づいて運転者Obの眠気状態を推定する。したがって、高い信頼性を持った運転者Obの眠気状態の推定結果を得ることが可能となる。
このように、選択された監視画像データが複数ある場合に、当該選択された監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択する。したがって、運転者Obの眠気状態を推定し易い正面からの顔を含む監視画像データに基づいた眠気状態の推定を行えるので、信頼性が非常に高い推定結果を得ることができる。
このように、運転者Obの眼が2つとも含まれる監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択し、それに基づいて運転者の眠気状態を推定する。したがって、最適な監視画像データに基づいた眠気状態の推定を行うので、信頼性が非常に高い眠気状態推定結果が得られる。
このように、運転者Obの眼が2つとも含まれる監視画像データが存在しない場合には、運転者Obの眼が1つ含まれる監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択し、それに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの眼が1つ含まれる監視画像データの中で眠気状態推定に使用するのに最も適したものを選択することで、信頼性の高い眠気状態推定結果が得られる。
このように、運転者Obの眼が含まれる監視画像データが存在しない場合には、監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データを1つ選択し、それに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの眼が1つも含まれていない監視画像データの中で、運転者Obの表情に基づいた眠気状態推定を行うのに最も適したものを選択することで、或る程度の信頼性を持った眠気状態推定結果が得られる。
次に、この発明の第2実施形態を説明する。本第2実施形態においても、上記第1実施形態と同様、状態推定対象者は車両の運転者Obであり、推定する状態は運転者Obの眠気状態である場合を例にして説明する。以下、説明の簡略化のために、上記第1実施形態との相違点を説明し、重複の説明を省略する。
(1)システム
図7は、この発明の第2実施形態に係る状態推定装置1のソフトウェア構成を例示した、状態推定システムのブロック図である。
記憶部12の選択画像データ記憶部123は、制御部11の画像選択部1111が選択した監視画像データを、選択画像データとして記憶する。記憶部12の眠気状態一時記憶部124は、状態推定部1112が1つの選択画像データに基づいて推定した眠気状態をそれぞれ一時記憶する。また、本第2実施形態では、眼開閉時系列データ記憶部122は、運転者Obの眼開閉状態時系列データに加えて、状態推定部1112が1つの選択画像データから測定した眼開閉状態の情報をそれぞれ一時記憶する。
次に、以上のように構成された状態推定システムの動作を説明する。
センシングデータ取り込み動作については、上記第1実施形態と同様である。
図8は、図7に示した状態推定装置1の画像選択部1111における処理手順と処理内容の一例を示すフローチャートである。
図9は、図7に示した状態推定装置1の状態推定部1112の処理手順と処理内容の一例を示すフローチャートである。
推定状態出力部1113は、状態推定部1112からの判定または推定された眠気状態に基づいて、運転者Obへの警告の必要性を判定し、状態推定結果情報を推定結果出力装置3へ出力する。これにより、状態推定結果情報が、推定結果出力装置3にて、警告音や警告灯の点灯として、運転者Obに呈示される。
以上詳述したように一実施形態では、状態推定装置1においては、それぞれ互いに異なる位置に配置された複数台のドライバカメラ21−1、21−2、…、21−Nによって取得されて、記憶部12の監視画像データ記憶部121に記憶した状態推定対象者である車両の運転者Obの複数の監視画像データの中から、画像選択部1111により、眠気状態推定に使用する複数の監視画像データを選択し、状態推定部1112により、この選択された複数の監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、運転者Obの眠気状態の推定結果を示す状態推定結果情報を、推定結果出力装置3から運転者Obに対して出力する。
つまり、運転者Obを互いに異なる位置から撮像するように複数台のドライバカメラ21−1、21−2、…、21−Nを設置しておき、画像選択部1111によって、これら複数台のドライバカメラ21−1、21−2、…、21−Nにより取得された運転者Obの複数の監視画像データの中から、眠気状態推定に使用する複数の監視画像データを選択する。そして、状態推定部1112により、これらの選択された監視画像データに基づいて運転者Obの眠気状態を推定し、推定状態出力部1113により、その推定結果を示す状態推定結果情報を推定結果出力装置3に出力させる。したがって、1つのドライバカメラから取得した運転者Obの監視画像データに基づいて眠気状態推定できない場合であっても、他のドライバカメラから取得した監視画像データに基づいて運転者Obの眠気状態を推定することができるので、運転者Obの状況に依らず、運転者Obの眠気状態を安定して推定できるようになる。
このように、運転者Obの眼が2つとも含まれる監視画像データのそれぞれに基づいて眠気状態を推定し、それら推定結果の平均を、運転者Obの眠気状態の推定結果とする。したがって、最終的な状態推定結果の信頼性が非常に高くなる。
このように、運転者Obの眼が2つとも含まれる監視画像データが存在しない場合には、運転者Obの眼が1つ含まれる監視画像データそれぞれに基づいて状態を推定し、それら推定結果の平均を、運転者Obの眠気状態の推定結果とする。したがって、運転者Obの眼が1つ含まれる1つの監視画像データからの推定結果よりも高い信頼性を有する状態推定結果が得られる。
このように、運転者Obの眼が1つ含まれる監視画像データの数が少ない場合には、さらに運転者Obの顔を正面に近い向きで撮像した監視画像データから順に選択して、状態推定に使用する。したがって、運転者Obの眼が1つ含まれる1つの監視画像データからの推定結果よりも高い信頼性を有する状態推定結果が得られる。
このように、運転者Obの眼が含まれる監視画像データが存在しない場合には、監視画像データのうち、運転者Obの顔を最も正面に近い向きで撮像した監視画像データから順に所定数選択し、それらに基づいて運転者Obの眠気状態を推定する。したがって、運転者Obの眼が1つも含まれていない監視画像データの中で、運転者Obの表情に基づいた眠気状態推定を行うのに適したものから所定数を選択することで、或る程度の信頼性を持った状態推定結果が得られる。
以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
また、運転者Obの眠気状態をPERCLOSに基づいて判定しているが、その他の指標に基づいて判定してもよい。
前記実施形態の一部または全部は、以下の付記に示すように記載することが可能であるが、これに限られない。
(付記1)
それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された状態推定対象者(Ob)の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する画像選択部(1111)と、
前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する状態推定部(1112)と、
推定結果を示す情報を出力する出力部(1113)と、
を具備する状態推定装置(1)。
状態推定対象者(Ob)の状態を推定する状態推定装置(1)が実行する状態推定方法であって、
前記状態推定装置が、それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された前記状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する過程と、
前記状態推定装置が、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する過程と、
前記状態推定装置が、推定結果を示す情報を出力する過程と、
を具備する状態推定方法。
ハードウェアプロセッサ(111)とメモリ(112,113)とを有する状態推定装置であって、
前記ハードウェアプロセッサが、
それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された状態推定対象者(Ob)の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択し、
前記選択された監視画像に基づいて前記状態推定対象者の状態を推定し、
推定結果を示す情報を出力する、
状態推定装置。
ハードウェアプロセッサ(111)とメモリ(112,113)とを有する装置が実行する状態推定方法であって、
前記ハードウェアプロセッサが、それぞれ互いに異なる位置に配置された複数台のカメラ(2−1,2−2,…,2−N)によって取得された状態推定対象者(Ob)の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する過程と、
前記ハードウェアプロセッサが、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する過程と、
前記ハードウェアプロセッサが、推定結果を示す情報を出力する過程と、
を具備する状態推定方法。
Claims (11)
- それぞれ互いに異なる位置に配置された複数台のカメラによって取得された状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する画像選択部と、
前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する状態推定部と、
推定結果を示す情報を出力する出力部と、
を具備する状態推定装置。 - 前記画像選択部は、前記複数の監視画像の中から、前記状態推定対象者の顔が含まれている監視画像を選択する、請求項1に記載の状態推定装置。
- 前記画像選択部は、前記複数の監視画像の中から、前記状態推定対象者の眼が含まれている監視画像を選択する、請求項1または2に記載の状態推定装置。
- 前記画像選択部は、前記複数の監視画像の中から、前記状態推定対象者の眼が2つ含まれている監視画像を選択する、請求項1から請求項3のいずれか1項に記載の状態推定装置。
- 前記画像選択部は、選択された監視画像が複数ある場合に、当該選択された監視画像のうち、前記状態推定対象者の顔を最も正面に近い向きで撮像した監視画像を1つ選択する、請求項1から請求項4のいずれか1項に記載の状態推定装置。
- 前記画像選択部は、前記状態推定対象者の眼が2つとも含まれる監視画像の全てを選択し、
前記状態推定部は、前記選択された監視画像それぞれに基づいて前記状態推定対象者の状態を推定し、それら推定結果の平均を、前記状態推定対象者の状態の推定結果とする、
請求項1に記載の状態推定装置。 - 前記画像選択部は、前記状態推定対象者の眼が2つとも含まれる監視画像が存在しない場合、前記状態推定対象者の眼が1つ含まれる監視画像を全て選択し、
前記状態推定部は、前記選択された複数の監視画像それぞれに基づいて前記状態推定対象者の状態を推定し、それら推定結果の平均を、前記状態推定対象者の状態の推定結果とする、
請求項1に記載の状態推定装置。 - 前記画像選択部は、前記選択した監視画像の数が所定数に満たない場合には、その不足数分、前記状態推定対象者の眼を含まない監視画像のうち、前記状態推定対象者の顔を正面に近い向きで撮像した監視画像から順に選択する、請求項7に記載の状態推定装置。
- 前記画像選択部は、前記状態推定対象者の眼が含まれる監視画像が存在しない場合、前記監視画像のうち、前記状態推定対象者の顔を最も正面に近い向きで撮像した監視画像から順に所定数の監視画像を選択する、請求項1に記載の状態推定装置。
- 状態推定対象者の状態を推定する状態推定装置が実行する状態推定方法であって、
前記状態推定装置が、それぞれ互いに異なる位置に配置された複数台のカメラによって取得された前記状態推定対象者の複数の監視画像の中から、状態推定に使用する少なくとも1つの監視画像を選択する過程と、
前記状態推定装置が、前記選択された監視画像に基づいて前記状態推定対象者の状態を推定する過程と、
前記状態推定装置が、推定結果を示す情報を出力する過程と、
を具備する状態推定方法。 - 請求項1から請求項9のいずれか1項に記載の状態推定装置が具備する各部としてコンピュータを機能させる状態推定プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017238756A JP6711346B2 (ja) | 2017-12-13 | 2017-12-13 | 状態推定装置とその方法およびプログラム |
DE102018130654.7A DE102018130654A1 (de) | 2017-12-13 | 2018-12-03 | Zustandsabschätzungsvorrichtung, Zustandsabschätzungsverfahren und Zustandsabschätzungsprogramm |
CN201811468982.1A CN110025324A (zh) | 2017-12-13 | 2018-12-03 | 状态推断装置、状态推断方法以及记录介质 |
US16/215,467 US20190180126A1 (en) | 2017-12-13 | 2018-12-10 | State estimation apparatus, method, and non-transitory recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017238756A JP6711346B2 (ja) | 2017-12-13 | 2017-12-13 | 状態推定装置とその方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019103664A true JP2019103664A (ja) | 2019-06-27 |
JP6711346B2 JP6711346B2 (ja) | 2020-06-17 |
Family
ID=66629026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017238756A Expired - Fee Related JP6711346B2 (ja) | 2017-12-13 | 2017-12-13 | 状態推定装置とその方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190180126A1 (ja) |
JP (1) | JP6711346B2 (ja) |
CN (1) | CN110025324A (ja) |
DE (1) | DE102018130654A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021026701A (ja) * | 2019-08-08 | 2021-02-22 | 株式会社慶洋エンジニアリング | 居眠り運転防止装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10745009B2 (en) * | 2016-12-21 | 2020-08-18 | Samsung Electronics Co., Ltd. | Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same |
US11527081B2 (en) | 2020-10-20 | 2022-12-13 | Toyota Research Institute, Inc. | Multiple in-cabin cameras and lighting sources for driver monitoring |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002282210A (ja) * | 2001-03-27 | 2002-10-02 | Japan Science & Technology Corp | 視線検出方法及びその装置 |
JP2006167256A (ja) * | 2004-12-17 | 2006-06-29 | National Univ Corp Shizuoka Univ | 瞳孔検出装置 |
JP2007280374A (ja) * | 2006-03-14 | 2007-10-25 | Omron Corp | 情報処理装置および方法、記録媒体、並びに、プログラム |
WO2008007781A1 (fr) * | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
JP2008210239A (ja) * | 2007-02-27 | 2008-09-11 | Nissan Motor Co Ltd | 視線推定装置 |
US20090123031A1 (en) * | 2007-11-13 | 2009-05-14 | Smith Matthew R | Awareness detection system and method |
JP2012022646A (ja) * | 2010-07-16 | 2012-02-02 | Fujitsu Ltd | 視線方向検出装置、視線方向検出方法及び安全運転評価システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2256785B1 (ja) | 1973-09-06 | 1977-12-16 | Staubli Sa Ets | |
JP3319201B2 (ja) | 1995-02-08 | 2002-08-26 | トヨタ自動車株式会社 | 脇見運転判定装置 |
CN102156537B (zh) * | 2010-02-11 | 2016-01-13 | 三星电子株式会社 | 一种头部姿态检测设备及方法 |
CN103458259B (zh) * | 2013-08-27 | 2016-04-13 | Tcl集团股份有限公司 | 一种3d视频引起人眼疲劳度的检测方法、装置及系统 |
US9475387B2 (en) * | 2014-03-16 | 2016-10-25 | Roger Li-Chung Wu | Drunk driving prevention system and method with eye symptom detector |
CN104809445B (zh) * | 2015-05-07 | 2017-12-19 | 吉林大学 | 基于眼部和嘴部状态的疲劳驾驶检测方法 |
CN105069976B (zh) * | 2015-07-28 | 2017-10-24 | 南京工程学院 | 一种疲劳检测和行驶记录综合系统及疲劳检测方法 |
-
2017
- 2017-12-13 JP JP2017238756A patent/JP6711346B2/ja not_active Expired - Fee Related
-
2018
- 2018-12-03 CN CN201811468982.1A patent/CN110025324A/zh active Pending
- 2018-12-03 DE DE102018130654.7A patent/DE102018130654A1/de not_active Withdrawn
- 2018-12-10 US US16/215,467 patent/US20190180126A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002282210A (ja) * | 2001-03-27 | 2002-10-02 | Japan Science & Technology Corp | 視線検出方法及びその装置 |
JP2006167256A (ja) * | 2004-12-17 | 2006-06-29 | National Univ Corp Shizuoka Univ | 瞳孔検出装置 |
JP2007280374A (ja) * | 2006-03-14 | 2007-10-25 | Omron Corp | 情報処理装置および方法、記録媒体、並びに、プログラム |
WO2008007781A1 (fr) * | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
JP2008210239A (ja) * | 2007-02-27 | 2008-09-11 | Nissan Motor Co Ltd | 視線推定装置 |
US20090123031A1 (en) * | 2007-11-13 | 2009-05-14 | Smith Matthew R | Awareness detection system and method |
JP2012022646A (ja) * | 2010-07-16 | 2012-02-02 | Fujitsu Ltd | 視線方向検出装置、視線方向検出方法及び安全運転評価システム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021026701A (ja) * | 2019-08-08 | 2021-02-22 | 株式会社慶洋エンジニアリング | 居眠り運転防止装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190180126A1 (en) | 2019-06-13 |
CN110025324A (zh) | 2019-07-19 |
JP6711346B2 (ja) | 2020-06-17 |
DE102018130654A1 (de) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4845886B2 (ja) | 個人の警戒レベルの指示を生成するための方法及び装置 | |
US20200334477A1 (en) | State estimation apparatus, state estimation method, and state estimation program | |
JP5974915B2 (ja) | 覚醒度検出装置、および覚醒度検出方法 | |
JP6338701B2 (ja) | 瞬間的な眠りを検出するデバイス、方法およびコンピュータプログラム | |
JP2016539446A (ja) | 動作と、顔面と、目及び口形状の認知を通じた2段階に亘っての居眠り運転の防止装置 | |
JP2019103664A (ja) | 状態推定装置とその方法およびプログラム | |
JP2007006427A (ja) | 映像監視装置 | |
US11810373B2 (en) | Cognitive function estimation device, learning device, and cognitive function estimation method | |
JP2019195377A (ja) | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム | |
JP2018128974A (ja) | ドライバ状態監視装置 | |
JP2010033106A (ja) | 運転者支援装置、運転者支援方法および運転者支援処理プログラム | |
JP2016209231A (ja) | 居眠り検知装置 | |
WO2018168038A1 (ja) | 運転者の着座判定装置 | |
JP6672972B2 (ja) | 安全運転支援装置及び安全運転支援プログラム | |
JP6459856B2 (ja) | 車両運転支援装置、車両運転支援方法、およびプログラム | |
JP2013042402A (ja) | 車載カメラ制御装置、車載カメラ制御システム及び車載カメラシステム | |
JP2020194227A (ja) | 顔遮蔽判定装置、顔遮蔽判定方法、顔遮蔽判定プログラム及び乗員監視システム | |
US20190149777A1 (en) | System for recording a scene based on scene content | |
JP6281238B2 (ja) | 認知度推定装置および認知度推定方法 | |
KR101823385B1 (ko) | 사이드 카메라를 이용한 차선 이탈 경보 시스템의 인식률 향상 장치 및 방법 | |
JP3812355B2 (ja) | 運転注意力検出装置および居眠り運転検出装置 | |
JP2021145974A (ja) | 状態推定装置 | |
Victoreia et al. | Driver fatigue monitoring system using eye closure | |
WO2020203911A1 (ja) | 脈拍数検出装置、及び脈拍数検出プログラム | |
US20230114160A1 (en) | Monitoring device, monitoring method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6711346 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |